a:766:{s:15:"20240322_162536";a:7:{s:5:"title";s:28:"QSPTAG #305 — 22 mars 2024";s:4:"link";s:64:"https://www.laquadrature.net/2024/03/22/qsptag-305-22-mars-2024/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23200";s:7:"pubDate";s:31:"Fri, 22 Mar 2024 15:25:36 +0000";s:11:"description";s:263:"Pour mieux surveiller ses allocataires, La CAF aura dorénavant accès aux revenus des Français en temps réel
Notre travail d’enquête sur les algorithmes de contrôle social continue. Après avoir obtenu l’algorithme utilisé par la CAF pour…";s:7:"content";s:10470:"
Pour mieux surveiller ses allocataires, La CAF aura dorénavant accès aux revenus des Français en temps réel
Notre travail d’enquête sur les algorithmes de contrôle social continue. Après avoir obtenu l’algorithme utilisé par la CAF pour contrôler ses allocataires en fonction d’un « score de risque », après avoir analysé cette méthode de calcul et démontré qu’elle ciblait volontairement les personnes les plus précaires, nous poursuivons nos recherches du côté des outils utilisés par d’autres services sociaux : assurance vieillesse, assurance maladie, assurance chômage, etc. Vous pouvez retrouver l’ensemble de ces travaux sur notre page de campagne.
Mais les dernières nouvelles concernant les pratiques de la CAF nous sont arrivées par la presse : tout en se défendant des mauvaises intentions que nous lui prêtions, la CAF continuait/continu ? de demander l’accès à toujours plus de données, pour mieux surveiller ses allocataires. Elle a donc obtenu récemment le droit d’accéder au fichier du Dispositif des ressources mensuelles (DRM), qui recense quotidiennement pour chaque personne l’intégralité de ses sources de revenus : les salaires perçus et les prestations sociales touchées. Créé pour faciliter le calcul des aides personnalisées pour le logement (APL), le fichier connaît donc une déviation flagrante de sa finalité première. Et l’utilisation que compte en faire la CAF n’est pas brillante : il s’agit d’améliorer la « productivité » de son algorithme de contrôle.
Les revenus des allocataires étaient jusqu’à présent connus annuellement au moment de la déclaration de revenus, ou chaque trimestre auprès des allocataires. La surveillance mensuelle des variations de revenus, en permettant une révision plus serrée des droits des allocataires, permettra sans doute de détecter de plus nombreux « trop perçus » – voilà pour la « productivité ». Et qui sont les personnes dont les revenus varient le plus, et ont le plus besoin des aides sociales ? Les plus pauvres, encore une fois.
En plus de cette discrimination automatisée, cette annonce nous paraît révéler deux problèmes : d’une part l’inefficacité du contrôle opéré par la CNIL, pourtant créée pour surveiller l’usage des fichiers, et d’autre part le dévoiement du projet gouvernemental de « solidarité à la source », annoncé comme un moyen de lutter contre le « non recours » aux aides sociales, en passe de devenir un système de centralisation des donnée pléthorique et sans contrôle.
Nous sommes toujours en campagne de soutien pour financer notre travail en 2024. C’est pour nous l’occasion de présenter les grands chantiers en cours, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la défense du droit au chiffrement des communications, la promotion de l’interopérabilité des services Web, et la réflexion nécessaire autour du numérique dans le contexte de la crise écologique mondiale.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
";s:7:"dateiso";s:15:"20240322_162536";}s:15:"20240313_103717";a:7:{s:5:"title";s:100:"Notation des allocataires : la CAF étend sa surveillance à l’analyse des revenus en temps réel";s:4:"link";s:132:"https://www.laquadrature.net/2024/03/13/notation-des-allocataires-la-caf-etend-sa-surveillance-a-lanalyse-des-revenus-en-temps-reel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23078";s:7:"pubDate";s:31:"Wed, 13 Mar 2024 09:37:17 +0000";s:11:"description";s:314:"
Retrouvez l’ensemble de nos publications, documentations et prises de positions sur l’utilisation par les organismes sociaux – CAF, Pôle Emploi, Assurance Maladie, Assurance Vieillesse – d’algorithmes à des fins de contrôle social sur notre page dédiée et notre gitlab.
Il…";s:7:"content";s:60783:"
Retrouvez l’ensemble de nos publications, documentations et prises de positions sur l’utilisation par les organismes sociaux – CAF, Pôle Emploi, Assurance Maladie, Assurance Vieillesse – d’algorithmes à des fins de contrôle social sur notre page dédiée et notre gitlab.
Il y a tout juste deux mois, nous publiions le code source de l’algorithme de notation des allocataires de la CAF. Cette publication démontrait l’aspect dystopique d’un système de surveillance allouant des scores de suspicion à plus de 12 millions de personnes, sur la base desquels la CAF organise délibérement la discrimination et le sur-contrôle des plus précaires. Ce faisant, nous espérions que, face à la montée de la contestation1Le président de la Seine-Saint-Denis a notamment saisi le Défenseur des Droits suite à la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux équipes du journal Le Monde et de Lighthouse Reports pour publier une série d’articles ayant eu un grand retentissement médiatique. Une députée EELV a par ailleurs abordé la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a écrit une tribune sur le sujet et ATD Quart Monde un communiqué. Le parti EELV a aussi lancé une pétition sur ce sujet disponible ici., les dirigeant·es de la CAF accepteraient de mettre fin à ces pratiques iniques. Il n’en fut rien.
À la remise en question, les responsables de la CAF ont préféré la fuite en avant. La première étape fut un contre-feu médiatique où son directeur, Nicolas Grivel, est allé jusqu’à déclarer publiquement que la CAF n’avait ni « à rougir » ni à s’« excuser » de telles pratiques. La deuxième étape, dont nous venons de prendre connaissance2Voir l’article « L’État muscle le DRM, l’arme pour lutter contre la fraude et le non-recours aux droits » publié le 01/02/2024 par Emile Marzof et disponible ici., est bien plus inquiétante. Car parallèlement à ses déclarations, ce dernier cherchait à obtenir l’autorisation de démultiplier les capacités de surveillance de l’algorithme via l’intégration du suivi en « temps réel »3Bien que la fréquence de mise à jour des revenus soit majoritairement mensuelle, dans la mesure où les salaires sont versés une fois par mois, nous reprenons ici l’expression utilisée par la Cour des comptes. Voir le chapitre 9 du Rapport sur l’application des lois de financement de la sécurité sociale de 2022 disponible ici. des revenus de l’ensemble des allocataires. Autorisation qu’il a obtenue, avec la bénédiction de la CNIL, le 29 janvier dernier4Décret n° 2024-50 du 29 janvier 2024 disponible ici. Voir aussi la délibération n° 2023-120 du 16 novembre 2023 de la CNIL ici. Le décret prévoit une expérimentation d’un an. La surveillance des revenus est aussi autorisée pour le contrôle des agriculteurs·rices par les Mutualités Sociales Agricoles et des personnes âgées par la Caisse Nationale d’Assurance Vieillesse..
Surveillance et « productivité » des contrôles
Pour rappel, le revenu est une des quelque quarante variables utilisées par la CAF pour noter les allocataires. Comme nous l’avions montré, plus le revenu d’un·e allocataire est faible, plus son score de suspicion est élevé et plus ses risques d’être contrôlé·e sont grands. C’est donc un des paramètres contribuant directement au ciblage et à la discrimination des personnes défavorisées.
Jusqu’à présent, les informations sur les revenus des allocataires étaient soit récupérées annuellement auprès des impôts, soit collectées via les déclarations trimestrielles auprès des allocataires concerné·es (titulaires du RSA, de l’AAH…)5Voir lignes 1100 du code de l’algorithme en usage entre 2014 et 2018 disponible ici : pour le calcul des revenus mensuels, la CAF utilise soit les déclarations de revenus trimestrielles (dans le cadre des personnes au RSA/AAH) divisées par 3, soit les revenus annuels divisés par 12. Si nous ne disposons pas de la dernière version de l’algorithme, la logique devrait être la même. . Désormais, l’algorithme de la CAF bénéficiera d’un accès en « temps réel » aux ressources financières de l’ensemble des 12 millions d’allocataires (salaires et prestations sociales).
Pour ce faire, l’algorithme de la CAF sera alimenté par une gigantesque base de données agrégeant, pour chaque personne, les déclarations salariales transmises par les employeurs ainsi que les prestations sociales versées par les organismes sociaux (retraites, chômage, RSA, AAH, APL…)6 L’architecture de la base DRM repose sur l’agrégation de deux bases de données. La première est la base des « Déclarations Sociales Nominatives » (DSN) regroupant les déclarations de salaires faites par les employeurs. La seconde, « base des autres revenus » (PASRAU), centralise les prestations sociales monétaires (retraites, APL, allocations familiales, indemnités journalières, AAH, RSA, allocations chômage..). La base DRM est mise à jour quotidiennement et consultable en temps réel. D’un point de vue pratique, il semblerait que le transfert de données de la base DRM à la CAF soit fait mensuellement. La CAF peut aussi accéder à une API pour une consultation du DRM en temps réel. Voir notamment le chapitre 9 du rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici. : c’est le « Dispositif des Ressources Mensuelles » (DRM). Cette base, créée en 2019 lors de mise en place de la réforme de la « contemporanéisation » des APL7Plus précisément, cette base a été créée afin de mettre en place la réforme des APL de 2021 et l’information des assuré·es sociaux (voir la délibération de la CNIL 2019-072 du 23 mai 2019 disponible ici et le décret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut être utilisé à des fins de calcul s’est agrandie avec le récent décret permettant son utilisation à des fins de contrôle (voir le décret n°2024-50 du 29 janvier 2024 disponible ici. Il peut désormais, entre autres, être utilisée pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invalidités, de la complémentaire santé-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de données sur les ressources dans le cadre du projet de « solidarité » à la source. Concernant la lutte contre la fraude, son utilisation n’était pas envisagée pour détecter des situations « à risque » même si certaines de ces données pouvaient, a priori, être utilisées notamment lors d’un contrôle par les administrations sociales (consultation RNCPS – répertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prélèvement à la source disponible ici. , est mise à jour quotidiennement, et offre des capacités inégalées de surveillance des allocataires.
La justification d’une telle extension de la surveillance à l’œuvre à des fins de notation des allocataires est d’accroître la « productivité du dispositif [de l’algorithme] » selon les propres termes des responsables de la CAF8Voir la délibération 2023-120 de la CNIL disponible ici. . Qu’importe que se multiplient les témoignages révélant les violences subies par les plus précaires lors des contrôles9Voir notamment les témoignages collectés par le collectif Changer de Cap, disponibles ici et le rapport de la Défenseure des Droits.. Qu’importe aussi que les montants récupérés par l’algorithme soient dérisoires au regard du volume des prestations sociales versées par l’institution10Les montants d’« indus » récupérés par la CAF dans le cadre des contrôles déclenchés par l’algorithme représentent 0,2% du montant total des prestations versées par la CAF. Voir ce document de la CAF.. Les logiques gestionnaires ont fait de la course aux « rendements des contrôles » une fin en soi à laquelle tout peut être sacrifié.
Que cette autorisation soit donnée à titre « expérimental », pour une période d’un an, ne peut être de nature à nous rassurer tant on sait combien le recours aux « expérimentations » est devenu un outil de communication visant à faciliter l’acceptabilité sociale des dispositifs de contrôle numérique11Voir notamment notre article « Stratégies d’infiltration de la surveillance biométrique dans nos vies », disponible ici..
La CNIL à la dérive
La délibération de la CNIL qui acte l’autorisation accordée à la CAF de ce renforcement sans précédent des capacités de surveillance de son algorithme de notation laisse sans voix12Voir la délibération n° 2023-120 du 16 novembre 2023 disponible ici.. Loin de s’opposer au projet, ses recommandations se limitent à demander à ce qu’une attention particulière soit « accordée à la transparence » de l’algorithme et à ce que… le « gain de productivité du dispositif » fasse l’objet d’un « rapport circonstancié et chiffré ». La violation de l’intimité des plus de 30 millions de personnes vivant dans un foyer bénéficiant d’une aide de la CAF est donc ramenée à une simple question d’argent…
Nulle part n’apparaît la moindre critique politique d’un tel dispositif, alors même que cela fait plus d’un an que, aux côtés de différents collectifs et de la Défenseure des Droits, nous alertons sur les conséquences humaines désastreuses de cet algorithme. La CNIL alerte par contre la CNAF sur le risque médiatique auquelle elle s’expose en rappelant qu’un scandale autour d’un algorithme en tout point similaire a « conduit le gouvernement néerlandais à démissionner en janvier 2021 ». Une illustration caricaturale de la transformation du « gendarme des données » en simple agence de communication pour administrations désireuses de ficher la population.
On relèvera également un bref passage de la CNIL sur les « conséquences dramatiques » du risque de « décisions individuelles biaisées » conduisant l’autorité à demander à ce que l’algorithme soit « conçu avec soin ». Celui-ci démontre – au mieux – l’incompétence technique de ses membres. Rappelons que cet algorithme ne vise pas à détecter la fraude mais les indus ayant pour origine des erreurs déclaratives. Or, ces erreurs se concentrent, structurellement, sur les allocataires aux minima sociaux, en raison de la complexité des règles d’encadrement de ces prestations13Voir nos différents articles sur le sujet ici et l’article de Daniel Buchet, ancien directeur de la maîtrise des risques et de la lutte contre la fraude de la CNAF. 2006. « Du contrôle des risques à la maîtrise des risques », disponible ici. . Le ciblage des plus précaires par l’algorithme de la CAF n’est donc pas accidentel mais nécessaire à l’atteinte de son objectif politique : assurer le « rendement des contrôles ». La seule façon d’éviter de tels « biais » est donc de s’opposer à l’usage même de l’algorithme.
Pire, la CNIL valide, dans la même délibération, l’utilisation du DRM à des fins de contrôle de nos aîné·es par l’Assurance Vieillesse (CNAV)… tout en reconnaissant que l’algorithme de la CNAV n’a jamais « fait l’objet de formalités préalables auprès d’elle, même anciennes »14Si nous n’avons pas encore la preuve certaine que la CNAV utilise un algorithme de profilage pour le contrôle des personnes à la retraite, la CNIL évoque concernant cette administration dans sa délibération « un traitement de profilage » et « un dispositif correspondant [à l’algorithme de la CNAF] » laissant sous-entendre que c’est le cas. . Soit donc qu’il est probablement illégal. Notons au passage que le rapporteur de la CNIL associé à cette délibération n’est autre que le député Philippe Latombe, dont nous avons dû signaler les manquements déontologiques auprès de la CNIL elle-même du fait de ses accointances répétées et scandaleuses avec le lobby sécuritaire numérique15Voir aussi l’article de Clément Pouré dans StreetPress, disponible ici, qui pointe par ailleurs les relations du député avec l’extrême-droite..
« Solidarité » à la source et contrôle social : un appel à discussion
Si nous ne nous attendions pas à ce que le directeur de la CAF abandonne immédiatement son algorithme de notation des allocataires, nous ne pouvons qu’être choqué·es de voir que sa seule réponse soit de renforcer considérablement ses capacités de surveillance. C’est pourquoi nous appelons, aux côtés des collectifs avec qui nous luttons depuis le début, à continuer de se mobiliser contre les pratiques numériques de contrôle des administrations sociales, au premier rang desquelles la CAF.
Au-delà du mépris exprimé par la CAF face à l’opposition grandissante aux pratiques de contrôle, cette annonce met en lumière le risque de surveillance généralisée inhérent au projet gouvernemental de « solidarité » à la source. Présenté comme la « grande mesure sociale » du quinquennat16Pour reprendre les termes de cet article du Figaro., ce projet vise à substituer au système déclaratif une automatisation du calcul des aides sociales via le pré-remplissage des déclarations nécessaires à l’accès aux prestations sociales.
Étant donné la grande complexité des règles de calculs et d’attribution de certaines prestations sociales – en particulier les minima sociaux – cette automatisation nécessite en retour que soit déployée la plus grande infrastructure numérique jamais créée à des fins de récolte, de partage et de centralisation des données personnelles de la population française (impôts, CAF, Assurance-Maladie, Pôle Emploi, CNAV, Mutualités Sociales Agricoles….). De par sa taille et sa nature, cette infrastructure pose un risque majeur en termes de surveillance et de protection de la vie privée.
Et c’est précisément à cet égard que l’autorisation donnée à la CAF d’utiliser le DRM pour nourrir son algorithme de notation des allocataires est emblématique. Car le DRM est lui-même une pierre angulaire du projet de « solidarité » à la source17Plus précisément, cette base a été créée afin de mettre en place la réforme des APL de 2021 et l’information des assuré·es sociaux (voir la délibération de la CNIL 2019-072 du 23 mai 2010 disponible ici et le décret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut être utilisé à des fins de calcul s’est agrandie avec le récent décret permettant son utilisation à des fins de contrôle (voir le décret n°2024-50 du 29 janvier 2024 disponible ici. Il peut désormais, entre autres, être utilisée pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invalidités, de la complémentaire santé-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de données sur les ressources dans le cadre du projet de « solidarité » à la source. Concernant la lutte contre la fraude, son utilisation n’était pas envisagée pour détecter des situations « à risque » même si certaines de ces données pouvaient, a priori, être utilisées notamment lors d’un contrôle par les administrations sociales (consultation RNCPS – répertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prélèvement à la source disponible ici. – sa « première brique » selon les termes du Premier ministre – dont il constitue le socle en termes de centralisation des données financières18Sénat, commission des affaires sociales, audition de M. Gabriel Attal, alors ministre délégué chargé des comptes publics. Disponible ici.. Or, si sa constitution avait à l’époque soulevé un certain nombre d’inquiétudes19Voir notamment l’article de Jérôme Hourdeaux « Caisse d’allocations familiales : le projet du gouvernement pour ficher les allocataires » disponible (paywall) ici., le gouvernement s’était voulu rassurant. Nulle question qu’il soit utilisée à des fins de contrôle : ses finalités étaient limitées à la lutte contre le non-recours et au calcul des prestations sociales20Décret n° 2019-969 du 18 septembre 2019 relatif à des traitements de données à caractère personnel portant sur les ressources des assurés sociaux disponible ici. La délibération de la CNIL associée est disponible ici.. Cinq années auront suffit pour que ces promesses soient oubliées.
Nous reviendrons très prochainement sur la solidarité à la source dans un article dédié. Dans le même temps, nous appelons les acteurs associatifs, au premier titre desquels les collectifs de lutte contre la précarité, à la plus grande prudence quant aux promesses du gouvernement et les invitons à engager une discussion collective autour de ces enjeux.
Le président de la Seine-Saint-Denis a notamment saisi le Défenseur des Droits suite à la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux équipes du journal Le Monde et de Lighthouse Reports pour publier une série d’articles ayant eu un grand retentissement médiatique. Une députée EELV a par ailleurs abordé la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a écrit une tribune sur le sujet et ATD Quart Monde un communiqué. Le parti EELV a aussi lancé une pétition sur ce sujet disponible ici.
Voir l’article « L’État muscle le DRM, l’arme pour lutter contre la fraude et le non-recours aux droits » publié le 01/02/2024 par Emile Marzof et disponible ici.
Bien que la fréquence de mise à jour des revenus soit majoritairement mensuelle, dans la mesure où les salaires sont versés une fois par mois, nous reprenons ici l’expression utilisée par la Cour des comptes. Voir le chapitre 9 du Rapport sur l’application des lois de financement de la sécurité sociale de 2022 disponible ici.
Décret n° 2024-50 du 29 janvier 2024 disponible ici. Voir aussi la délibération n° 2023-120 du 16 novembre 2023 de la CNIL ici. Le décret prévoit une expérimentation d’un an. La surveillance des revenus est aussi autorisée pour le contrôle des agriculteurs·rices par les Mutualités Sociales Agricoles et des personnes âgées par la Caisse Nationale d’Assurance Vieillesse.
Voir lignes 1100 du code de l’algorithme en usage entre 2014 et 2018 disponible ici : pour le calcul des revenus mensuels, la CAF utilise soit les déclarations de revenus trimestrielles (dans le cadre des personnes au RSA/AAH) divisées par 3, soit les revenus annuels divisés par 12. Si nous ne disposons pas de la dernière version de l’algorithme, la logique devrait être la même.
L’architecture de la base DRM repose sur l’agrégation de deux bases de données. La première est la base des « Déclarations Sociales Nominatives » (DSN) regroupant les déclarations de salaires faites par les employeurs. La seconde, « base des autres revenus » (PASRAU), centralise les prestations sociales monétaires (retraites, APL, allocations familiales, indemnités journalières, AAH, RSA, allocations chômage..). La base DRM est mise à jour quotidiennement et consultable en temps réel. D’un point de vue pratique, il semblerait que le transfert de données de la base DRM à la CAF soit fait mensuellement. La CAF peut aussi accéder à une API pour une consultation du DRM en temps réel. Voir notamment le chapitre 9 du rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici.
Plus précisément, cette base a été créée afin de mettre en place la réforme des APL de 2021 et l’information des assuré·es sociaux (voir la délibération de la CNIL 2019-072 du 23 mai 2019 disponible ici et le décret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut être utilisé à des fins de calcul s’est agrandie avec le récent décret permettant son utilisation à des fins de contrôle (voir le décret n°2024-50 du 29 janvier 2024 disponible ici. Il peut désormais, entre autres, être utilisée pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invalidités, de la complémentaire santé-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de données sur les ressources dans le cadre du projet de « solidarité » à la source. Concernant la lutte contre la fraude, son utilisation n’était pas envisagée pour détecter des situations « à risque » même si certaines de ces données pouvaient, a priori, être utilisées notamment lors d’un contrôle par les administrations sociales (consultation RNCPS – répertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prélèvement à la source disponible ici.
Les montants d’« indus » récupérés par la CAF dans le cadre des contrôles déclenchés par l’algorithme représentent 0,2% du montant total des prestations versées par la CAF. Voir ce document de la CAF.
Voir nos différents articles sur le sujet ici et l’article de Daniel Buchet, ancien directeur de la maîtrise des risques et de la lutte contre la fraude de la CNAF. 2006. « Du contrôle des risques à la maîtrise des risques », disponible ici.
Si nous n’avons pas encore la preuve certaine que la CNAV utilise un algorithme de profilage pour le contrôle des personnes à la retraite, la CNIL évoque concernant cette administration dans sa délibération « un traitement de profilage » et « un dispositif correspondant [à l’algorithme de la CNAF] » laissant sous-entendre que c’est le cas.
Plus précisément, cette base a été créée afin de mettre en place la réforme des APL de 2021 et l’information des assuré·es sociaux (voir la délibération de la CNIL 2019-072 du 23 mai 2010 disponible ici et le décret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut être utilisé à des fins de calcul s’est agrandie avec le récent décret permettant son utilisation à des fins de contrôle (voir le décret n°2024-50 du 29 janvier 2024 disponible ici. Il peut désormais, entre autres, être utilisée pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invalidités, de la complémentaire santé-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de données sur les ressources dans le cadre du projet de « solidarité » à la source. Concernant la lutte contre la fraude, son utilisation n’était pas envisagée pour détecter des situations « à risque » même si certaines de ces données pouvaient, a priori, être utilisées notamment lors d’un contrôle par les administrations sociales (consultation RNCPS – répertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sécurité sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prélèvement à la source disponible ici.
Voir notamment l’article de Jérôme Hourdeaux « Caisse d’allocations familiales : le projet du gouvernement pour ficher les allocataires » disponible (paywall) ici.
Décret n° 2019-969 du 18 septembre 2019 relatif à des traitements de données à caractère personnel portant sur les ressources des assurés sociaux disponible ici. La délibération de la CNIL associée est disponible ici.
";s:7:"dateiso";s:15:"20240313_103717";}s:15:"20240209_181728";a:7:{s:5:"title";s:31:"QSPTAG #304 — 9 février 2024";s:4:"link";s:66:"https://www.laquadrature.net/2024/02/09/qsptag-304-9-fevrier-2024/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23044";s:7:"pubDate";s:31:"Fri, 09 Feb 2024 17:17:28 +0000";s:11:"description";s:259:"Un nouveau fichier de police pour les immigrées et les transgenres
Un arrêté du ministre de l’Intérieur, dans les derniers jours de décembre 2023, crée un nouveau fichier pour « la consultation de l’identité des personnes ayant…";s:7:"content";s:9035:"
Un nouveau fichier de police pour les immigrées et les transgenres
Un arrêté du ministre de l’Intérieur, dans les derniers jours de décembre 2023, crée un nouveau fichier pour « la consultation de l’identité des personnes ayant changé de nom ou de prénom »., à laquelle les services de police et de gendarmerie auront un accès direct. Vous êtes concernée si vous avez changé de nom à l’état civil, quelle qu’en soit la raison. Concrètement, qui va se retrouver dans ce fichier ? Des personnes dont le nom de famille était lourd à porter (les Connard qui aspirent à une vie plus apaisée), des immigrées qui ont francisé leur nom, et des personnes trans qui ont adopté un prénom en accord avec leur identité de genre. Pourquoi la police a-t-elle besoin de les rassembler dans un fichier ?
On se met à la place des administrations : il est évidement important pour elles de connaître le changement d’état civil d’un personne. Mais des procédures efficace existent déjà et de façon entièrement décentralisée : la modification est signalée au cas par cas aux administrations concernées (impôts, caisses de sécurité sociale, employeur, permis de conduire, etc.), par l’INSEE ou par la personne concernée, et le système fonctionne très bien sans fichier centralisé de police.
Les questions soulevées par la création de ce fichier sont nombreuses. D’abord, il réunit des données sensibles, au sens juridique, mais les précautions légales nécessaires pour ce genre de traitement n’ont pas été prises. La CNIL, créée en 1978 pour mettre un frein à la frénésie de fichage de l’État, semble avoir renoncé à s’en soucier. Non seulement les fichiers prolifèrent de manière spectaculaire depuis une vingtaine d’années, mais les possibilités de les croiser au moment de la consultation se sont démultipliées, à la demande d’une police dont la vision de la société n’est contre-balancée par aucun contre-pouvoir, et même vigoureusement encouragée par les gouvernements.
Or, le comportement du corps policier, pris dans sa globalité statistique, démontre une hostilité marquée à l’égard des personnes d’origine étrangère (même lointainement) et à l’égard des personnes transgenres, fréquemment objets de moqueries, d’humiliations ou de brutalités physiques. Donner aux policiers, ces humains plein de défauts, un moyen de connaître l’origine étrangère ou la transidentité de quelqu’un, c’est exposer les personnes à des risques réels, pour un bénéfice d’enquête très marginal a priori. D’autant plus quand l’actualité montre un nombre croissant d’accès illégaux à des fichiers de police sensibles.
Pour connaître le contexte de la création de ce fichier et notre analyse juridique et politique des risques qu’il comporte, lisez notre article de la semaine dernière !
Comme bon nombre d’associations, nous sommes en campagne de soutien pour financer notre travail en 2024. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la défense du droit au chiffrement des communications, la promotion de l’interopérabilité des services Web, et la réflexion nécessaire autour du numérique dans le contexte de la crise écologique mondiale.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
13 février 2024 : Conférence « Enquêter, s’organiser et lutter contre la surveillance numérique », dans le cadre du Festival international Filmer le travail. 17h30, Université de Poitiers (Amphi Bourdieu). Plus d’infos ici : Enquêter, s’organiser et lutter contre la surveillance numérique.
14 mars 2024 : réunion mensuelle du groupe Technopolice Marseille, à 19h au Manifesten, 59 Rue Adolphe Thiers, Marseille. Présentations, discussions, préparations d’actions à venir. Venez nombreuses !
";s:7:"dateiso";s:15:"20240209_181728";}s:15:"20240130_151000";a:7:{s:5:"title";s:46:"La France crée un fichier des personnes trans";s:4:"link";s:86:"https://www.laquadrature.net/2024/01/30/la-france-cree-un-fichier-des-personnes-trans/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23022";s:7:"pubDate";s:31:"Tue, 30 Jan 2024 14:10:00 +0000";s:11:"description";s:277:"Révélé et dénoncé par plusieurs associations de défense des droits des personnes transgenres, un récent arrêté ministériel autorise la création d’un fichier de recensement des changements d’état civil. Accessible par la police et présenté comme…";s:7:"content";s:27185:"
Révélé et dénoncé par plusieurs associations de défense des droits des personnes transgenres, un récent arrêté ministériel autorise la création d’un fichier de recensement des changements d’état civil. Accessible par la police et présenté comme une simplification administrative, ce texte aboutit en réalité à la constitution d’un fichier plus que douteux, centralisant des données très sensibles, et propice à de nombreuses dérives. Le choix de créer un tel fichier pose d’immenses problèmes aussi bien politiquement que juridiquement.
Brève histoire du RNIPP
Comme beaucoup d’actes réglementaires pris en fin d’année, l’arrêté du 19 décembre 2023 « portant création d’un traitement automatisé de données à caractère personnel dénommé « table de correspondance des noms et prénoms » » aurait pu passer inaperçu. Il est pourtant d’une sensibilité extrême.
Avant d’en détailler le contenu, revenons rapidement sur le contexte et l’origine de ce texte. Celui-ci découle d’un autre acte réglementaire : un décret-cadre de 2019 relatif à l’utilisation du Numéro d’identification au répertoire national des personnes physiques (NIR). Le NIR, c’est ce fameux numéro « de sécurité sociale » attribué à chaque personne à sa naissance sur la base d’éléments d’état civil transmis par les mairies à l’INSEE. Bien que, dans les années 1970, le projet d’utiliser le NIR pour interconnecter des fichiers d’États ait inquiété et conduit à la création de la CNIL, il est aujourd’hui largement utilisé par les administrations fiscales, dans le domaine des prestations sociales, dans l’éducation ou encore la justice, ainsi que pour le recensement. Le NIR peut également être consulté au travers du répertoire national d’identification des personnes physiques (RNIPP).
Si, en théorie, ce numéro devrait être très encadré et contrôlé par la CNIL, son utilisation est aujourd’hui très étendue, comme le démontre ce fameux décret-cadre de 2019 qui recense la longue liste des traitements utilisant le NIR ou permettant la consultation du RNIPP. Régulièrement mis à jour pour ajouter chaque nouveau traitement lié au NIR ou RNIPP, le décret a ainsi été modifié en octobre 2023 pour autoriser une nouvelle possibilité de consultation du RNIPP lié au changement d’état civil. C’est donc cela que vient ensuite préciser l’arrêté de décembre, objet de nos critiques.
Lorsqu’on lit le décret et l’arrêté ensemble, on comprend qu’il accorde aux services de police un accès au RNIPP « pour la consultation des seules informations relatives à l’identité des personnes ayant changé de nom ou de prénom » en application du code civil, à l’exclusion du NIR, et ce « aux fins de transmission ou de mise à disposition de ces informations aux services compétents du ministère de l’intérieur et des établissements qui lui sont rattachés et de mise à jour de cette identité dans les traitements de données à caractère personnel mis en œuvre par eux ». Il s’agirait du premier accès au RNIPP accordé au ministère de l’intérieur.
Un fichier de données sensibles…
Dans ce nouveau fichier, seront ainsi enregistrées pendant six ans les données liées au changement d’état civil ayant lieu après le 19 décembre 2023 : les noms de famille antérieurs et postérieurs au changement de nom, les prénoms antérieurs et postérieurs au changement de prénom, la date et le lieu de naissance, la date du changement de nom ou de prénom, le sexe et le cas échéant, la filiation.
Ces changements ne concernent pas l’utilisation d’un nom d’usage, tel que le nom de la personne avec qui l’on est marié·e, qui est le changement le plus courant. En pratique, de telles modifications d’état civil concerneraient deux principales situations : le changement de prénom lors d’une transition de genre ou le changement de nom et/ou prénom que des personnes décident de « franciser », notamment après une obtention de papiers. Si le fichier apparaît comme un instrument de simplification administrative au premier regard, il constitue également – comme l’ont dénoncé les associations de défense des droits LGBTQI+ – un fichier recensant de fait les personnes trans et une partie des personnes immigrées.
D’un point de vue juridique, notre analyse nous conduit à estimer que ce fichier contient des données dites « sensibles », car elles révéleraient « la prétendue origine raciale ou l’origine ethnique » ainsi que « des données concernant la santé ». La Cour de justice de l’Union européenne a récemment établi1Voir l’arrêt de la CJUE, gr. ch., 1er août 2022, OT c. Vyriausioji tarnybin˙es etikos komisija, aff. C-184/20 que la définition des données sensibles devait être interprétée de façon large et considère que si des données personnelles sont susceptibles de dévoiler, même de manière indirecte, des informations sensibles concernant une personne, elles doivent être considérées comme des données sensibles. Dans cette même décision, la Cour ajoute ainsi que si les données traitées ne sont pas sensibles lorsqu’elles sont prises indépendamment mais que, par recoupement avec d’autres données (fait par le traitement ou par un tiers) elles peuvent malgré tout révéler des informations sensibles sur les personnes concernées, alors elles doivent être considérées comme étant sensibles.
C’est exactement le cas ici : les noms et prénoms ne sont pas des données sensibles, mais si une personne tierce a en parallèle l’information que ceux-ci ont été modifiés, elle peut, par recoupement, en déduire des informations sur la transidentité d’une personne (qui changerait de Julia à Félix) ou son origine (qui passerait de Fayad à Fayard pour reprendre l’exemple donné par l’État). Cette table de correspondance crée donc en réalité un traitement de données sensibles. Or celles-ci sont particulièrement protégées par la loi. L’article 6 de la loi informatique et libertés de 1978 et l’article 9 du RGPD posent une interdiction de principe de traiter ces données et prévoient un nombre limité d’exceptions l’autorisant. Pourtant, dans sa délibération sur le décret, d’ailleurs particulièrement sommaire, la CNIL ne s’est pas penchée sur cette conséquence indirecte mais prévisible de création de données sensibles. Celles-ci seraient donc traitées en dehors des règles de protection des données personnelles.
…à destination de la police
Ensuite, la raison d’être de ce fichier particulièrement sensible interroge. La finalité avancée dans l’arrêté est « la consultation de l’identité des personnes ayant changé de nom ou de prénom en application des articles 60, 61 et 61-3-1 du code civil » et « la mise à jour de cette identité dans les traitements de données à caractère personnel que [le ministre de l’intérieur] ou les établissements publics qui lui sont rattachés mettent en œuvre ». En première lecture, on pourrait imaginer qu’il s’agit de simple facilité de mise à jour administrative. Pourtant, celle-ci diffère des procédures existantes. En effet, aujourd’hui, lorsqu’une personne change de prénom et/ou de nom, la mairie ayant enregistré le changement d’état civil informe l’INSEE qui met à jour le RNIPP et prévient les organismes sociaux et fiscaux (Pôle Emploi, les impôts, la CPAM…). En parallèle, la personne concernée doit faire un certain nombre de procédures de modifications de son coté (carte d’identité, de sécurité sociale, permis de conduire…)2L’Amicale Radicale des Cafés Trans de Strasbourg a publié dans un billet de blog un récapitulatif de l’ensemble des démarches à effectuer pour changer d’état civil en France..
Aucune administration n’a donc, à aucun moment, accès à un fichier recensant les changements d’état civil puisque ces modifications sont faites de façon distribuée, soit à l’initiative de l’INSEE soit à celle de la personne concernée. Pourquoi ne pas en rester là ? La raison tient sans doute au fait qu’en réalité, ce fichier est un des instruments de surveillance de la police. La lecture des nombreux destinataires du traitement est éloquente. Il s’agit des agents habilités de la police nationale et de la gendarmerie nationale, des agents habilités des services centraux du ministère de l’Intérieur et des préfectures et sous-préfectures, des agents effectuant des enquêtes administratives (pour des emplois publics ou demandes de séjour) ou des enquêtes d’autorisation de voyage, ou encore de l’agence nationale des données de voyage, du commandement spécialisé pour la sécurité nucléaire et du conseil national des activités privées de sécurité (sécurité privée qui a de plus en plus de pouvoir depuis la loi Sécurité globale…).
On le comprend alors : cette « table de correspondance » a pour unique but d’être consultée en parallèle d’autres fichiers de police, dont le nombre a explosé depuis 20 ans (il y en aurait aujourd’hui plus d’une centaine3Le dernier décompte a été fait en 2018 dans un rapport parlementaire sur le sujet ) et dont les périmètres ne cessent de s’élargir. Ainsi, par exemple, lorsqu’un agent de police contrôle l’identité d’une personne, il ne consultera plus seulement le fichier de traitement des antécédents judiciaires (ou TAJ), mais également ce fichier des personnes ayant changé de nom : le premier lui permettra alors de connaître les antécédents de la personne, et le second de savoir si elle est trans ou étrangère.
Si les deux situations soulèvent des inquiétudes sérieuses, attardons-nous sur le cas des personnes trans. Elles seront outées de fait auprès de la police qui aurait alors connaissance de leur deadname4Le lexique du site Wiki Trans définit l’outing comme la révélation « qu’une personne est trans (ou LGBTQIA+). L’outing ne doit JAMAIS se faire sans le consentement de la personne concernée. Et cela peut être considéré, dans le code pénal, comme une atteinte à la vie privée ». Le deadname est le « prénom assigné à la naissance » et peut être source de souffrance pour une personne trans.. Or de nombreux témoignages, tels que ceux recensés chaque année par SOS Homophobie dans ses rapports sur les LGBTI-phobies, démontrent qu’il existe une réelle transphobie au sein de la police. Compte tenu de ces discriminations et des violences qui peuvent y êtres associées, fournir de telles informations à la police aura non seulement pour effet de les renforcer mais peut également mettre en danger les personnes trans confrontées à la police. Ces craintes ont été partagées sur les réseaux sociaux et laissent entendre que certain·es pourraient renoncer à entamer de telles démarches de changement d’état civil face à la peur d’être présent·es dans un tel fichier. De façon générale, les personnes trans sont historiquement et statistiquement davantage victimes de violences policières.
Par ailleurs, les informations de cette « table de correspondance » pourront venir nourrir le renseignement administratif, notamment le fichier PASP qui permet de collecter un grand nombre d’informations, aussi bien les opinions politiques que l’activité des réseaux sociaux ou l’état de santé des dizaines de milliers de personne qui y sont fichées. Alors que ces capacités de surveillance prolifèrent, sans aucun réel contrôle de la CNIL (nous avons déposé une plainte collective contre le TAJ il y a plus d’un an, toujours en cours d’instruction par l’autorité à ce jour), l’arrêté de décembre dernier offre à la police toujours plus de possibilités d’en connaître davantage sur la population et de nourrir son appétit de généralisation du fichage.
Un choix dangereux en question
Au-delà de cette motivation politique, qui s’inscrit dans une extension sans limite du fichage depuis deux décennies, il faut également critiquer les implications techniques liées à la création d’un tel fichier. En centralisant des informations, au demeurant très sensibles, l’État crée un double risque. D’une part, que ces informations dès lors trop facilement accessibles soient dévoyées et fassent l’objet de détournement et autres consultations illégales de la part de policiers, comme pour bon nombre de fichiers de police au regard du recensement récemment effectué par Mediapart.
D’autre part, du fait de la centralisation induite par la création d’un fichier, les sources de vulnérabilité et de failles de sécurité sont démultipliées par rapport à un accès décentralisé à ces informations. Avec de nombreux autres acteurs, nous formulions exactement les mêmes critiques en 2016 à l’encontre d’une architecture centralisée de données sensibles au moment de l’extension du fichier TES à l’ensemble des personnes détentrices d’une carte d’identité, cela aboutissant alors à créer un fichier qui centralise les données biométriques de la quasi-totalité de la population française.
En somme, ce décret alimente des fichiers de police déjà disproportionnés, en y ajoutant des données sensibles en dérogation du cadre légal, sans contrôle approprié de la CNIL et touche principalement les personnes trans et étrangères, facilitant par là le travail de surveillance et de répression de ces catégories de personnes déjà stigmatisées par la police.
Cette initiative n’est pas unique à la France et s’inscrit dans un mouvement global inquiétant. En Allemagne, malgré l’objectif progressiste d’une loi de 2023 sur le changement de genre déclaratif, des associations telles que le TGEU ont dénoncé le fait que les modifications d’état civil soient automatiquement transférées aux services de renseignement. Aux États-Unis, différents États ont adopté des lois discriminatoires vis-à-vis des personnes trans, forçant certaines personnes à détransitionner ou bien à quitter leur État pour éviter de perdre leurs droits. Au Texas, le procureur général républicain a essayé d’établir une liste des personnes trans à partir des données relatives aux modifications de sexe dans les permis de conduire au cours des deux dernières années.
En outre, ce décret crée pour la première fois un accès pour le ministère de l’Intérieur au RNIPP, répertoire pourtant réservé aux administrations sociales et fiscales. Or, l’expérience nous montre que toute nouvelle possibilité de surveillance créé un « effet cliquet » qui ne conduit jamais à revenir en arrière mais au contraire à étendre toujours plus les pouvoirs accordés.
Nous nous associons donc aux différentes organisations ayant critiqué la création de ce fichier stigmatisant et qui participe à l’édification d’un État policier ciblant des catégories de populations déjà en proie aux discriminations structurelles. Nous espérons qu’outre ses dangers politiques, son illégalité sera dénoncée et conduira rapidement à son abrogation.
L’Amicale Radicale des Cafés Trans de Strasbourg a publié dans un billet de blog un récapitulatif de l’ensemble des démarches à effectuer pour changer d’état civil en France.
Le lexique du site Wiki Trans définit l’outing comme la révélation « qu’une personne est trans (ou LGBTQIA+). L’outing ne doit JAMAIS se faire sans le consentement de la personne concernée. Et cela peut être considéré, dans le code pénal, comme une atteinte à la vie privée ». Le deadname est le « prénom assigné à la naissance » et peut être source de souffrance pour une personne trans.
";s:7:"dateiso";s:15:"20240130_151000";}s:15:"20240126_162926";a:7:{s:5:"title";s:31:"QSPTAG #303 — 26 janvier 2024";s:4:"link";s:67:"https://www.laquadrature.net/2024/01/26/qsptag-303-26-janvier-2024/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23013";s:7:"pubDate";s:31:"Fri, 26 Jan 2024 15:29:26 +0000";s:11:"description";s:279:"Comment les polices françaises utilisent les outils de « police prédictive »
Dans le cadre d’une enquête européenne coordonnée par l’ONG Fair Trials, La Quadrature du Net s’est chargée d’enquêter sur les polices françaises et publie un…";s:7:"content";s:13707:"
Comment les polices françaises utilisent les outils de « police prédictive »
Dans le cadre d’une enquête européenne coordonnée par l’ONG Fair Trials, La Quadrature du Net s’est chargée d’enquêter sur les polices françaises et publie un rapport complet sur leurs pratiques numériques de « police prédictive ». Cinq logiciels sont étudiés, utilisés par la police nationale (PredVol, RTM), la gendarmerie (PAVED) ou des polices municipales (Smart Police, M-Pulse).
La « police prédictive » est un rêve de policier : faire entrer dans un logiciel toutes les données possibles, des procès-verbaux de police, des mains courantes et des plaintes, des données fournies par les pompiers, les hôpitaux, le trafic routier, et même la météo, pour prévoir grâce à la puissance de l’intelligence artificielle (cette déesse) et des algorithmes (ses elfes), les lieux et les moments où les délinquants vont sévir. Agrégeant des montagnes de données et les passant à la moulinette de logiciels conçus dans d’autres buts plus sérieux (la prévision des tremblements de terre, par exemple), ces outils n’ont jamais démontré une efficacité supérieure à celle d’un agent expérimenté. Ils risquent en plus d’amplifier les discriminations structurelles auxquelles participe déjà l’institution policière. Cela n’a pas empêché, aux États-Unis, en Grande-Bretagne ou en France, que des sommes considérables leur soient consacrées, dans l’espoir d’affecter les effectifs de police au bon endroit au bon moment, grâce aux prophéties des logiciels.
C’est une lecture en deux temps que nous vous proposons.
D’une part le rapport en lui-même, qui présente avec beaucoup de précision les logiciels, leurs finalités, leur fonctionnement, les données qu’ils exploitent, et les conséquences pratiques qu’ils entraînent pour le travail des agents. Un document de référence sur le sujet, qui croise des informations techniques et opérationnelles, apporte des éléments historiques et met en lien ces « innovations » avec d’autres tendances qui traversent les politiques de sécurité.
D’autre part, un article introductif qui propose une synthèse thématique des présupposés qui entourent ces outils policiers (préjugés sociaux, corrélations approximatives, choix techniques arbitraires) et de leurs conséquences (automatisation et renforcement des logiques de stigmatisation sociale, géographique, etc.). Malgré leur nullité et leur nocivité démontrées, ces outils continuent d’être en usage en France. Notre article se termine donc sur un appel à témoignages : aidez-nous à faire interdire les outils de la répression policière automatisée !
Jeux olympiques : la surveillance algorithmique à l’échauffement
Légalisée par la loi Jeux Olympiques en mai 2023, l’utilisation « expérimentale » de la vidéosurveillance algorithmique (VSA) est entrée dans sa phase d’application. Les entreprises candidates pour les essais préalables ont reçu leur part du marché : chacune sait désormais dans quelle zone (il y en a 4), et dans quel secteur d’activité elles pourront déployer leurs logiciels de surveillance automatisée (enceintes sportives, espaces publics, transports, etc.).
N’ayant pas le temps ni les compétences de développer lui même ces solutions, le ministère de l’Intérieur a choisi la facilité, c’est-à-dire d’acheter sur le marché des outils déjà existants. Et sans surprise, on retrouve dans la liste des entreprises retenues tous les « suspects habituels » dont nous suivons le travail depuis plusieurs années dans notre campagne Technopolice.
Rien d’étonnant bien sûr dans le fait de confier un travail à ceux qui le font déjà depuis plusieurs années, même si c’était jusqu’alors de manière illégale. Mais c’est surtout l’entérinement d’une logique purement opérationnelle où les fantasmes policiers et la stratégie industrielle marchent main dans la main. Cet état de fait entraîne à nos yeux les plus grands dangers : la discussion politique et la prudence démocratique sont évacuées et annulées par la logique unie de l’industrie et de la police, l’une répondant aux vœux de l’autre, l’autre validant seule les propositions techniques de l’une. Le « comité de pilotage » du dispositif au sein de ministère de l’Intérieur est d’ailleurs dirigé par une haute fonctionnaire spécialiste des « industries et innovations de sécurité », et chargée de faciliter les partenariats entre la puissance publique et les entreprises privées nationales. Les citoyens et leurs droits ne sont pas invités à la table.
Les dispositifs de VSA vont donc se déployer dans les semaines qui viennent, et la période d’expérimentation durera bien au-delà des JO de Paris, jusqu’en mars 2025, lors d’évènements d’ordre « récréatif, sportif et culturel » (le délassement oui, mais sous surveillance). Un « comité d’évaluation » constitué de deux « collèges » aura son mot à dire sur les résultats de ces expériences. On n’attend rien de surprenant venant du collège des utilisateurs eux-mêmes (police et autres), et notre attention se portera sur le second collège qui doit réunir des chercheurs, des juristes et des parlementaires — nous verrons. Pour l’heure, tout est en place pour valider à l’avance le succès et la pérennisation de ces mesures exceptionnelles — « Plus vite, plus haut, plus fort ».
Vous trouverez dans l’article le détail des cas d’usage, les noms des entreprises retenues, et le détail du dispositif d’évaluation, avec ses comités et ses collèges. Bonne lecture à vous !
L’Union européenne se couche devant les outils numériques de surveillance de masse
L’Union européenne travaille sur un règlement autour de l’intelligence artificielle (IA), dont le texte a été rendu public en décembre 2023. Sous la pression de plusieurs États, la France en tête, le texte se contente d’encadrer l’utilisation des techniques de surveillance biométrique de masse (SBM), qui recoupent en partie les applications de la vidéosurveillance algorithmique (VSA), au lieu de les interdire. Le continent qui se targue d’avoir enfanté les droits de l’Homme et la liberté démocratique ne trouve donc aucune raison de s’opposer à la surveillance systématique et massive des citoyens.
La reconnaissance des émotions ou des couleurs de peaux ont par exemple passé les filtres démocratiques et se retrouve autorisée par le règlement IA. De même pour la reconnaissance faciale a posteriori, d’abord réservée à des crimes graves et désormais acceptée dans bien d’autres cas, sans limites claires.
La coalition européenne Reclaim Your Face, dont fait partie La Quadrature du Net, a publié le 18 janvier un communiqué de presse en anglais et en allemand pour avertir des dangers réels et imminents qui pèsent sur l’ensemble des Européens, quelques semaines avant des élections européennes dont on dit qu’elles verront probablement les partis d’extrême-droite sortir vainqueurs. Nous publions sur notre site la version française de ce communiqué.
Comme bon nombre d’associations, nous sommes en campagne de soutien pour financer notre travail en 2024. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la défense du droit au chiffrement des communications, la promotion de l’interopérabilité des services Web, et la réflexion nécessaire autour du numérique dans le contexte de la crise écologique mondiale.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
";s:7:"dateiso";s:15:"20240126_162926";}s:15:"20240126_133200";a:7:{s:5:"title";s:77:"VSA et Jeux Olympiques : Coup d’envoi pour les entreprises de surveillance";s:4:"link";s:112:"https://www.laquadrature.net/2024/01/26/vsa-et-jeux-olympiques-coup-denvoi-pour-les-entreprises-de-surveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=23003";s:7:"pubDate";s:31:"Fri, 26 Jan 2024 12:32:00 +0000";s:11:"description";s:256:"Après des mois d’attente, les entreprises chargées de mettre en place la vidéosurveillance algorithmique dans le cadre de la loi Jeux Olympiques ont été désignées. Sans grande surprise, il s’agit de sociétés s’étant insérées depuis…";s:7:"content";s:30634:"
Après des mois d’attente, les entreprises chargées de mettre en place la vidéosurveillance algorithmique dans le cadre de la loi Jeux Olympiques ont été désignées. Sans grande surprise, il s’agit de sociétés s’étant insérées depuis plusieurs années dans le marché de cette technologie ou entretenant de bonnes relations avec l’État. Les « expérimentations » vont donc commencer très prochainement. Nous les attendons au tournant.
Un marché juteux
Rappelez-vous : le 17 mai 2023, le Conseil constitutionnel validait le cadre législatif permettant à la police d’utiliser la vidéosurveillance algorithmique (VSA) en temps réel, après plusieurs mois de bataille législative en plein mouvement des retraites. Depuis, que s’est-il passé ? Un appel d’offres a tout d’abord été publié dès l’été pour lancer la compétition entre les nombreuses entreprises qui ont fleuri ces dernières années dans le secteur. Ce marché public, accompagné de clauses techniques, décrit les exigences auxquelles devront se soumettre les entreprises proposant leurs services et, en premier lieu, les fameuses situations et comportements « suspects » que devront repérer les logiciels afin de déclencher une alerte. En effet, la loi avait été votée à l’aveugle sans qu’ils soient définis, ils ont ensuite été formalisés par un décret du 28 août 2023.
Comme nous le l’expliquons depuis longtemps1Pour une analyse plus approfondie de nos critiques sur la VSA, vous pouvez lire notre rapport de synthèse envoyé aux parlementaires l’année dernière ou regarder cette vidéo de vulgarisation des dangers de la VSA., ces comportements n’ont pour beaucoup rien de suspect mais sont des situations pour le moins banales : détection de personne au sol après une chute (attention à la marche), non-respect du sens de circulation commun par un véhicule ou une personne (attention à son sens de l’orientation), densité « trop importante » de personnes, mouvement de foule (argument répété sans cesse pendant les débats par Darmanin) mais aussi détection d’armes, de franchissement de zone, d’objets abandonnés ou de départs de feu. Le tout pour 8 millions d’euros d’acquisition aux frais du contribuable.
Sans surprise, ces huit cas d’usage pour les algorithmes commandés par l’État dans le cadre de cette expérimentation correspondent à l’état du marché que nous documentons depuis plusieurs années au travers de la campagne Technopolice. Ils correspondent aussi aux cas d’usage en apparence les moins problématiques sur le plan des libertés publiques (l’État se garde bien de vouloir identifier des personnes via la couleur de leurs vêtements ou la reconnaissance faciale, comme la police nationale le fait illégalement depuis des années). Et ils confirment au passage que cette « expérimentation » est surtout un terrain de jeu offert aux entreprises pour leur permettre de développer et tester leurs produits, en tâchant de convaincre leurs clients de leur intérêt.
Car depuis des années, la VSA prospérait à travers le pays en toute illégalité – ce que nous nous efforçons de dénoncer devant les tribunaux. Ces sociétés ont donc œuvré à faire évoluer la loi, par des stratégies de communication et d’influence auprès des institutions. Le déploiement de cette technologie ne répond à aucun besoin réellement documenté pour les JO2Si les Jeux Olympiques constituent sans aucun doute un moment « exceptionnel » au regard du nombre inédit de personnes qui seront au même moment dans la région parisienne, la surveillance n’est pas la réponse à apporter. Nous démontions l’année dernière l’idée selon laquelle les technologies sécuritaires auraient pu modifier le cours du « fiasco » de la finale de la Ligue des champions au Stade de France. Comme nous l’exposons, celle-ci n’était causée par rien d’autre qu’une mauvaise gestion stratégique du maintien de l’ordre. Pour pallier à ces défaillances humaines, auraient été utiles non pas la VSA ou la reconnaissance faciale mais un véritable savoir-faire humain de gestion de la foule, des compétences logistiques, des interlocuteurs parlant plusieurs langues….mais résulte uniquement d’une convergence d’intérêts (économiques pour le secteur, politiques pour les décideurs publics et autoritaires pour la police qui accroît toujours plus son pouvoir de contrôle), le tout enrobé d’un double opportunisme : l’exploitation du discours de promotion de l’innovation et l’instrumentalisation, comme dans bien d’autres pays hôtes avant la France, du caractère exceptionnel des Jeux olympiques pour imposer ces technologies.
Après plusieurs mois de tests et de mises en situation, retardées par le fait qu’une entreprise a contesté en justice les conditions du marché, celui-ci a donc été attribué au début du mois de janvier. Le marché est divisé en quatre lots géographiques. La start-up Wintics installera ses logiciels en Île-de-France quand Videtics se chargera de l’Outre-Mer et d’un ensemble de régions du Sud (Provence Alpes Cote d’Azur, Rhône-Alpes et Corse). Pour les autres régions de France, c’est Chapsvision qui a été désignée. Cette entreprise omniprésente dans les services de l’État et qui se veut le nouveau Palantir français, vient de racheter la start-up de VSA belge ACIC. Enfin, Wintics s’est également vu attribuer la surveillance des transports (comprenant gares et stations). Quant à Orange Business Service – en partenariat avec Ipsotek, filiale d’Atos (nouvellement Eviden), elle est également attributaire au 3e rang du lot des transports, c’est à dire mobilisable en cas de défaillance de Wintics. Du beau monde !
Une évaluation incertaine
Ces entreprises pourront ainsi mettre à disposition leurs algorithmes, bien au-delà des seuls Jeux olympiques puisque cette expérimentation concerne tout « évènement récréatif, sportif et culturel », et ce jusqu’au 31 mars 2025 soit bien après la fin des JO. Elle sera par la suite soumise à une « évaluation » présentée comme particulièrement innovante mais dont les modalités avaient en réalité été envisagées dès 2019 par Cédric O, alors secrétaire d’État au numérique, comme une manière de légitimer la reconnaissance faciale. Ces modalités ont été précisée par un second décret en date du 11 octobre 2023. Ainsi, un « comité d’évaluation » verra prochainement le jour et sera présidé par Christian Vigouroux, haut fonctionnaire passé par la section Intérieur du Conseil d’État. Le comité sera divisé en deux collèges distincts. Le premier réunira les « utilisateurs » de la VSA, c’est à dire la police, la gendarmerie, la SNCF, etc. Le second rassemblera des « personnalités qualifiées » telles que des experts techniques, des spécialistes du droit des données personnelles et des libertés publiques ou encore des parlementaires. Ils devront déterminer et mettre en œuvre un protocole d’évaluation qui ne sera rendu public qu’à la fin de l’expérimentation en mars 2025.
Mais il ne faut pas se leurrer. Au regard de l’agenda politique de ces entreprises et des autorités qui veulent, à long terme, légaliser ces outils et de façon générale toute forme de surveillance biométrique3Plusieurs rapports parlementaires préconisent déjà d’aller plus loin en généralisant le recours à la reconnaissance faciale en temps réel ou la VSA en temps différé, massivement utilisée de façon illégale dans les enquêtes judiciaires. Voir ainsi le rapport de 2022 des sénateurs Marc-Philippe Daubresse (LR), Arnaud de Belenet et Jérôme Durain (PS) sur « la reconnaissance biométrique dans l’espace public » et le rapport de 2023 des députés Philippe Latombe (Modem) et Philippe Gosselin (LR) « sur les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». Le gouvernement français s’est également ménagé d’importantes marges de manœuvre pour ce faire à travers son lobbying féroce autour du règlement IA, afin de tenir en échec toute limitation un tant soit peu significative de la surveillance biométrique des espaces publics., cette « expérimentation » pendant les Jeux olympiques doit être vue comme une simple étape vers la légitimation et la pérennisation de ces technologies. En évoquant un dispositif au caractère temporaire et réversible, ce concept d’« expérimentation », permet de rendre une technologie aussi controversée que la VSA plus facilement acceptable pour le public.
Le caractère expérimental permet également de sortir du cadre classique juridique d’examen de proportionnalité. Ainsi l’évaluation ne portera pas sur les critères habituels de nécessité vis à vis d’un objectif d’intérêt public ou de proportionnalité vis à vis des atteintes aux droits. Non, l’évaluation sera plutôt guidée par une approche pragmatique et opérationnelle. On peut imaginer que seront pris en compte le nombre de cas détectés ou le nombre d’interpellations, sans mesurer leur réelle utilité sur la sécurité en tant que politique publique globale, et ce, dans la lignée de la politique du chiffre conduite depuis des années par le Ministère de l’intérieur.
Surtout, on peine à voir comment l’État abandonnerait soudainement une technologie dans laquelle il a tant investi et à laquelle il a déjà cédé énormément de place dans les pratiques policières. Les exemples passés nous montrent que les projets sécuritaires censés être temporaires sont systématiquement prolongés, telles que les boites noires de la loi Renseignement ou les dispositions dérogatoires de l’état d’urgence.
L’issue du comité d’évaluation risque donc d’être surdéterminée par les enjeux politiques et économiques : si l’efficacité policière de ces technologies est jugée satisfaisante, on appellera à les pérenniser ; dans le cas contraire, on évoquera la nécessité de poursuivre les processus de développement afin que ces technologies parviennent à un stade de maturation plus avancé, ce qui justifiera de proroger le cadre expérimental jusqu’à ce que, in fine, elles aient fait leurs preuves et qu’on puisse alors établir un cadre juridique pérenne. À la fin, c’est toujours la police ou les industriels qui gagnent. Or, nous le répétons depuis des années : le choix qui devrait s’imposer à toute société qui se prétend démocratique est celui de l’interdiction pure et simple de ces technologies. Mais il est clair qu’en l’absence de pression citoyenne en ce sens, ni le gouvernement, ni la CNIL, ni la plupart des autres acteurs invités à se prononcer sur les suites à donner à l’expérimentation de la VSA ne voudront envisager de refermer la boîte de Pandore.
Le public au service du privé
Le décret du 11 octobre 2023 prévoit également la création d’un « comité de pilotage » au sein du ministère de l’Intérieur, chargé de la mise en œuvre de cette surveillance « expérimentale ». Celui-ci sera confié à Julie Mercier, cheffe de la direction des entreprises et partenariats de sécurité et des armes (Depsa). Cela est peu surprenant mais révélateur, une fois de plus, des réels intérêts en jeu ici. La Depsa est dotée d’un département « des industries et innovations de sécurité » qui est présenté comme devant assurer « l’interface et le dialogue avec les entreprises productrices de moyens de sécurité » ainsi que participer « à la veille technologique et industrielle » et « au contrôle des investissements étrangers en France et au suivi des entreprises à protéger prioritairement ». Ainsi, sa raison d’être est de stimuler et influencer le marché privé de la sécurité, voire d’aller prodiguer directement des conseils lors de réunions des lobbys de la surveillance. On pourrait être surpris de voir de tels objectifs et pratiques orientées vers le privé dans le fonctionnement d’un ministère régalien. Il s’agit pourtant d’une politique assumée et enclenchée il y a une dizaine d’années, et dont le paroxysme a été à ce jour la loi Sécurité globale consacrant le « continuum de sécurité » entre public et privé.
Lors du salon Mlilipol – grand-messe du marché de la sécurité et de la surveillance – qui s’est tenu en novembre dernier en région parisienne, et où les Jeux olympiques étaient à l’honneur, Julie Mercier expliquait ainsi vouloir « participer à la construction de la base industrielle et technologique de sécurité », car « les entreprises, et pas seulement les grands opérateurs, sont essentielles dans l’expression du besoin et dans la structuration de la filière ». Pour elle, le programme d’expérimentations mis en place en 2022 par le ministère de l’Intérieur dans la perspective des Jeux olympiques a permis d’enclencher une « dynamique vertueuse ». Ce mélange des genres démontre un des objectifs principaux de l’expérimentation : promouvoir le marché privé de la surveillance numérique, en l’associant étroitement aux politiques publiques.
Et maintenant ?
Les expérimentations devraient donc être mises en route dans les prochaines semaines. En théorie, la loi prévoyait une première étape de « conception » des algorithmes, qui nous inquiétait particulièrement. Dans le but de paramétrer les logiciels, elle autorisait de façon inédite le Ministère de l’intérieur à utiliser les images des caméras publiques afin d’améliorer les algorithmes. La CNIL s’est même inquiétée dans sa délibération de l’absence d’information des personnes qui, par leur présence sur une image, nourrirait des logiciels.
Sauf que du fait du retard du processus (l’État voulait initialement débuter les expérimentations lors de la coupe du monde de rugby) couplée à l’impatience des entreprises et de la police et au risque du fiasco si la VSA était en fin de compte remise sur l’étagère, le ministère de l’Intérieur s’est décidé à passer rapidement à la phase de mise en œuvre à travers l’acquisition de solutions toutes prêtes. Cependant, cela ne réduit aucunement les craintes à avoir. Si les logiciels sont censés répondre à un ensemble de critères techniques définis par la loi, l’opacité régnant sur ces technologies et l’absence de mécanisme de transparence empêche de facto de connaître la façon dont ils ont été conçus ou la nature des données utilisées pour l’apprentissage.
Après avoir été auditées et certifiées par une autorité tierce4D’après l’avis d’attribution de l’appel d’offre, il s’agira du Laboratoire National de Métrologie et d’Essais (LNE), inconnu au bataillon., ces solutions seront donc intégrées au plus vite aux infrastructures de vidéosurveillance dans les zones où les préfectures en feront la demande. Chaque autorisation fera l’objet d’un arrêté préfectoral rendu public, ce qui devrait permettre de connaître l’emplacement, la nature et la durée de la surveillance mise en place.
Nous les attendrons au tournant. L’expérimentation de la VSA ne doit pas rester invisible. Au contraire, il nous faudra collectivement documenter et scruter ces arrêtés préfectoraux afin de pouvoir s’opposer sur le terrain et rendre matérielle et concrète cette surveillance de masse que tant veulent minimiser. La voix des habitantes et habitants des villes, des festivalier·es, des spectateur·ices, de l’ensemble des personnes qui seront sous l’œil des caméras, sera cruciale pour rendre visible l’opposition populaire à ces technologies de contrôle. Dans les prochains mois, nous tâcherons de proposer des outils, des méthodes et des idées d’actions pour y parvenir et lutter, avec vous, contre l’expansion de la surveillance de masse dans nos rues et dans nos vies.
Pour une analyse plus approfondie de nos critiques sur la VSA, vous pouvez lire notre rapport de synthèse envoyé aux parlementaires l’année dernière ou regarder cette vidéo de vulgarisation des dangers de la VSA.
Si les Jeux Olympiques constituent sans aucun doute un moment « exceptionnel » au regard du nombre inédit de personnes qui seront au même moment dans la région parisienne, la surveillance n’est pas la réponse à apporter. Nous démontions l’année dernière l’idée selon laquelle les technologies sécuritaires auraient pu modifier le cours du « fiasco » de la finale de la Ligue des champions au Stade de France. Comme nous l’exposons, celle-ci n’était causée par rien d’autre qu’une mauvaise gestion stratégique du maintien de l’ordre. Pour pallier à ces défaillances humaines, auraient été utiles non pas la VSA ou la reconnaissance faciale mais un véritable savoir-faire humain de gestion de la foule, des compétences logistiques, des interlocuteurs parlant plusieurs langues….
Plusieurs rapports parlementaires préconisent déjà d’aller plus loin en généralisant le recours à la reconnaissance faciale en temps réel ou la VSA en temps différé, massivement utilisée de façon illégale dans les enquêtes judiciaires. Voir ainsi le rapport de 2022 des sénateurs Marc-Philippe Daubresse (LR), Arnaud de Belenet et Jérôme Durain (PS) sur « la reconnaissance biométrique dans l’espace public » et le rapport de 2023 des députés Philippe Latombe (Modem) et Philippe Gosselin (LR) « sur les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». Le gouvernement français s’est également ménagé d’importantes marges de manœuvre pour ce faire à travers son lobbying féroce autour du règlement IA, afin de tenir en échec toute limitation un tant soit peu significative de la surveillance biométrique des espaces publics.
D’après l’avis d’attribution de l’appel d’offre, il s’agira du Laboratoire National de Métrologie et d’Essais (LNE), inconnu au bataillon.
";s:7:"dateiso";s:15:"20240126_133200";}s:15:"20240119_155652";a:7:{s:5:"title";s:90:"Le règlement européen sur l’IA n’interdira pas la surveillance biométrique de masse";s:4:"link";s:122:"https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometrique-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22979";s:7:"pubDate";s:31:"Fri, 19 Jan 2024 14:56:52 +0000";s:11:"description";s:261:"
Traduction du communiqué de presse de la coalition Reclaim Your Face.
Le 8 décembre 2023, les législateurs de l’Union européenne se sont félicités d’être parvenus à un accord sur la proposition de règlement tant attendue relative…";s:7:"content";s:7949:"
Le 8 décembre 2023, les législateurs de l’Union européenne se sont félicités d’être parvenus à un accord sur la proposition de règlement tant attendue relative l’intelligence artificielle (« règlement IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux droits humains dans le texte, notamment en excluant la surveillance biométrique de masse (SBM).
Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.
L’UE entre dans l’histoire – pour de mauvaises raisons
La coalition Reclaim Your Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos visages et nos corps sur simple pression d’un bouton.
Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des forces de l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.
L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la reconnaissance faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernières semaines.
Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la société de surveillance.
Quel est le contenu de l’accord ?
D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les libertés publiques. Nos droits de participer à une manifestation, d’accéder à des soins de santé reproductive ou même de nous asseoir sur un banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’espace public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.
Nous sommes également déçus de voir qu’en matière de « reconnaissance des émotions » et les pratiques de catégorisation biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.
Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’eugénisme.
Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de vidéosurveillance en fonction de leur couleur de peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles discriminations comme acceptables.
Une seule chose positive était ressortie des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.
Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux crimes transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « menace » d’un crime pourrait suffire à justifier l’utilisation de la reconnaissance faciale rétrospective dans les espaces publics.
Il semblerait que ce soit la France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des Jeux olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.
En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous surveillance algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.
";s:7:"dateiso";s:15:"20240119_155652";}s:15:"20240118_110806";a:7:{s:5:"title";s:114:"La police prédictive en France : contre l’opacité et les discriminations, la nécessité d’une interdiction";s:4:"link";s:141:"https://www.laquadrature.net/2024/01/18/la-police-predictive-en-france-contre-lopacite-et-les-discriminations-la-necessite-dune-interdiction/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22927";s:7:"pubDate";s:31:"Thu, 18 Jan 2024 10:08:06 +0000";s:11:"description";s:292:"
Après plusieurs mois d’enquête, dans le cadre d’une initiative européenne coordonnée par l’ONG britannique Fair Trials, La Quadrature publie aujourd’hui un rapport sur l’état de la police prédictive en France. Au regard des informations recueillies…";s:7:"content";s:23153:"
Après plusieurs mois d’enquête, dans le cadre d’une initiative européenne coordonnée par l’ONG britannique Fair Trials, La Quadrature publie aujourd’hui un rapport sur l’état de la police prédictive en France. Au regard des informations recueillies et compte tenu des dangers qu’emportent ces systèmes dès lors notamment qu’ils intègrent des données socio-démographiques pour fonder leurs recommandations, nous appelons à leur interdiction.
Après avoir documenté dès 2017 l’arrivée de systèmes assimilables à la police prédictive, puis ayant été confrontés à l’absence d’informations à jour et de réel débat public sur ces systèmes, nous avons souhaité enquêter plus en détail. Pour ce rapport, nous avons donc réuni les informations accessibles sur plusieurs logiciels de police prédictive anciennement ou actuellement en utilisation au sein des forces de police françaises, et notamment :
RTM (Risk Terrain Modelling), un logiciel de « prévention situationnelle » utilisé par la préfecture de Police de Paris pour cibler les zones d’intervention à partir des données « environnementales » (présence d’écoles, de commerces, de stations de métro, etc.) ;
PredVol, logiciel développé en 2015 au sein d’Etalab, expérimenté en Val d’Oise en 2016 pour évaluer le risque de vols de véhicule, abandonné en 2017 ou 2018 ;
PAVED, logiciel développé à partir de 2017 par la Gendarmerie et expérimenté à partir de 2018 dans différents départements métropolitains pour évaluer le risque de vols de voiture ou de cambriolages. En 2019, peu avant sa généralisation prévue sur tout le territoire, le projet a été mis « en pause » ;
M-Pulse, auparavant nommé Big Data de la Tranquillité Publique, développé par la ville de Marseille en partenariat avec la société Engie pour évaluer l’adéquation des déploiements de la police municipale dans l’espace public urbain ;
Smart Police, logiciel comportant notamment un module « prédictif » et mis au point par la startup française Edicia qui, d’après son site web, a vendu cette suite logicielle à plus de 350 forces municipales.
Des technologies dangereuses, sans encadrement ni évaluation
Nous résumons ici les principales critiques à l’encontre des systèmes étudiés, dont la plupart font appel à des techniques d’intelligence artificielle.
Corrélation n’est pas causalité
Le premier danger associé à ces systèmes, lui-même amplifié par l’absence de transparence, est le fait qu’ils extrapolent des résultats à partir de corrélations statistiques entre les différentes sources de données qu’ils agrègent. En effet, par mauvaise foi ou fainéantise idéologique, les développeurs de ces technologies entretiennent une grave confusion entre corrélation et causalité (ou du moins refusent-ils de faire la distinction entre les deux). Or, ces amalgames se traduisent de façon très concrète dans le design et les fonctionnalités des applications et logiciels utilisés sur le terrain par les policiers, mais aussi dans leurs conséquences sur les habitantes exposées à une policiarisation accrue.
Lorsqu’elle recourt à ces systèmes d’aide à la décision, la police devrait donc au minimum tâcher de démontrer la pertinence explicative de l’utilisation de variables socio-démographiques spécifiques dans ses modèles prédictifs (c’est-à-dire aller au-delà des simples corrélations pour retracer les causes structurelles de la délinquance, ce qui pourrait conduire à envisager d’autres approches que les politiques sécuritaires pour y faire face). Cela implique en premier lieu d’être transparent au sujet de ces variables, ce dont on est pour l’instant très loin.
S’agissant par exemple de PAVED, le modèle prédictif utiliserait quinze variables socio-démographiques qui, selon les développeurs, sont fortement corrélées avec la criminalité. Cependant, il n’y a aucune transparence sur la nature de ces variables, et encore moins de tentative de démonstration d’une véritable relation de cause à effet. Il en va globalement de même pour les variables utilisées par Smart Police, le logiciel d’Edicia, quoiqu’on ait dans ce cas encore moins de visibilité sur la nature exacte des variables mobilisées.
Des variables potentiellement discriminatoires
Or, il est probable que, à l’image des algorithmes utilisés par la Caisse nationale des allocations familiales (CNAF), certaines variables socio-démographiques mobilisées soient discriminatoires.
En effet, les scores de risque sont possiblement corrélés à un taux de chômage ou de pauvreté important, ou encore à un taux élevé de personnes nées en dehors de l’Union européenne dans le quartier considéré. Et ce d’autant plus que l’on sait que, pour PAVED, parmi les données pertinentes pour l’établissement des « prédictions », on retrouve les indicateurs suivants : nationalité et données d’immigration, revenus et composition des ménages ou encore niveau de diplôme. Autant de variables qui risquent de conduire à cibler les populations les plus précarisées et les plus exposées au racisme structurel.
De fausses croyances criminologiques
Un autre danger associé à ces systèmes réside dans le fait qu’ils enracinent des doctrines criminologiques décriées. Les promoteurs de la police prédictive refusent de s’atteler à une compréhension générale et à une analyse sociale des comportements déviants et des illégalismes : nulle mention des politiques de précarisation, d’exclusion, de discrimination, et de la violence sociale des politiques publiques. Et lorsqu’ils s’aventurent à proposer des modèles explicatifs et qu’ils tentent d’inscrire ces modèle dans les algorithme de scoring, ils semblent s’en remettre à des « savoirs » dont la pertinence est parfaitement douteuse.
Certaines allusions doctrinales apparaissent par exemple dans les articles de recherche du principal développeur de PAVED, le colonel de gendarmerie Patrick Perrot. Ce dernier y fait part d’hypothèses de base concernant la criminalité (par exemple, la criminalité comme « phénomène en constante évolution »), et évoque les « signaux faibles » et autres « signes précurseurs » de la délinquance qui font écho aux théories de la « vitre brisée », dont la scientificité est largement mise en cause. De même, dans le cas d’Edicia, le module prédictif semble reposer sur l’idée selon laquelle la délinquance a un effet de débordement géographique (ou effet de « contagion ») et intègre lui aussi des postulats « remontés » du « terrain » qui prétendent que « la petite délinquance entraîne la grande délinquance ».
Autant de doctrines ineptes qui servent surtout à masquer les conséquences désastreuses des politiques ultralibérales, à criminaliser les incivilités du quotidien, qui doivent s’interpréter comme l’élément clé d’une tentative de criminalisation des pauvres. Aujourd’hui, elles sont donc incorporées aux systèmes automatisés que s’octroie la police, lesquels contribuent à les invisibiliser.
Un risque d’auto-renforcement
La critique est largement connue, mais elle mérite d’être rappelée ici : les logiciels de police prédictive soulèvent un important risque d’effet d’auto-renforcement et donc d’une démultiplication de la domination policière de certains quartiers (surveillance, contrôle d’identité, usages de pouvoirs coercitifs).
En effet, leur usage conduit nécessairement à sur-représenter les aires géographiques définies comme étant à haut risque dans les données d’apprentissage. Dès lors qu’un nombre important de patrouilles sont envoyées dans une zone donnée en réponse aux recommandations de l’algorithme, elles seront conduites à constater des infractions – mêmes mineures – et à collecter des données relatives à cette zone, lesquelles seront à leur tour prises en compte par le logiciel et contribueront à renforcer la probabilité que cette même zone soit perçue comme « à risque ».
La police prédictive produit ainsi une prophétie auto-réalisatrice en concentrant des moyens importants dans des zones déjà en proie aux discriminations et à la sur-policiarisation.
De possibles abus de pouvoir
Bien que nous n’ayons pas trouvé d’éléments relatifs aux instructions particulières données aux policiers lorsqu’ils patrouillent dans des zones jugées à haut risque par les systèmes prédictifs, une source nous indique que, grâce à PAVED, la gendarmerie a pu obtenir auprès du procureur de la République l’autorisation pour que les agents en patrouille se positionnent dans les lieux de passage et arrêtent les véhicules à proximité. Dans ce cadre, il s’agissait pour eux de vérifier les plaques d’immatriculation et les permis de conduire des conducteurs, et de procéder dans certains cas à des fouilles de véhicule.
Si l’information s’avérait exacte, cela signifierait que des contrôles préventifs, menés dans le cadre d’une autorisation du Parquet, ont été décidés sur la seule base d’une technologie fondée sur des postulats douteux et dont l’efficacité n’a jamais été évaluée. Une situation qui, en elle-même, matérialiserait une disproportion caractérisée des mesures restrictives de liberté prises à l’encontre des personnes concernées.
Des outils à l’efficacité douteuse
Au regard de leur nature discriminatoire, même dans la mesure où ces systèmes de police prédictive s’avéreraient efficaces du point de vue de la rationalité policière, ils poseraient d’importants problèmes en terme de justice sociale et de respect des droits humains. Or, en dépit de l’absence d’évaluation officielle, le fait est que les données disponibles semblent confirmer l’absence de valeur ajoutée des modèles prédictifs pour atteindre les objectifs que la police s’était fixés.
De fait, ces outils semblent loin d’avoir convaincu leurs utilisateurs et utilisatrices. PredVol ne ferait pas mieux que la simple déduction humaine. Quant à PAVED, même s’il pourrait avoir empêché quelques vols de voiture, il s’avère décevant en termes de capacités de prévision et ne se traduit pas par une hausse du nombre d’arrestations en flagrant délit, qui pour la police reste l’étalon de l’efficacité sous le règne de la politique du chiffre1. Malgré ce qui était envisagé au départ, la généralisation de PAVED au sein de la gendarmerie nationale n’a jamais vu le jour. À l’issue d’une phase expérimentale, menée de 2017 à 2019, il a été décidé de mettre le logiciel de côté. Et si M-Pulse a trouvé une nouvelle jeunesse au gré du « rebranding citoyenniste » poussé par la nouvelle majorité municipale marseillaise de centre gauche, ses usages sécuritaires semblent relativement marginaux.
Pour quelles raisons ? L’opacité qui entoure ces expérimentations ne permet pas de le dire avec certitude, mais l’hypothèse la plus probable réside à la fois dans l’absence de vraie valeur ajoutée par rapport aux savoirs et croyances existantes au sein des forces de police et dans la complexité organisationnelle et technique associée à l’usage et à la maintenance de ces systèmes.
De graves lacunes dans la gestion des données
Pour les opposants à ces systèmes, les informations présentées dans ce rapport pourraient sembler rassurantes. Mais en réalité, même si l’effet de mode autour de la « police prédictive » semble passé, les processus de R&D relatifs aux systèmes d’aide à la décision des forces de police continuent. Des sommes d’argent conséquentes continuent d’être dépensées pour répondre à l’ambition affichée de « porter le ministère de l’Intérieur à la frontière technologique », ainsi que l’envisageait le livre blanc de la sécurité intérieure de 20202. Dans ce contexte d’un primat accordé aux approches techno-sécuritaires, PAVED pourrait ainsi être ré-activé ou remplacé par d’autres systèmes dans un futur proche. Quant à Edicia, l’entreprise envisageait ces derniers mois d’incorporer à son module prédictif de nouvelles sources de données issues des réseaux sociaux, comme l’envisageaient les concepteurs de M-Pulse au début du projet. La police prédictive reste donc d’actualité.
Interrogée via une demande CADA en mars 2022 et à nouveau en novembre 2023, la CNIL nous a indiqué qu’elle n’avait jamais reçu ou produit de document relatif aux logiciels de police prédictive dans le cadre de ses prérogatives. Cela semble indiquer que l’autorité de protection des données personnelles ne s’est jamais intéressée à ces logiciels dans le cadre de sa politique de contrôle. En soit, cela interroge lorsqu’on sait que, pour certains, ils sont utilisés par des milliers d’agents de police municipale à travers le pays.
Enfin, dans la mesure où les pouvoirs de police administrative exercés dans les zones jugées « à risque » par les systèmes prédictifs peuvent être considérés sur le plan juridique comme des « décisions administratives individuelles », les exigences énoncées par le Conseil constitutionnel dans sa jurisprudence sur les algorithmes devraient être respectées3. Or, celles-ci proscrivent notamment l’interdiction d’utiliser des « données sensibles » et imposent de prévoir des possibilités de recours administratifs pour les personnes concernées. S’y ajoutent des obligations de transparence imposées par la loi, notamment la loi de 2016 dite « République numérique »4.
Ces exigences législatives et jurisprudentielles ne semblent pas respectées s’agissant des systèmes de police prédictive. Non seulement il n’y a pas de tentative significative et proactive d’informer les citoyens et les autres parties prenantes sur le fonctionnement exact de ces systèmes, en dehors des quelques informations parfois disséminées de manière opportuniste. Plus grave encore, le droit à la liberté d’information que nous avons exercé via nos demandes CADA pour en apprendre davantage n’a donné lieu qu’à des informations partielles, et s’est heurté le plus souvent à l’absence de réponse, notamment de la part du ministère de l’Intérieur.
Il est urgent d’interdire la police prédictive
L’effet de mode semble passé. La police prédictive ne fait presque plus parler d’elle. Et pourtant…
Malgré une absence flagrante d’évaluation, d’encadrement législatif et en dépit de piètres résultats opérationnels, les promoteurs de ces technologies continuent d’entretenir la croyance selon laquelle l’« intelligence artificielle » pourra permettre de rendre la police plus « efficace ». De notre point de vue, ce que ces systèmes produisent c’est avant tout une automatisation de l’injustice sociale et de la violence policière, une déshumanisation encore plus poussée des relations entre police et population.
Dans ce contexte, il est urgent de mettre un coup d’arrêt à l’utilisation de ces technologies pour ensuite conduire une évaluation rigoureuse de leur mise en œuvre, de leurs effets et de leurs dangers. L’état de nos connaissances nous conduit à penser qu’une telle transparence fera la preuve de leur ineptie et de leurs dangers, ainsi que de la nécessité de les interdire.
Nous aider
Pour pallier l’opacité volontairement entretenue par les concepteurs de ces systèmes et par les autorités publiques qui les utilisent, si vous avez à votre disposition des documents ou éléments permettant de mieux comprendre leur fonctionnement et leurs effets, nous vous invitons à les déposer sur notre plateforme de partage anonyme de document. Il est également possible de nous les envoyer par la poste à l’adresse suivante : 115 rue de Ménilmontant, 75020 Paris.
Enfin, n’hésitez pas à nous signaler la moindre erreur factuelle ou d’analyse que vous pourriez identifier dans ce rapport en nous écrivant à contact@technopolice.fr. Et pour soutenir ce type de recherche à l’avenir, n’hésitez pas non plus à faire un don à La Quadrature du Net.
Lecorps, Yann, et Gaspard Tissandier. « PAVED with good intentions : an evaluation of the Gendarmerie predictive policing system ». Centre d’Économie de la Sorbonne (CES), Université Paris 1 Panthéon Sorbonne. Paris, septembre 2022. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4314831. ︎
Le livre blanc proposait de consacrer 1% du PIB aux missions de sécurité intérieure à l’horizon 2030, soit une augmentation escomptée d’environ 30% du budget du ministère sur la décennie.Ministère de l’intérieur, « Livre blanc de la sécurité intérieure » (Paris : Gouvernement français, 16 novembre 2020), https://www.interieur.gouv.fr/Actualites/L-actu-du-Ministere/Livre-blanc-de-la-securite-interieure. ︎
Voir la décision sur la transposition du RGPD (décision n° 2018-765 DC du 12 juin 2018) et celle sur Parcoursup (décision n° 2020-834 QPC du 3 avril 2020). ︎
";s:7:"dateiso";s:15:"20240118_110806";}s:15:"20240112_154546";a:7:{s:5:"title";s:31:"QSPTAG #302 — 12 janvier 2024";s:4:"link";s:67:"https://www.laquadrature.net/2024/01/12/qsptag-302-12-janvier-2024/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22901";s:7:"pubDate";s:31:"Fri, 12 Jan 2024 14:45:46 +0000";s:11:"description";s:287:"Société de contrôle (1) : les outils illégaux de la surveillance municipale
Notre campagne Technopolice a déjà quatre ans, et les acteurs de l’industrie française de la surveillance sont bien identifiés. Lobby industriel, député porte-cause, discours sécuritaire…";s:7:"content";s:12233:"
Société de contrôle (1) : les outils illégaux de la surveillance municipale
Notre campagne Technopolice a déjà quatre ans, et les acteurs de l’industrie française de la surveillance sont bien identifiés. Lobby industriel, député porte-cause, discours sécuritaire dicté par la police, on connaît le paysage. Voici venu le temps de s’intéresser plus en détail aux entreprises privées qui fleurissent dans le sillage de ce marché économique considérable, où les fonds publics abondent sans discussion pour mieux nous surveiller.
Cette semaine, penchons-nous sur le cas de la société Edicia, basée à Nantes. Elle s’engraisse en fournissant à de nombreuses polices municipales françaises une « solution » baptisée Smart Police, logiciel embarqué sur terminal mobile qui permet aux agents de prendre des notes, de rédiger des rapports, et à leur supérieur resté au commissariat de mieux les manager. Nous avons obtenu le manuel d’utilisation de Smart Police, grâce auquel nous pouvons avoir une idée précise de ce que les agents municipaux peuvent faire, et des conséquences pratiques de ces nouvelles facilités opérationnelles. Une lecture édifiante : l’outil, dans sa grande variété et sa grande souplesse, permet des pratiques contraires au cadre réglementaire qui régit les polices municipales.
Fichage sans autorisation, croisement de données, photographies des personnes contrôlées : là où l’idéologie sécuritaire voit du bon sens, nous voyons des usages clairement illégaux et une victoire de facto de la surveillance systématisée. Pour en savoir plus, lisez l’article, qui s’inscrit dans une enquête sur les outils numériques de la « police prédictive » et sera suivi par d’autres publications.
Société de contrôle (2) : la CAF défend son programme de chasse aux pauvres
Notre enquête sur les algorithmes de contrôle social n’en est encore qu’à son début, mais elle a déjà produit quelques effets : après notre analyse de son algorithme de notation des allocataires, la Caisse nationale d’allocations familiales (CNAF) est bien obligée de se justifier publiquement au sujet de ses pratiques discriminatoires.
La réponse du directeur de la CNAF, entre déni et diversion, relève de la communication de crise. Mais les faits que nous constatons dans l’analyse de l’algorithme lui-même restent irréfutables. Et derrière l’autosatisfaction de l’institution, saluée aussi par les députés de la majorité présidentielle pour son efficacité dans la chasse aux pauvres, on voit un jeu de dupes : loin d’une rentabilité réelle, et à rebours de la « fraternité » républicaine de la société avec ses membres les plus précaires, le contrôle systématique par algorithme sert l’idéologie d’une efficacité gestionnaire où le recours aux outils numériques habille de modernité des choix politiques et sociaux inégalitaires. Analyse du discours de la CNAF et réponse point par point dans notre article !
Comme bon nombre d’associations, nous sommes en campagne de soutien pour financer notre travail en 2024. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la défense du droit au chiffrement des communications, la promotion de l’interopérabilité des services Web, et la réflexion nécessaire autour du numérique dans le contexte de la crise écologique mondiale.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
13 janvier 2024 : atelier sur Internet, l’anonymat et la Technopolice, en collaboration avec la Compagnie RYBN.org – 14h-20h, à La Compagnie, 19 rue Francis de Pressensé, Marseille. Détails : https://www.la-compagnie.org/portfolio/rybncapitalismsxit/.
19 janvier 2024 : Quadrapéro parisien à partir de 19h dans nos locaux au 115 rue de Ménilmontant, 75020 Paris.
25 janvier 2024 : soirée sur la vidéosurveillance algorithmique organisée par le groupe ATTAC Nord Ouest à 19h30 à la Maison des associations du 18e, 15 Passage Ramey, 75018 Paris.
";s:7:"dateiso";s:15:"20240112_154546";}s:15:"20240111_105504";a:7:{s:5:"title";s:96:"Notation des allocataires : face aux faits, la CAF s’enferme dans le déni et la mauvaise foi";s:4:"link";s:129:"https://www.laquadrature.net/2024/01/11/notation-des-allocataires-face-aux-faits-la-caf-senferme-dans-le-deni-et-la-mauvaise-foi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22847";s:7:"pubDate";s:31:"Thu, 11 Jan 2024 09:55:04 +0000";s:11:"description";s:281:"Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notation sur notre page dédiée et notre Gitlab.
« Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la…";s:7:"content";s:51612:"
Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notation sur notre page dédiée et notre Gitlab.
« Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la CAF — dans un « Message au sujet des algorithmes » à destination des 30 000 agent·es de la CAF1Message publié dans Résonances, le magasine interne à destination des plus de 30 000 agent·es de la CAF. Nous le republions ici. Voir aussi ce thread Twitter. — a réagi à notre publication du code source de l’algorithme de notation des allocataires.
Et pourtant, devant la montée de la contestation2Le président de la Seine-Saint-Denis a notamment saisi le Défenseur des Droits suite à la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux équipes du journal Le Monde et de Lighthouse Reports pour publier une série d’articles ayant eu un grand retentissement médiatique. Une députée EELV a par ailleurs abordé la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a écrit une tribune sur le sujet et ATD Quart Monde un communiqué. Le parti EELV a aussi lancé une pétition sur ce sujet disponible ici. — s’étendant au sein des CAF elles-même car seul·es les dirigeant·es et une poignée de statisticien·nes avaient connaissance de la formule de l’algorithme –, il était possible d’espérer, a minima, une remise en question de la part de ses dirigeant·es.
Mais à l’évidence des faits, les dirigeant·es de la CAF ont préféré le déni. Cette fuite en avant a un coût car un élément de langage, quelque soit le nombre de fois où il est répété, ne se substituera jamais aux faits. À vouloir nier la réalité, c’est leur propre crédibilité, et partant celle de leur institution, que les dirigeant·es de la CAF mettent en danger.
Un problème sémantique
À peine quelques heures après la publication de notre article — et alors qu’il était possible pour chacun·e de vérifier que la valeur du score de suspicion alloué par l’algorithme augmente avec le fait d’être en situation de handicap tout en travaillant, d’avoir de faibles revenus, de bénéficier des minima sociaux ou encore d’être privé·e d’emploi — le directeur de la CAF affirmait publiquement que son algorithme n’était « pas discriminatoire ».
Devant une telle dénégation, on se demande comment le directeur de la CAF définit une politique « discriminatoire ». Voici en tout cas celle donnée par le Wiktionnaire : « Traitement défavorable de certains groupes humains via la réduction arbitraire de leurs droits et contraire au principe de l’égalité en droit. » Rappelons en outre, au cas où subsisterait un doute, qu’un contrôle est en soi un moment extrêmement difficile à vivre3Voir les témoignages récoltés par Changer de Cap ou le Défenseur des Droits et les écrits de Vincent Dubois..
Dans le même message, il ajoutait que l’algorithme n’est pas utilisé pour « surveiller les allocataires » ou « les suspecter », mais simplement pour les « classer ». Rappelons que les deux ne sont pas contradictoires mais complémentaires. La surveillance de masse — que ce soit dans la rue, sur internet ou à la CAF — est un préalable au tri de la population.
S’agissant enfin de savoir si l’utilisation de cet algorithme a vocation à « suspecter » les allocataires ou non, nous le renvoyons aux déclarations d’un autre directeur de la CAF qui écrivait qu’il considérait les « techniques de datamining » comme « des outils de lutte contre les fraudeurs et les escrocs »4Voir DNLF info n°23, juin 2014. Disponible ici.. On soulignera aussi la contradiction entre le discours tenu par l’actuel directeur de la CAF et celui qu’il tenait quelques mois plus tôt au micro de France Info5France Info, 09/12/2022. « La Caisse des allocations familiales utilise un algorithme pour détecter les allocataires « à risque » ». Disponible ici. à qui il expliquait que le refus de nous communiquer le code source de l’algorithme était justifié par le fait que la CAF doit garder « un coup d’avance » face à celles et ceux « dont le but est de frauder le système ».
Ou mathématique ?
À ces problèmes sémantiques s’ajoutent un désaccord mathématique. Le directeur de la CAF avance que l’objectif de l’algorithme serait de « détecter rapidement » des indus afin « d’éviter des remboursements postérieurs trop importants ». Ce raisonnement est un non-sens technique visant à faire croire aux personnes ciblées par l’algorithme que ce dernier… les servirait.
Or, l’algorithme a été développé pour détecter des situations présentant des indus supérieurs à un certain montant6Plus précisément, le journal Le Monde a montré qu’il était entraîné pour maximiser à la fois la détection d’indus « importants », soit supérieurs à 600 euros par mois et d’une durée de plus de 6 mois, et les situations de fraudes. Voir les documents mis en ligne par Le Mondeici. Nous avions d’ailleurs fait une erreur dans notre article précédent : à la lecture des quelques documents que nous avions — la CAF avait refusé de nous communiquer le manuel technique alors qu’elle l’a donné au journal Le Monde — nous avions compris, sur la base de ce document que l’algorithme était entraîné pour détecter des indus totaux supérieurs à 600 euros, et non des indus mensuels supérieurs à 600 euros.. Il est entraîné sur la base de dossiers choisis aléatoirement puis analysés par les contrôleur·ses de la CAF sur une période de deux ans, soit la durée de prescription des indus7Sur la durée de recherche des indus pour l’entraînement des modèles, voir ce courrier envoyé par la CAF à la CADA suite à notre demande de communication du code source de l’algorithme. Sur la durée de prescription, voir l’article L553-1 du CSS : elle est de deux ans pour les indus et de cinq ans en cas de fraude..
En d’autres termes, l’algorithme a pour seul objectif de maximiser les montants d’indus récupérables sans aucune considération pour une soi-disant détection précoce qui viserait à prévenir leur accumulation. Ainsi, présenter l’algorithme comme un outil au service de celles et ceux qui en subissent les conséquences est foncièrement trompeur.
Nier jusqu’à l’opacité
« Notre fonctionnement n’est pas opaque » ajoutait finalement le directeur de la CAF dans cette même lettre. Sachant l’énergie que nous avons dû déployer pour obtenir le moindre document relatif à la politique de contrôle de la CAF, il fallait oser.
Concernant l’algorithme lui-même, rappelons que nous avons dû batailler pendant plusieurs mois pour réussir à avoir accès au code de ce dernier. La CAF, dans des courriers que nous rendons publics avec cet article, s’est systématiquement opposée à sa publication. Elle ne l’a communiqué qu’après avoir été contredite par la Commission d’accès aux documents administratifs (CADA).
Pire, la CAF refuse systématiquement de transmettre la moindre information quant au fonctionnement de son algorithme aux allocataires faisant l’objet d’un contrôle. On pourra citer le cas d’une allocataire ayant subi un contrôle datamining que nous avons aidée à rédiger plusieurs courriers8Les demandes ont été envoyées au titre du droit d’accès aux documents administratifs prévu par le code des relations entre le public et l’administration, ainsi qu’au titre du droit d’accès aux données personnelles prévu par le RGPD. Suite au refus de la CAF, une saisine de la CADA a été faite et une plainte auprès de la CNIL a été déposée. La CAF se refuse toujours à communiquer la moindre information.. Pendant plus de 3 ans, cette personne a multiplié les recours juridiques pour comprendre les raisons de son contrôle : saisine CADA, courrier au défenseur des droits, plainte à la CNIL… Toutes ces démarches sont restées lettres mortes.
Enfin, la CAF ne nous a toujours pas communiqué le registre complet de ses activités de traitement9Prévu par l’article 30 du RGPD. ni l’étude d’impact de l’algorithme de notation. Nous avons dû, encore une fois, saisir la CADA pour tenter d’avancer.
Lutter contre les erreurs ?
Il existe cependant une chose sur laquelle tout le monde est d’accord : si les indus se concentrent sur les plus précaires c’est parce que les aides qui leur sont versées, en particulier les minima sociaux, sont encadrées par des règles complexes qui génèrent incompréhensions et erreurs involontaires.
Le directeur de la CAF dit ainsi que si « les allocataires les plus pauvres » sont « surreprésentés parmi les risques d’erreurs » c’est en grande partie parce qu’ils reçoivent « des aides plus complexes ». Il ajoute même que la « complexité déclarative » et l’« instabilité des droits […] sape la confiance » des allocataires10Message publié dans Résonances, le magasine interne à destination des plus de 30 000 agent·es de la CAF. Voir aussi ce ce thread twitter.. On complètera en rappelant que la complexité des règles d’accès aux minima sociaux est elle-même le fruit de politiques autoritaires de « lutte contre l’assistanat »11Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. et que de nombreuses erreurs sont par ailleurs le fait de la CAF elle-même12Voir notamment cet article de La Croix..
Partant de ce constat, comment comprendre le traitement répressif réservé à celles et ceux dont tout le monde s’accorde à dire qu’elles sont victimes d’un dysfonctionnement administratif et politique ? Pourquoi choisir de déployer des moyens numériques colossaux — interconnexion de fichiers, droit de communication… — visant à réprimer celles et ceux qui ne font que subir une situation ? Comment expliquer que les dirigeant·es de la CAF encouragent une telle politique de la double peine ciblant celles et ceux qu’ils et elles sont censé·es servir ?
Ou en profiter?
Disons-le tout de suite : l’enjeu n’est pas financier. L’algorithme de datamining permet de récupérer à peine 200 millions d’euros par an sur un total d’environ 100 milliards de prestations versées par la CAF. Soit 0,2% du montant des prestations sociales. En admettant qu’aucun système ne puisse être parfait, ce montant semble dérisoire.
L’enjeu est politique. Ou plutôt d’image. Car depuis sa généralisation en 2011, l’algorithme est instrumentalisé par les dirigeant·es la CAF comme un faire-valoir de leur capacité de gestion de l’institution13Sur l’évolution des politiques de contrôle à la CAF voir Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ».. L’année de son introduction, la CAF écrira que « pour sa première année, le data mining a permis une évolution importante des rendements et résultats financiers […] »14Voir le rapport annuel de lutte contre la fraude 2012 disponible ici.. Devant l’assemblée nationale, un directeur de la CAF se félicitera que le « datamining […] fait la preuve d’une efficacité croissante » améliorant le « taux d’impact » des contrôles15Audition de Vincent Mauzauric à l’Assemblée nationale en 2020 disponible ici.. Un autre écrira que l’algorithme est devenu un outil central de la « politique constante et volontariste de modernisation des outils de lutte contre les fraudeurs »16Voir DNLF info n°23, juin 2014. Disponible ici..
Efficacité, rendement, modernité : voici les maîtres-mots utilisés par les dirigeant·es de la CAF pour asseoir une politique de communication construite autour de pratiques numériques de harcèlement des plus précaires dont ils et elles récoltent les bénéfices à travers la valorisation de leur savoir-faire gestionnaire. « Vous êtes souvent cités comme le “bon élève” ou “le chef de file” [en termes de politique de contrôle] » déclarera une députée à une directrice « Maîtrise des risques » de la CAF17Auditions réalisées par Madame Goulet et Madame Grandjean dans le cadre du rapport « Lutter contre les fraudes aux prestations sociales ». Les auditions sont disponibles ici. tandis que la cour des comptes louera l’amélioration de « l’efficicience de l’emploi des ressources affectées à la détection d’irrégularités » opérée grâce à l’algorithme18Cour des comptes. Rapport la lutte contre les fraudes aux prestations sociales. 2020. Disponible ici..
Mis en miroir des témoignages révélant la violence de ces contrôles et des procédures de récupération d’indus, ce type de discours laisse sans voix. Comment se souvenir qu’il provient pourtant de celles et ceux en charge de l’assistance aux plus démuni·es ?
Lutter
Voilà donc la réalité politique de l’algorithme de notation de la CAF et ce pourquoi il est si compliqué pour les dirigeant·es de la CAF de l’abandonner. Cela leur demanderait d’accepter de renoncer à ce qu’il leur rapporte : soit le rendement de la misère.
Avant de conclure, nous tenons à dire à toutes et tous les employé·es de la CAF que nous savons votre engagement auprès de celles et ceux qui en ont besoin et que nous vous en remercions. Course au rendement, suivi de la moindre de vos activités, surveillance informatique, pertes de moyens humains, dépossession des outils de travail : les pratiques de contrôle numérique de la CAF et la dégradation de vos conditions de travail ont les mêmes racines. C’est pourquoi nous vous appelons à vous mobiliser à nos côtés.
Quant à nous, nous continuerons à nous mobiliser aux côtés de tous les collectifs qui luttent contre les pratiques de contrôles de la CAF, au premier rang desquels Stop Contrôles, Changer de Cap et Droits Sociaux19Vous pouvez les contacter à stop.controles@protonmail.com, acces.droitssociaux@gmail.com et contact@changerdecap.net.. Nous appelons également à un questionnement plus large sur les pratiques des autres institutions sociales.
Pour nous aider, échanger, vous mobiliser, n’hésitez pas à nous écrire à algos@laquadrature.net. Notre clé publique est disponible ici.
Message publié dans Résonances, le magasine interne à destination des plus de 30 000 agent·es de la CAF. Nous le republions ici. Voir aussi ce thread Twitter.
Le président de la Seine-Saint-Denis a notamment saisi le Défenseur des Droits suite à la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux équipes du journal Le Monde et de Lighthouse Reports pour publier une série d’articles ayant eu un grand retentissement médiatique. Une députée EELV a par ailleurs abordé la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a écrit une tribune sur le sujet et ATD Quart Monde un communiqué. Le parti EELV a aussi lancé une pétition sur ce sujet disponible ici.
Plus précisément, le journal Le Monde a montré qu’il était entraîné pour maximiser à la fois la détection d’indus « importants », soit supérieurs à 600 euros par mois et d’une durée de plus de 6 mois, et les situations de fraudes. Voir les documents mis en ligne par Le Mondeici. Nous avions d’ailleurs fait une erreur dans notre article précédent : à la lecture des quelques documents que nous avions — la CAF avait refusé de nous communiquer le manuel technique alors qu’elle l’a donné au journal Le Monde — nous avions compris, sur la base de ce document que l’algorithme était entraîné pour détecter des indus totaux supérieurs à 600 euros, et non des indus mensuels supérieurs à 600 euros.
Sur la durée de recherche des indus pour l’entraînement des modèles, voir ce courrier envoyé par la CAF à la CADA suite à notre demande de communication du code source de l’algorithme. Sur la durée de prescription, voir l’article L553-1 du CSS : elle est de deux ans pour les indus et de cinq ans en cas de fraude.
Les demandes ont été envoyées au titre du droit d’accès aux documents administratifs prévu par le code des relations entre le public et l’administration, ainsi qu’au titre du droit d’accès aux données personnelles prévu par le RGPD. Suite au refus de la CAF, une saisine de la CADA a été faite et une plainte auprès de la CNIL a été déposée. La CAF se refuse toujours à communiquer la moindre information.
Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258.
Auditions réalisées par Madame Goulet et Madame Grandjean dans le cadre du rapport « Lutter contre les fraudes aux prestations sociales ». Les auditions sont disponibles ici.
";s:7:"dateiso";s:15:"20240111_105504";}s:15:"20240110_145537";a:7:{s:5:"title";s:74:"Smart Police d’Edicia, le logiciel à tout faire des polices municipales";s:4:"link";s:110:"https://www.laquadrature.net/2024/01/10/smart-police-dedicia-le-logiciel-a-tout-faire-des-polices-municipales/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22810";s:7:"pubDate";s:31:"Wed, 10 Jan 2024 13:55:37 +0000";s:11:"description";s:235:"
Dans le cadre d’une enquête sur les technologies de police prédictive dont nous vous reparlerons très bientôt, La Quadrature s’est intéressée de près à Edicia. Cette startup est peu connue du grand public. Elle joue…";s:7:"content";s:30596:"
Dans le cadre d’une enquête sur les technologies de police prédictive dont nous vous reparlerons très bientôt, La Quadrature s’est intéressée de près à Edicia. Cette startup est peu connue du grand public. Elle joue pourtant un rôle central puisqu’elle équipe des centaines de polices municipales à travers le pays. Son logiciel Smart Police, dont nous avons obtenu le manuel d’utilisation, permet de faire un peu tout et n’importe quoi. Loin de tout contrôle de la CNIL, Smart Police encourage notamment le fichage illégal, une pratique policière en vogue…
L’entreprise Edicia a été créée en 2013 et a son siège à Nantes. Cette année-là, Vincent Loubert, un ancien consultant de Cap Gemini, rachète, avec le soutien du fonds d’investissement Newfund, une société de logiciels du nom d’Access, lancée à l’origine par un policier à la retraite qui cherchait à développer une application simplifiant le travail des policiers. Sous l’égide d’Edicia, ce logiciel va prendre le nom de Smart Police.
En 2019, après une expansion rapide en France (Edicia prétend alors équiper près de 600 villes à travers le pays)1, la startup s’internationalise en développant ses activités aux États-Unis, vendant notamment son logiciel à la police de Denver, dans le Colorado, où elle ouvre même une antenne avec une trentaine de salariés. En France, cette année-là, la startup emploie une quarantaine de personnes et réalise des bénéfices pour la première fois depuis son lancement. Loubert affirme alors avoir consacré près de 10 millions d’euros à la R&D.
Depuis, il est possible que l’entreprise ait connu quelques difficultés financières. Le site d’Edicia comme ses comptes sur les réseaux sociaux sont globalement inactifs. Elle semble également embaucher moins de salariés. Pour autant, son logiciel Smart Police continue d’être utilisé au quotidien par des milliers de policier municipaux à travers le pays.
Aperçu de Smart Police
À quoi sert Smart Police ? À un peu tout et n’importe quoi. Il permet aux agents de police d’utiliser leur téléphone ou tablette pour rédiger leurs rapports directement depuis le terrain, d’ajouter à une base de donnée des clichés photographiques, de rapporter des évènements ou encore d’établir des procès-verbaux (voir les captures d’écran du logiciel à la fin de cet article, ou explorer le manuel d’utilisation au format HTML2). Smart Police est aussi utilisé par les officiers pour suivre depuis leurs bureaux les équipes sur le terrain, cartographier les incidents, consulter leurs rapports et recevoir divers indicateurs statistiques en temps réel, de même que les photographies prises en intervention (par exemple lors d’une manifestation).
Les villes de Marseille, Nice, Élancourt, Antony, Le Pré-Saint-Gervais, Libourne, Chinon, Coignères, Maurepas, ou encore la communauté de communes Grand Paris Sud- Seine Essonne Sénart comptent parmi les clientes d’Edicia (avec en tout 350 villes clientes d’après les derniers chiffres fournis sur le site d’Edicia). Mais bien évidemment, en dehors des affirmations péremptoires des patrons d’Edicia ou de quelques édiles relayés dans la presse, aucune étude disponible ne permet de démontrer le prétendu surcroît d’efficacité policière induit par Smart Police. Par ailleurs, une demande CADA nous a appris qu’une ville comme Cannes avait été cliente d’Edicia, avant de décommissionner le logiciel sans qu’on sache exactement pourquoi. Il est possible qu’à l’image de certains logiciels utilisés aux États-Unis puis abandonnés, le rapport coût-efficacité ait été jugé trop faible.
Fichage en mode YOLO ?
L’une des composantes les plus importantes de Smart Police, dont le manuel d’utilisation nous a été communiqué via une demande CADA et est désormais disponible, réside dans son menu « Activités de terrain », que les agents utilisateurs manient quotidiennement. Il leur permet de créer de nouvelles « mains courantes », d’écrire et de référencer des rapports de police (procès-verbaux) documentant diverses infractions que les agents de la police municipale sont autorisés à constater. Lorsqu’ils créent ces fiches, les agents doivent fournir des informations générales, la localisation géographique de l’événement, le type d’infraction, l’identité et les coordonnées du suspect ou des témoins (qui peuvent être enregistrées facilement en scannant une carte d’identité), etc. En tant que telles, ces fiches de signalement peuvent être détournées pour des finalités qui dépassent les prérogatives de la police municipale – lesquelles sont limitées, notamment en matière de contrôle d’identité3 –, et devraient être soumises à un contrôle étroit.
Un autre module présente un risque encore plus important de fichage illégal : il s’agit du module «Demande administré », qui comme son nom l’indique, permet d’enregistrer les signalements faits par des administrés à la police municipale (bruit, dégradation, présence d’un animal dangereux, etc.). Là encore, l’interface rend possible l’ajout de données géolocalisées et de photographies.
Enfin, Smart Police comporte un module « Vigilance active », au sein duquel les agents peuvent rassembler des informations non officielles sur des événements passés ou futurs. Par exemple, si un agent de police a rapporté une rumeur entendue dans la rue ou repérée sur les réseaux sociaux (par exemple concernant un « rassemblement non autorisé », ainsi que l’illustre le manuel), une fiche peut être créée pour la consigner. Celle-ci peut très bien comporter toutes sortes de données dont le traitement par la police est, dans un tel cadre, totalement illégal (identité des personnes suspectées d’organiser ce rassemblement, des photographies extraites des réseaux sociaux, etc.). Ces fiches de renseignement peuvent ensuite être transformées en « missions » assignées aux agents depuis l’interface à disposition des managers, conduire à la création de nouvelles fiches « mains courantes », mais aussi alimenter le module « Analyse prédictive » si la ville cliente d’Edicia y a souscrit (nous y reviendrons dans un prochain article).
On le comprend au regard de ces descriptions, Smart Police comporte un risque important de voir consignées des données identifiantes, et donc là encore de conduire à des opérations de fichage illégal. Notamment, il ne semble pas respecter le cadre réglementaire s’agissant des traitements automatisés utilisés par les polices municipales pour gérer les mains courantes, puisque ce dernier exclut la prise de photographies4.
Loin de tout contrôle
Par deux fois, nous avons interrogé la CNIL via des demandes CADA pour savoir si elle s’était penchée sur l’utilisation de Smart Police en France. Par deux fois, la même réponse nous a été faite : en dehors de quelques formalités préalables réalisées par une demi-douzaine de communes avant l’entrée en vigueur du RGPD, nada (voir ici pour la dernière réponse en date). Nous avons bien mis la main sur l’attestation de conformité RGPD, délivrée à Edicia par le cabinet Olivier Iteanu et obtenue via une demande CADA à la ville de Libourne, ainsi qu’un document relatif à la politique de gestion des données d’Edicia, mais celles-ci n’offrent aucun élément réellement rassurant s’agissant du risque de voir Smart Police servir à des opérations de fichage illégal. Enfin, aucune des dizaines de demandes CADA envoyées aux mairies s’agissant d’Edicia n’a mis en évidence de contrôle réalisé par les personnes déléguées à la protection des données au sein des villes.
Nos inquiétudes à ce sujet sont évidemment renforcées par des révélations récentes. La presse locale s’est récemment faite l’écho de pratiques de policiers municipaux dans une commune de la région PACA consistant à échanger, sur des boucles WhatsApp privées et à partir de leurs smartphones personnels, des données sensibles relatives à des personnes : images extraites de la vidéosurveillance, photos des personnes contrôlées, plaques d’immatriculation, pièces d’identité, etc5. Des pratiques totalement illégales mais dont on peut supposer qu’elles sont monnaie courante, non seulement au sein des polices municipales mais aussi au sein de la police nationale.
Quant au dernier rapport de l’Inspection générale de la police nationale (IGPN)6, il note une hausse sensible des faits de détournements de fichiers (56 enquêtes, contre 38 en 2021 et 27 en 2020), une évolution qu’elle qualifie de « préoccupante » :
Ces faits sont de gravité très inégale selon qu’ils procèdent de la curiosité « malsaine » (passage aux fichiers d’une ex-compagne ou d’un nouveau compagnon, de membres de sa famille, d’une personne connue, d’un chef de service, sans argent versé ou contrepartie) ou du commerce des informations récoltées. Ces cas sont les plus sensibles, lorsque les informations confidentielles issues des fichiers de police sont remises à des tiers, avec ou sans but lucratif. Si la preuve de la consultation illégale est assez simple à rapporter par les enquêteurs, il en va différemment pour la preuve éventuelle d’une rétribution à titre de contrepartie.
Pour l’institution, « cette situation tient à la fois à la multiplication du nombre de fichiers de police et une meilleure accessibilité », notamment du fait d’un déploiement croissant des tablettes et smartphones Neo, lesquelles permettent un accès plus aisé aux fichiers de police pour les agents de la police nationale et de la gendarmerie nationale. L’IGPN estime que l’intelligence artificielle pourrait permettre de détecter plus aisément ces consultations illégales.
Et maintenant ?
Pour notre part, plutôt qu’un solutionnisme technologique abscons, la réponse tiendrait plutôt à une désescalade techno-sécuritaire, à savoir le fait de battre en brèche l’augmentation exponentielle du fichage de la population, le recul constant des garanties concrètes apportées aux droits fondamentaux (recul auquel le RGPD et les textes associés ont participé par de nombreux aspects). Au minimum, les contre-pouvoirs institutionnels, comme la CNIL, devraient faire leur travail, à savoir lutter contre les illégalismes policiers, plutôt que d’instaurer une impunité de fait par leur coupable laisser-faire.
De ce point de vue, un premier pas dans la bonne direction consisterait à procéder à un contrôle résolu des polices municipales clientes d’Edicia, en n’hésitant pas à prononcer de vraies sanctions contre les responsables hiérarchiques dès lors que des infractions seront constatées.
Pour soutenir notre travail, vous pouvez faire un don à La Quadrature du Net.
À noter : sur son site web, Edicia se targue également de compter parmi ses clients quelques services du ministère de l’Intérieur, mais nos demandes CADA envoyées au ministère sur ces collaborations sont restées infructueuses, le ministère prétendant qu’il n’existe aucun lien avec Edicia. ︎
Lorsqu’ils créent des procès-verbaux dans Edicia, les agents sont invités à choisir parmi une liste d’infractions présélectionnées et tirées d’une base de données nationale catégorisant tous les types d’infractions (la base de données NATINF). Rappelons que les types d’infractions que les agents de police municipale peuvent constater sont très limités. Ils peuvent par exemple sanctionner les propriétaires de chiens dangereux qui ne respectent pas la loi, inspecter visuellement et fouiller (avec l’autorisation du propriétaire) les sacs et bagages lors de manifestations publiques ou à l’entrée d’un bâtiment municipal, délivrer des amendes en cas d’incivilités telles que le dépôt d’ordures dans la nature, le tapage nocturne, le fait de laisser des animaux dangereux en liberté, et constater la plupart des infractions au code de la route commises sur le territoire communal dès lors qu’elles ne nécessitent pas d’enquête. Cependant, les agents de la police municipale disposent de pouvoirs beaucoup plus étendus que ne le laisse supposer le code pénal : arrestation en flagrant délit d’une personne ayant commis un crime ou un délit passible de prison pour l’amener au poste de police nationale ou de gendarmerie le plus proche, établissement de rapports et procès-verbaux concernant tout crime, délit ou contravention dont les agents municipaux seraient témoins, documents qui peuvent soit être directement transmis à la police nationale ou à la gendarmerie, soit au maire. Celui-ci, ayant qualité d’officier de police judiciaire, transmet alors l’information au procureur de la république. Bien que la loi ne les autorise pas à procéder à des contrôles d’identité, les agents de police municipaux peuvent collecter l’identité d’une personne, tant qu’ils ne demandent pas de produire une pièce attestant de celle-ci, et sont autorisés à demander une preuve d’identité dans le cas des quelques délits qui rentrent dans leurs prérogatives. Le logiciel d’Edicia semble donc offrir des fonctionnalités qui vont bien au-delà du cadre juridique. Voir « Mémento policiers municipaux et gardes champêtres ». Ministère de l’Intérieur, 10 novembre 2021. https://www.interieur.gouv.fr/content/download/129786/1033871/file/memento-polices-muni-gardes-champetres.pdf. ︎
Arrêté du 14 avril 2009 autorisant la mise en œuvre de traitements automatisés dans les communes ayant pour objet la recherche et la constatation des infractions pénales par leurs fonctionnaires et agents habilités, consulté le 9 décembre 2023, https://www.legifrance.gouv.fr/loda/id/JORFTEXT000020692173. ︎
";s:7:"dateiso";s:15:"20240110_145537";}s:15:"20231219_102556";a:7:{s:5:"title";s:82:"L’activisme écologiste, nouveau terrain d’expérimentation de la Technopolice";s:4:"link";s:114:"https://www.laquadrature.net/2023/12/19/lactivisme-ecologiste-nouveau-terrain-dexperimentation-de-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22642";s:7:"pubDate";s:31:"Tue, 19 Dec 2023 09:25:56 +0000";s:11:"description";s:297:"Plusieurs affaires récentes ont mis en lumière la surveillance particulièrement intensive subie par les militantes écologistes. Outre l’arsenal administratif et répressif déployé par l’État pour les punir, c’est la nature des moyens utilisés qui interpelle :…";s:7:"content";s:15502:"
Plusieurs affaires récentes ont mis en lumière la surveillance particulièrement intensive subie par les militantes écologistes. Outre l’arsenal administratif et répressif déployé par l’État pour les punir, c’est la nature des moyens utilisés qui interpelle : drones, reconnaissance faciale, marqueurs codés… Le ministère de l’Intérieur expérimente et perfectionne sur les activistes écologiques ses outils technopoliciers.
Plusieurs articles ont révélé le caractère intensif des moyens de surveillance et de répression déployés par l’État pour punir certaines actions militantes écologistes. Si cela avait déjà été documenté pour le mouvement de résistance nucléaire à Bure, c’est dernièrement le cas de l’affaire Lafarge pour laquelle un article paru sur Rebellyon a détaillé les outils mis en œuvre par la police afin d’identifier les personnes ayant participé à une action ciblant une usine du cimentier.
Vidéosurveillance, analyse des données téléphoniques, réquisitions aux réseaux sociaux, relevés ADN, virements bancaires, traceurs GPS… La liste paraît infinie. Elle donne une idée de la puissance que peut déployer l’État à des fins de surveillance, « dans un dossier visant avant tout des militants politiques » – comme le souligne Médiapart dans son article.
Pour avoir une idée de l’étendue complète de ces moyens, il faut y ajouter la création des cellules spécialisées du ministère de l’Intérieur (la cellule Démeter, créée en 2019 pour lutter contre « la délinquance dans le monde agricole » et la cellule « anti-ZAD », mise en place en 2023 à la suite de Sainte-Soline) ainsi que l’alerte donnée par la CNCTR (l’autorité de contrôle des services de renseignement) qui en 2023 a souligné son malaise sur l’utilisation accrue des services de renseignement à des fins de surveillance des organisations écologistes.
Les forces de sécurité semblent continuer de perfectionner et expérimenter sur les organisations écologistes leurs nouveaux outils de surveillance : drones, caméras nomades, reconnaissance faciale, produits de marquages codés… Parce que ces organisations leur opposent une résistance nouvelle, souvent massive, déployée sur un ensemble de terrains différents (manifestations en milieu urbain, ZAD, méga-bassines…), les forces de police semblent trouver nécessaire l’utilisation de ces outils de surveillance particulièrement invasifs.
Capter le visage des manifestantes
Outil phare de la Technopolice, le drone a été expérimenté dès ses débuts sur les écologistes. Difficile d’y voir un hasard quand (d’après la gendarmerie), la première utilisation d’un drone à des fins de surveillance par la gendarmerie a lieu dans le Tarn en 2015, pour évacuer la ZAD du barrage de Sivens. En 2017, c’est Bure (site prévu pour l’enfouissement de déchets nucléaires) qui sert d’expérimentation avant une utilisation officialisée pour la ZAD de Notre-Dame-des-Landes en 2018.
La gendarmerie y décrit dans sa revue officielle un contexte idéal d’expérimentation avec une utilisation permettant un « grand nombre de premières » : utilisation simultanée de drones et d’hélicoptères de surveillance, retransmission en direct des divers flux vidéos, guidage des tirs de lacrymogènes… Des utilisations qui seront ensuite reprises et normalisées dans les futures utilisations des drones, en particulier pour la surveillance des manifestations. À noter dans la revue officielle de la gendarmerie l’utilisation répétée du terme d’ « adversaires » pour décrire les militantes : « marquage d’adversaire », « manœuvre de l’adversaire »….
Ce n’est pas non plus un hasard si dans le Livre blanc de la sécurité intérieure, document publié fin 2020 par le ministère de l’Intérieur pour formuler un ensemble de propositions sur le maintien de l’ordre, l’exemple de Notre-Dame-des-Landes est cité pour justifier l’utilisation massive de drones, comme une « une étape importante dans la planification et l’exécution d’une opération complexe de maintien de l’ordre ».
Résultat : après la généralisation des drones dès 2020 avec le Covid-19, on a ensuite assisté, une fois l’ensemble légalisé à posteriori (et non sans difficultés), à la normalisation de l’usage des drones pour la surveillance des manifestations. Les drones sont aujourd’hui encore bien utiles à la police pour suivre les actions militantes écologistes, que ce soit récemment pour le Convoi de l’eau ou la mobilisation contre les travaux de l’A69.
À noter que l’imagination de la police et de la gendarmerie ne se limite pas aux drones en ce qui concerne les nouveaux moyens de surveillance vidéo. Plusieurs organisations ont documenté l’utilisation de caméras nomades ou dissimulées pour épier les allées et venues des activistes : caméras dans de fausses pierres ou troncs d’arbres pour la ZAD du Carnet, caméras avec vision nocturne en 2018 dans la Sarthe…
Ficher le visage des manifestantes
Autre outil phare de la Technopolice : la reconnaissance faciale. Rappelons-le : la reconnaissance faciale est (malheureusement) autorisée en France. La police ou la gendarmerie peuvent identifier des personnes grâce à leurs visages en les comparant à ceux enregistrés dans le fichier du traitement des antécédents judiciaires (TAJ). L’utilisation qui en est faite par les services de sécurité est aujourd’hui massive, estimée à plus de 600 000 fois en 2021 (donc plus de 1600 fois par jour).
Il est néanmoins assez rare d’avoir des exemples concrets de son utilisation pour comprendre comment et sur qui la police utilise ce dispositif. À ce titre, comme souligné dans l’article de Rebellyon, la reconnaissance faciale a été utilisée pour incriminer des personnes censément impliquées dans l’affaire Lafarge, avec l’utilisation d’images tirées de la réquisition des vidéosurveillances des bus de la ville pour les comparer au fichier TAJ. Médiapart dénombre dans son enquête huit personnes identifiées via ce dispositif.
Même chose pour la manifestation de Sainte-Soline : dans un article de juillet 2023, Médiapart relate que les quatre personnes qui ont comparu ont été retrouvées grâce à la reconnaissance faciale. Un premier procès plus tôt, déjà sur Sainte Soline, fait également mention de l’utilisation de la reconnaissance faciale.
Notons bien qu’au vu des chiffres cités plus haut, l’utilisation de la reconnaissance faciale est massive et n’est pas concentrée sur les militant·es écologistes (voir ici une utilisation récente pour retrouver une personne soupçonnée de vol). On constate néanmoins une utilisation systématique et banalisée de la reconnaissance faciale du TAJ, normalisée au point de devenir un outil d’enquête comme les autres, et de plus en plus présentée comme élément de preuve dans les tribunaux.
En 2021, nous avions attaqué devant le Conseil d’État cette reconnaissance faciale en soulevant que celle-ci devait légalement être limitée à la preuve d’une « nécessité absolue », un critère juridique qui implique qu’elle ne soit utilisée qu’en dernier recours, si aucune autre méthode d’identification n’est possible, ce qui n’était déjà pas le cas à l’époque. Cela l’est encore moins aujourd’hui à lire les comptes-rendus de Rebellyon ou de Médiapart.
Marquer les manifestantes
D’autres outils de surveillance, encore au stade de l’expérimentation, semblent testés dans les mobilisations écologistes. Parmi les plus préoccupants, les produits de marquage codés. Il s’agit de produits, tirés par un fusil type paintball, invisibles, indolores, permettant de marquer une personne à distance et persistant sur la peau et les vêtements. Ils peuvent être composés d’un produit chimique ou d’un fragment d’ADN de synthèse, se révélant à la lumière d’une lampe UV, porteurs d’un identifiant unique pour « prouver » la participation à une manifestation.
Comme rappelé par le collectif Désarmons-les, c’est dès 2021 que Darmanin annonce l’expérimentation de ce dispositif. Il semble être ensuite utilisé pour la première fois en 2022 lors d’une première manifestation contre la bassine de Sainte-Soline (via l’utilisation par la police de fusils spéciaux, ressemblant à ceux utilisés par les lanceurs paintball). En 2022, Darmanin dénombrait déjà plus de 250 utilisations de ce dispositif.
En 2023, son utilisation est de nouveau remarquée pour la manifestation contre la bassine de Sainte-Soline. Elle entraîne la garde à vue de deux journalistes qui ont détaillé à la presse la procédure suivie par la police et la gendarmerie pour récupérer et analyser la trace de peinture laissée par le fusil PMC.
Cet usage ne semble être aujourd’hui qu’à ses débuts. Dans le cadre d’un recours contentieux contre les drones, la préfecture de police, dans une surenchère sécuritaire sans limite, avait notamment émis le souhait de pouvoir équiper ses drones d’un lanceur de PMC. Le ministre de la Justice a également vanté l’utilisation de ces outils dans une récente audition sur le sujet, « utiles pour retrouver la trace d’un individu cagoulé ». Un rapport parlementaire de novembre 2023 rappelle néanmoins que son utilisation se fait aujourd’hui sans aucun cadre légal, ce qui la rend purement et simplement illégale. Si certains parlementaires semblent également s’interroger sur son efficacité, d’autres, dans un rapport sur « l’activisme violent », appellent à sa pérennisation et sa généralisation. Côté gouvernement, après l’avoir expérimenté sur les militants sans aucun cadre légal, le ministère de l’intérieur semble pour l’instant avoir suspendu son utilisation.
Les mouvements militants ne sont évidemment pas les seuls à connaître cette intensité dans le déploiement des moyens de surveillance : les exilées, les habitantes des quartiers populaires ont toujours été les premières à subir la militarisation forcenée des forces du ministère de l’Intérieur. Néanmoins, cette expérimentation des technologies sur les organisations écologistes est une nouvelle preuve de l’escalade sécuritaire et déshumanisée de la police et de la gendarmerie en lien avec la criminalisation des mouvements sociaux. La France est à l’avant-garde de la dérive autoritaire en Europe, puisqu’il semble être l’un des pays du continent ayant une pratique régulière et combinée de ces nouveaux outils
";s:7:"dateiso";s:15:"20231219_102556";}s:15:"20231215_182858";a:7:{s:5:"title";s:33:"QSPTAG #301 — 15 décembre 2023";s:4:"link";s:68:"https://www.laquadrature.net/2023/12/15/qsptag-301-15-decembre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22604";s:7:"pubDate";s:31:"Fri, 15 Dec 2023 17:28:58 +0000";s:11:"description";s:280:"Procès du « 8 décembre » : le compte-rendu
Le procès de l’affaire du « 8 décembre » s’est tenu du 3 au 27 octobre dernier au tribunal de Paris. Nous en avions longuement parlé dans plusieurs articles avant l’audience, car…";s:7:"content";s:6713:"
Procès du « 8 décembre » : le compte-rendu
Le procès de l’affaire du « 8 décembre » s’est tenu du 3 au 27 octobre dernier au tribunal de Paris. Nous en avions longuement parlé dans plusieurs articles avant l’audience, car la DGSI et le parquet national antiterroriste (PNAT), faute de trouver le moindre projet antiterroriste, reprochaient entre autres aux inculpé·es de chiffrer leurs données (disques durs et communications numériques), ce qui prouverait leur goût pour la « clandestinité ».
Bien entendu, la criminalisation du chiffrement des données est à la fois une aberration, puisque tout le monde utilise le chiffrement cent fois par jour, dans les messageries chiffrées (WhatsApp, Telegram, Signal ou autre), dans les connexions https ou dans le simple fait de protéger son disque dur ou son téléphone avec un mot de passe — et un vrai danger pour le droit fondamental à la vie privé et au secret des communications.
Les délires interprétatifs du PNAT et de la DGSI, payés pour voir le mal partout, pourraient passer pour une plaisanterie si d’une part leur suspicion n’avait pas bousillé la vie des sept inculpé·es, et si d’autre part le droit au chiffrement n’était pas remis en cause de façon concomitante par les États à tous les niveaux, aussi bien en France qu’en Europe.
Mais quelle place la question du chiffrement des communications a-t-elle réellement occupée lors des audiences du procès ? Nous y étions. Vous pouvez lire notre compte-rendu sur notre site.
Comme bon nombre d’associations, nous avons lancé fin novembre notre campagne de soutien pour l’année qui vient. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent en 2024, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la défense du droit au chiffrement des communications, la promotion de l’interopérabilité des services Web, et la réflexion nécessaire autour du numérique dans le contexte de la crise écologique mondiale.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
27-30 décembre 2023 : La Quadrature du Net sera au 37e Chaos Communication Congress (37C3) à Hambourg et tiendra une conférence le 28 décembre à midi (sauf changement de dernière minute par l’organisation) : https://events.ccc.de/congress/2023/infos/startpage.html.
11 janvier 2024 : Causerie mensuelle Technopolice Marseille – 19h – au Manifesten, 59 Rue Adolphe Thiers, à Marseille.
";s:7:"dateiso";s:15:"20231215_182858";}s:15:"20231214_155214";a:7:{s:5:"title";s:83:"Outils de chiffrement lors du procès du 8 décembre : du fantasme à la réalité";s:4:"link";s:116:"https://www.laquadrature.net/2023/12/14/outils-de-chiffrement-lors-du-proces-du-8-decembre-du-fantasme-a-la-realite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22587";s:7:"pubDate";s:31:"Thu, 14 Dec 2023 14:52:14 +0000";s:11:"description";s:278:"Durant quatre semaines, en octobre dernier, se sont tenues au tribunal de Paris les audiences du procès du « 8 décembre ». Dans cette affaire, sept personnes sont poursuivies pour « association de malfaiteurs terroristes ». Toutes contestent les…";s:7:"content";s:13998:"
Durant quatre semaines, en octobre dernier, se sont tenues au tribunal de Paris les audiences du procès du « 8 décembre ». Dans cette affaire, sept personnes sont poursuivies pour « association de malfaiteurs terroristes ». Toutes contestent les faits reprochés et trois ans d’instruction n’auront pas réussi à faire émerger la moindre preuve de projet terroriste. Parmi les « preuves » avancées par le parquet et les agents de renseignement pour démontrer cette intention « terroriste », on retrouvait des éléments relatifs à l’utilisation d’outils de protection de la vie privée, censés illustrer une certaine clandestinité. Scandalisé·es, nous avions révélé et dénoncé vigoureusement cet amalgame dangereux et malhonnête. Quelle a été la place accordée à ce sujet lors de l’examen de l’affaire par le tribunal correctionnel antiterroriste ? Retour sur les audiences auxquelles nous avons assisté, en amont de l’annonce du délibéré prévue pour le 22 décembre prochain1Pour rattraper l’ensemble du contenu du procès, plusieurs médias ont fait un compte-rendu régulier des audiences, notamment le blog des comités de soutiens, Le Monde, Mediapart, lundimatin, L’Obs ou encore Libération..
Durant le procès, ont été successivement passées en revue les personnalités des prévenu·es, puis l’examen par thème des faits qui leur sont reprochés. Après la question des explosifs, de la détention d’armes, la pratique de l’« airsoft » (qualifiée d’« entraînements paramilitaires » par le parquet), la question du « numérique » a donc été examinée. Ainsi, plusieurs inculpé·es ont été questionné·es sur leur utilisation de logiciels et applications telles que Signal, Tor, Tails ou sur le chiffrement de leurs ordinateurs et disques durs. Cet interrogatoire a suivi la même ligne directrice que celle du dossier d’instruction, que nous avions révélé il y a quelques mois : à la fois une grande confusion quant à la compréhension technique de ces outils et une vision suspicieuse de la réalité de leurs usages. Trois prévenu·es ont ainsi été questionné·es sur ce qui les poussait à utiliser ces logiciels, comme s’il fallait une justification, une explication argumentée, alors qu’il s’agit d’outils sains, légaux et banals.
« Il est possible et non interdit d’avoir ces outils mais on peut se demander pourquoi dissimuler l’information » s’est ainsi interrogée la présidente. La suspicion de clandestinité couplée à une faible connaissance du sujet transparaissaient dans les questions : « Vous expliquez que l’usage de ce “genre de réseaux” [en l’occurrence Signal] était pour préserver votre vie privée, mais avez-vous peur d’être surveillée ? ». Ou encore : « Pourquoi cela vous avait paru important ou une bonne idée de découvrir ce “genre d’environnement” [cette fois-ci il s’agit du système d’exploitation Tails] ? ». Une juge assesseure n’a pas hésité à utiliser le champ lexical des armes quand elle a essayé de comprendre pourquoi un tel « arsenal complet de divers outils » a été utilisé, laissant présumer une « volonté de discrétion » de la part des prévenu·es. De l’autre coté de la barre, les inculpé·es ont répondu d’une façon simple et cohérente qui peut se résumer ainsi : « c’est ma vie privée, c’est mon droit, c’est important, il est banal d’utiliser ces outils, en particulier dans le monde militant dont on sait qu’il est de plus en plus exposé à la surveillance d’État ».
La question du refus de donner ses clés de déchiffrement a elle aussi été abordée. En l’occurrence, plusieurs prévenu·es ont refusé lors de leur arrestation de fournir aux agents de la DGSI chargés de l’enquête les codes de déverrouillage d’ordinateur, de téléphone ou encore de disque dur saisis en perquisition. En France, un tel refus peut constituer une infraction sur la base d’une disposition interprétée largement et très contestée. Face à l’incompréhension des juges — pourquoi s’exposer aussi frontalement à des poursuites pénales ? — les prévenu·es ne leur ont pas fourni les aveux attendus. Au contraire, les personnes interrogées ont amené la discussion plus loin, sur leurs libertés et droits fondamentaux, levant le voile sur la violente réalité des procédures antiterroristes. « Dans un moment de vulnérabilité telle que celui de la garde à vue, après avoir donné mon ADN, je voulais m’attacher à ce qu’il me restait d’intimité, je voulais la conserver » explique Camille, une prévenue présentée comme l’experte numérique par le procureur. Loïc, un autre inculpé renchérit : « Je savais que la DGSI allait réussir à déchiffrer mon matériel informatique et voir que je ne suis pas dangereux, c’était ma manière de montrer mon refus car ma liberté et mon intimité sont plus précieuses ».
Enfin, dans le but d’éclairer les juges sur le fonctionnement des outils mis en cause dans le dossier et la réalité de leurs usages, un membre de La Quadrature du Net, également développeur de l’application Silence, est venu témoigner au procès. Qu’il s’agisse du chiffrement, de Signal, Tor, Tails ou du système d’exploitation /e/OS, son témoignage est revenu sur la banalité des technologies derrière ces applications et leur usage généralisé et nécessaire dans la société numérisée contemporaine, loin des fantasmes de clandestinité de la DGSI et du parquet. Les magistrates ne lui ont pourtant posé que peu de questions. Le parquet, lui, s’est uniquement ému que des éléments du dossier, pourtant non couverts par le secret de l’instruction, aient pu être portés à la connaissance du témoin. Un mauvais numéro de théâtre qui laissait surtout deviner une volonté de le décrédibiliser lui ainsi que le contenu de son témoignage.
De façon générale, la place des pratiques numériques a été faible relativement à l’ampleur et la durée du procès, et bien en deça de celle qui lui était accordée dans le réquisitoire ou l’ordonnance de renvoi du juge d’Instruction. Quelle interprétation tirer à la fois du manque d’intérêt des juges et de la faible quantité de temps consacrée à ce sujet ? Difficile d’avoir des certitudes. On pourrait y voir, d’un coté, une prise de conscience des magistrates et du parquet de l’absurdité qu’il y a à reprocher l’utilisation d’outils légaux et légitimes. Rappelons que plus de 130 universitaires, journalistes, militant·es, acteur·rices du monde associatif et de l’écosystème numérique ont signé une tribune dans le journal Le Monde pour dénoncer cette instrumentalisation et défendre le droit au chiffrement. Mais d’un autre coté, cette désinvolture pourrait être le signe d’un manque de considération pour ces questions, notamment quant à l’importance du droit à la vie privée. Cela ne serait pas étonnant, dans une procédure qui se fonde sur une utilisation intensive de techniques de renseignement et sur une surveillance disproportionnée de sept personnes dont la vie a été broyée par la machine judiciaire.
La lecture du jugement est prévue pour le 22 décembre. Que le tribunal retienne le recours à des technologies protectrices de la vie privée dans la motivation de sa décision ou qu’il laisse cet enjeu de côté, le récit fictif de la police à ce sujet risque d’avoir des conséquences à long terme. Le précédent d’une inculpation anti-terroriste reposant essentiellement sur ce point existe désormais et il est difficile de croire qu’à l’heure où le chiffrement fait l’objet de nombreuses attaques, en France et en Europe, la police ne réutilisera pas cette logique de criminalisation pour justifier une surveillance toujours plus accrue de la population et des groupes militants.
Pour rattraper l’ensemble du contenu du procès, plusieurs médias ont fait un compte-rendu régulier des audiences, notamment le blog des comités de soutiens, Le Monde, Mediapart, lundimatin, L’Obs ou encore Libération.
";s:7:"dateiso";s:15:"20231214_155214";}s:15:"20231208_182121";a:7:{s:5:"title";s:32:"QSPTAG #300 — 8 décembre 2023";s:4:"link";s:67:"https://www.laquadrature.net/2023/12/08/qsptag-300-8-decembre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22521";s:7:"pubDate";s:31:"Fri, 08 Dec 2023 17:21:21 +0000";s:11:"description";s:248:"Interopérabilité : la voie à ouvrir pour le Web en 2024
L’interopérabilité des services Web, on vous en parle depuis un bail : en mai 2019, on signait une lettre commune avec 75 autres organisations européennes pour que…";s:7:"content";s:11804:"
Interopérabilité : la voie à ouvrir pour le Web en 2024
Depuis lors, l’idée a fait son chemin. Nous n’avons cessé de l’affiner et de la proposer, sous forme d’élément d’analyse du débat et d’amendements législatifs, lors des débats parlementaires qui ont eu lieu à l’occasion de la loi Avia « contre la haine en ligne » ou de bien d’autres, à chaque fois en vérité que le gouvernement a préféré confier aux GAFAM et aux grands réseaux sociaux privés un pouvoir de censure et de surveillance supplémentaire, sans réfléchir aux mécanismes qui donnent à ces plateformes géantes une responsabilité démesurée dans le pourrissement du débat démocratique.
L’idée est mûre et doit maintenant s’inscrire dans la loi française et européenne. Mais c’est quoi l’interopérabilité ? Un principe tout simple, qui est à la racine d’Internet et à permis son essor incroyable : les services similaires utilisent les mêmes protocoles, ou les mêmes standards techniques, pour communiquer entre eux. L’exemple classique est celui de l’e-mail : sans un protocole commun, les utilisateurs de GMail ne pourraient pas écrire à ceux de Microsoft Outlook ou de ProtonMail. Or, à l’heure actuelle, les utilisateurs de Twitter, de Facebook, d’Instagram ou de BlueSky ne peuvent pas échanger entre eux. Chacun est captif chez soi, enfermé dans son « silo », à l’encontre de l’idée même du réseau ouvert et décentralisé d’Internet.
Les conséquences de cet enfermement sont innombrables et toutes sont toxiques. D’abord, ce public captif est soumis à une exploitation débridée (et illégale) de ses données personnelles, pour être ensuite gavé de publicités soi-disant « ciblées ». Ensuite, chaque personne étant enfermée avec des personnes qu’elle n’a pas forcément envie de fréquenter, des adversaires politiques radicaux par exemple, la plateforme en tire un avantage cynique : les algorithmes promeuvent en priorité les messages qui suscitent le plus « d’engagement », c’est-à-dire d’hostilité et de réactions outrées, afin de retenir les gens collés à l’écran, et de leur infliger encore plus de publicité… Enfin, quand on veut quitter cet enfer de polémiques stériles, de consumérisme abyssal et de conflictualité exacerbée, on doit laisser derrière soi tous ses contacts, « amis » ou « followers », c’est-à-dire renoncer à tout un pan de sa sociabilité, qui n’a rien de « virtuel » ou d’inférieur, dans son degré de réalité et d’importance, avec la sociabilité quotidienne ordinaire.
Imposer à ces plateformes toxiques une obligation d’être interopérables, c’est mettre fin à ces trois poisons que sont la surveillance publicitaire, l’antagonisation de la société, et la confiscation des liens amicaux. Quand on pourra s’inscrire à un réseau social libre, Mastodon par exemple, avec la garantie de ne pas y subir de publicité, d’y suivre des règles de modération auxquelles on adhère et auxquelles on peut même participer, et qu’on pourra y retrouver ses contacts qui utilisent d’autres services, alors la tyrannie de Twitter, de Facebook ou d’Instagram aura cessé d’exister.
Pour poser et expliquer très finement les mécanismes un peu expédiés ici, nous avons écrit un article exhaustif, qui sera notre référence dans les mois qui viennent et pour tous nos plaidoyers en faveur de l’interopérabilité. Une lecture solide à garder dans vos signets !
Comme bon nombre d’associations, nous avons lancé fin novembre notre campagne de soutien pour l’année qui vient. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent en 2024, principalement la lutte contre les algorithmes de contrôle social dans les administrations, la réflexion nécessaire autour du numérique dans le contexte de la crise écologique, la défense du droit au chiffrement des communications, et la promotion de l’interopérabilité des services Web.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
8 décembre 2023 : Réunion d’information Technopolice à Rouen — à partir de 18h30, Maison des associations et la solidarité, 22 bis rue Dumont d’Urville, Rouen.
14 décembre 2023 : Causerie mensuelle du groupe Technopolice Marseille — à partir de 19h, Manifesten, 59 Rue Adolphe Thiers, Marseille.
14 décembre 2023 : Table ronde au festival OSINT à La Gaité Lyrique – à 11h, à La Gaité Lyrique, 259 rue Saint-Martin 75003 Paris. Plus d’informations sur cette page.
";s:7:"dateiso";s:15:"20231208_182121";}s:15:"20231204_144516";a:7:{s:5:"title";s:48:"Pour l’interopérabilité des réseaux sociaux";s:4:"link";s:83:"https://www.laquadrature.net/2023/12/04/pour-linteroperabilite-des-reseaux-sociaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22424";s:7:"pubDate";s:31:"Mon, 04 Dec 2023 13:45:16 +0000";s:11:"description";s:289:"L’interopérabilité, c’est-à-dire la capacité pour différents systèmes de communiquer entre eux, est omniprésente dans notre quotidien. Partout où sont établis des standards – dans la langue et l’écriture, dans la circulation routière, dans les pièces…";s:7:"content";s:77312:"
L’interopérabilité, c’est-à-dire la capacité pour différents systèmes de communiquer entre eux, est omniprésente dans notre quotidien. Partout où sont établis des standards – dans la langue et l’écriture, dans la circulation routière, dans les pièces mécaniques de nos machines, dans la connectique de nos appareils électroniques, dans les formats de nos fichiers numériques –, un certain nombre de règles permettent à deux systèmes distincts de fonctionner comme un seul, formant un écosystème.
Le monde informatique est fait de ces règles que l’on appelle « protocoles ». Certaines entreprises font le choix de concevoir plutôt des protocoles propriétaires, c’est-à-dire de poser des barrière pour bloquer la communication avec d’autres systèmes qui ne seraient pas sous leur contrôle. Cela leur permet de s’assurer que les personnes qui utilisent leurs logiciels ou leurs matériels soient dépendantes de l’entreprise. L’entreprise Apple, par exemple, est connue pour fonder l’ensemble de son modèle économique sur ces stratégies de fermeture : si la communication entre les différents appareils et logiciels Apple est possible, elle est rendue difficile voire impossible avec d’autres appareils et logiciels n’appartenant pas à la marque. Posséder un ordinateur Apple implique d’utiliser le système d’exploitation d’Apple, d’utiliser la connectique Apple et d’intégrer des logiques d’utilisation souvent très différentes, rendant les utilisateur·rices captif·ves de leur écosystème.
Les réseaux sociaux commerciaux comme Facebook, Twitter, Instagram, Youtube, TikTok et bien d’autres reposent sur l’absence de protocole pour communiquer vers l’extérieur : ils empêchent leurs utilisateur·rices d’opter pour d’autres moyens de communiquer et d’échanger des informations. Les contenus publiés sur l’un de ces réseaux sociaux ne sont accessibles qu’en passant par celui-ci. Toute communication vers l’extérieur est volontairement bloquée et il est parfois même nécessaire de se créer un compte pour consulter un contenu via une interface imposée (interface web ou application).
La stratégie des réseaux sociaux commerciaux fonctionne sur une logique de régie publicitaire. Pour être rentables, il leur faut rassembler un public auquel exposer la publicité de leurs annonceurs. Dans un premier temps, ces entreprises s’emploient à créer un logiciel de réseau social désirable, en mettant l’accent sur des fonctionnalités innovantes pour attirer des utilisateur·rices. L’usage de protocoles fermés n’est alors pas encore une nécessité. On se rappelle par exemple de Facebook, qui, entre 2008 et 2015, supportait le protocole XMPP dans sa messagerie privée, ce qui permettait à ses utilisateur·rices d’échanger avec les personnes ayant un compte AIM, ou utilisant d’autres messageries basées sur ce protocole. Ils constituent de cette manière une grosse base d’utilisateur·rices afin de renforcer ce qu’on appelle l’« effet réseau » de leur logiciel : plus il y a des personnes présentes sur le réseau social, plus cela en attire de nouvelles.
Une fois un certain seuil d’utilisateur·rices atteint, pour avoir une stratégie publicitaire plus offensive, les réseaux sociaux commerciaux investissent l’ensemble de leurs ressources pour servir la publicité. Cela a pour effet de dégrader le service, notamment en réorganisant les contenus créés sans but commercial en les diluant dans ceux « sponsorisés ». Le réseau social commercial n’est alors plus aussi attrayant pour le service qu’il offre, mais seulement en ce qu’il permet de communiquer avec les gens qui y ont un compte. La stratégie de mise en captivité devient alors une nécessité. Les techniques utilisées pour empêcher les utilisateur·rices de partir et en attirer d’autres malgré la dégradation du service passent alors par la fermeture des protocoles – voire l’impossibilité stricte de communiquer vers l’extérieur –, la complexification de l’accès au contenu pour les personnes non connectées, et bien d’autres obstacles.
Ce fonctionnement en silos semble être la norme aujourd’hui car cette méthode de captivité est efficace : alors qu’une grande partie des utilisateur·rices d’un réseau social commercial comme Facebook sont très critiques de ses méthodes de surveillance commerciale, de ses méthodes de modération, de son volontarisme à appliquer la censure réclamée par les États, de sa manière d’afficher en priorité des contenus publicitaires, iels continuent de l’utiliser car tous·tes leurs ami·es y sont.
Le caractère commercial à l’origine de la nécessité de centralisation
Dissection d’un GAFAM, analyse technique de la logique de centralisation
Pour mieux comprendre comment les réseaux sociaux commerciaux concentrent autant de pouvoir, commençons par analyser ce qui les compose. Nous prendrons ici l’exemple de Facebook, mais il en est de même pour Youtube, Tiktok et les autres :
Lorsque l’on parle de Facebook, on parle en réalité de plusieurs choses différentes. Premièrement, pendant longtemps, Facebook était le nom de l’entreprise qui commercialise le réseau social (depuis 2021, cette entreprise s’appelle Meta). Deuxièmement, c’est le nom du logiciel de réseau social. Ce logiciel détermine les règles applicables au service : il prévoit non seulement les fonctionnalités (l’échange de contenus privés, publics, d’images, etc.), mais aussi les conditions à respecter pour en bénéficier. Ce logiciel de réseau social détermine ainsi les restrictions, comme le fait d’empêcher de pouvoir communiquer avec d’autres logiciels que ceux de l’entreprise, via l’obligation d’utiliser des protocoles propriétaires. Ce logiciel est hébergé uniquement sur les serveurs de l’entreprise, ce qui garantit à cette dernière d’être la seule à pouvoir administrer le réseau social (c’est aussi ce qui lui confère une responsabilité juridique particulière). Troisièmement, Facebook est aussi le nom des interfaces qui permettent d’accéder au réseau social, que l’on appelle « clients ». Il s’agit à la fois de l’interface web accessible depuis un navigateur que des applications mobiles que l’internaute installe sur son smartphone.
Les stratégies de protocoles fermés sont appliquées à tous les étages techniques, ce qui confère au réseau social cette nature centralisée :
il n’est pas possible d’héberger les contenus que l’on poste sur le réseau social ailleurs que sur les serveurs de l’entreprise ;
le logiciel est construit de manière à ce qu’il ne soit pas possible d’accéder directement à des contenus publiés sur un autre réseau social ;
la connexion au logiciel de réseau social ne peut se faire que via des clients développés et proposés par le réseau social, il est impossible d’utiliser des clients alternatifs (ou alors de manière très difficile en raison du manque de documentation des API pour les développeurs·euses tiers·ces ou de leurs restrictions d’usages).
Le principe d’interopérabilité veut précisément briser ces stratégies de centralisation technique qui sont à l’origine de la concentration du pouvoir des réseaux sociaux sur leurs utilisateur·rices. L’interopérabilité rendrait au contraire toutes ces choses possibles : héberger ses contenus où l’on veut, employer le logiciel de réseau social que l’on veut pour communiquer avec qui on veut, ou encore utiliser un client de son choix.
Centraliser et enfermer pour mieux surveiller
Le fonctionnement en silo des réseaux sociaux commerciaux maintient leurs utilisateur·rices captif·ves et leur permet d’imposer leurs conditions. Leur modèle économique étant basé sur la publicité ciblée, ils traitent un très grand nombre d’informations. Premièrement, les réseaux sociaux collectent les données fournies directement par l’utilisateur·rice. Cela varie d’un réseau social à un autre (en fonction de la politique propre à chaque service), mais on retrouve souvent l’âge, le nom, la nationalité, les centres d’intérêts, etc. Deuxièmement, les réseaux sociaux déduisent des informations à partir de l’usage fait par l’internaute. Ils peuvent recréer le graphe social (c’est-à-dire avec qui l’internaute interagit et à quelle fréquence), mais ils peuvent également traiter les métadonnées, c’est-à-dire ce qui entoure une communication : heure, fréquence et lieu de connexion, type de matériels et de logiciels utilisés, temps passé sur un contenu, etc.
Le but de cette collecte d’information est de dresser des profils types d’utilisateur·rices afin de leur adresser la publicité la plus ciblée possible – donc la plus « efficace » possible commercialement parlant. Par exemple, si vous êtes abonné·e à une page ou un compte d’un bar LGBT et que vous « likez » des posts de la Marche des Fiertés, le réseau social pourra commencer à déduire votre orientation sexuelle. Les réseaux sociaux commerciaux investissent beaucoup d’énergie, de recherche et développement dans ce domaine car c’est ce qui leur permet de satisfaire leurs vrais clients et sources de revenus : les annonceurs.
En théorie, en Europe, le règlement général sur la protection des données (RGPD) interdit de récupérer ces données sans le consentement libre de l’utilisateur·rice. En vertu ce de texte, un consentement est « libre » s’il est donné sans la menace d’être exposé·e à des « conséquences » négatives, comme de ne pas pouvoir accéder au service ou devoir payer pour y accéder. Ce règlement n’est pas respecté par la plupart des réseaux sociaux commerciaux. La grande majorité des utilisateur·rices, s’iels avaient le choix, refuseraient de donner les informations sur lesquelles reposent l’économie entière des entreprises concernées. C’est sur cette base qu’en 2018 La Quadrature du Net a déposé, avec 12 000 utilisateur·rices, des plaintes collectives contre les réseaux sociaux commerciaux Facebook et Linkedin. La procédure est encore en cours devant la CNIL irlandaise.
Le RGPD et la nécessité du consentement individuel ne sont donc pas suffisant·es en pratique pour lutter contre la surveillance commerciale. Ce règlement est très peu appliqué et ne propose qu’une solution individuelle, qui place l’utlisateur·rice devant un choix sans liberté : consentir à la publicité ou renoncer à utiliser le réseau social (donc se couper de ses contacts). Nous pensons, à l’inverse, que les réseaux sociaux et leur politique de modération et de fonctionnement doivent être gérés collectivement par les utilisateur·rices iels-mêmes. Autrement dit, il ne sert à rien d’essayer de réparer les réseaux sociaux commerciaux, il est préférable de s’organiser directement pour reprendre le pouvoir des communautés.
Si les réseaux sociaux étaient interopérables, les internautes pourraient déménager vers des réseaux sociaux non commerciaux, qui n’imposent pas de surveillance à leurs utilisateur·rices, sans pour autant perdre le contact avec leurs proches qui ont toujours un compte sur un réseau social commercial.
Modération, censure, espaces d’expression
Centralisation : régime de modération unique
Il existe de nombreux régimes de modération qui répondent à des besoins différents. Tout le monde est confronté au quotidien, en dehors des réseaux sociaux, à une multitude de régimes. Par exemple, en présence d’enfants, il est souvent d’usage de surveiller son langage et de ne pas employer de vocabulaire grossier. En fonction du contexte professionnel ou amical dans lequel on se trouve, on adaptera son registre de mots. Cela ne représenterait donc aucun intérêt de vouloir unifier ces régimes d’expression et impliquerait même, au contraire, une perte de diversité culturelle et un blocage des perspectives d’évolution de la langue. La langue est interopérable dans le sens où elle fournit à la fois un certain nombre de standards permettant aux gens d’être compris entre eux sans empêcher pour autant que puissent exister des règles plus spécifiques dans certains groupes. Il peut s’agir de règles tacites ou de règles verbalisées par le groupe. Cette diversité de régimes d’expression coexiste sans que l’un d’entre eux soit intrinsèquement meilleur.
Nous avons expliqué plus haut comment le fonctionnement en silo des réseaux sociaux commerciaux leur permet de concentrer tous les pouvoirs et d’imposer unilatéralement un certain nombre de règles à l’ensemble de leurs utilisateur·rices. En pratique, cela revient à déposséder en partie les espaces de discussion de leur pouvoir de choisir un régime d’expression donné. Cette dépossession n’est, certes, pas entière, car un certain nombre de régimes d’expressions sont compatibles avec les règles fixées par le réseau social. En revanche, dès qu’il s’agit de vouloir publier un contenu interdit par le réseau social, même lorsque ce contenu n’est pas illégal, les utilisateur·rices se retrouvent bloqué·es dans leur expression, ou censuré·es.
Les questions de pouvoir d’expression ne sont pas spécifiques à l’usage des outils numériques mais générales à l’ensemble de la société. La liberté d’expression, la liberté d’opinion, la liberté de recevoir ou de communiquer des informations, la liberté de la presse ainsi que les limites de ces droits que sont la diffamation, l’injure ou le dénigrement entendent encadrer nos échanges. Ces droits et leurs limites sont souvent invoqués pour formuler deux critiques à l’égard de ces réseaux. La première provient d’utilisateur·rices frustré·es d’avoir vu des contenus légaux modérés, iels sont attaché·es à voir leur liberté d’expression assurée et voudraient que les réseaux sociaux commerciaux n’aient pas le droit de supprimer des contenus qui ne soient pas illégaux. La seconde provient d’utilisateur·rices sont confronté·es à des contenus qui les offensent et aimeraient ne plus l’être, même si ces contenus ne sont pas manifestement illégaux.
Ces deux critiques quant à l’excès ou au manque de censure de la part des réseaux sociaux sont caractéristiques du problème central : celui d’un régime de modération unique imposé par les plateformes.
Le choix d’une organisation centralisée, qui impose les même règles à une grande quantité de groupes et de personnes différentes, est assez absurde et insatisfaisant pour les utilisateur·rices des réseaux sociaux. Mais la centralisation engendre d’autres problèmes, que nous évoquons par la suite, davantage dus à la concentration des pouvoirs.
Censure passive due au modèle économique
La place privilégiée des contenus publicitaires
Les réseaux sociaux commerciaux ont cette particularité de ne pas seulement héberger le contenu de leurs utilisateur·rices, mais également celui de leurs clients : les annonceurs. Honneur aux payeurs, l’ensemble du réseau social est façonné dans un seul but : maximiser l’exposition au contenu publicitaire et renforcer son efficacité, c’est-à-dire conduire les utilisateur·rices à cliquer sur la publicité. Les données personnelles recueillies servent donc à dresser des profils d’utilisateur·rices pour leur adresser la publicité à laquelle iels seraient le plus sensibles, mais tout le reste du réseau social sert également cet objectif. Les algorithmes ont donc pour but de donner plus ou moins d’importance à tel ou tel contenu afin de le sur-visibiliser ou le sous-visibiliser, dans l’optique de pousser l’utilisateur·rice à rester le plus longtemps sur le réseau, et à être la ou le plus receptif·ve possible à la publicité.
Économie de l’attention, viralité boostée et censure par enterrement
L’ensemble de ces stratégies visant à pousser l’utilisateur·rice à rester longtemps sur la plateforme est couramment appelé « économie de l’attention ». En pratique, les algorithmes d’organisation des contenus repèrent ceux qui font polémique et qui provoquent un engagement spontané de la part des utilisateur·rices, afin de leur donner une place privilégiée en les faisant apparaître plus haut dans le flux de l’internaute ou dans les résultats de recherche, voire en envoyant une notification à l’utilisateur·rice. L’espace d’expression étant limité, cette mise en avant de certains contenus conduit également à sous-visibiliser les autres : les contenus plus complexes, plus étayés, nécessitant plus d’investissement de la part du public et n’obéissant pas aux critères de création de contenus valorisés par les réseaux sociaux commerciaux sont moins souvent mis en avant et proposés à la lecture. Ils subissent alors une censure invisible, dite « censure par enterrement ».
Ces mécanismes renforcent l’addiction au réseau social et sont à l’origine de la viralité mondiale de certains contenus. Ils sont également à l’origine de la grande propagation de contenus problématiques. Les contenus qui entraînent beaucoup d’engagement de la part des internautes sont souvent des contenus clivants et choquants. C’est le cas des contenus racistes, du harcèlement, des fausses informations, des images d’actes de violence.
Ces contenus suscitent de l’engagement de toute part : celleux qui les soutiennent les partagent en masse, et celleux qui s’y opposent sont offusqué·es et les partagent en masse pour les dénoncer. En 2019, la tuerie de l’église de Christchurch en Nouvelle-Zélande a été filmée et diffusée en direct par son auteur sur Facebook. Elle a été massivement partagée par des personnes d’extrême droite. Facebook n’a pas bloqué ces images et, pire, leur a donné une viralité supplémentaire car, étant choquantes, elles ont suscité beaucoup d’engagement.
Malheureusement, quand il s’agit de lutter contre les effets délétères des stratégies commerciales des réseaux sociaux, le réflexe des États n’est jamais de remonter aux causes du problème. La solution proposée est toujours d’en passer par une loi de censure, imposant aux réseaux sociaux de supprimer tel ou tel type de contenus, validant ainsi la giga-structure centralisée des réseaux sociaux commerciaux, pourtant à la base du problème.
Censure active
Les réseaux sociaux commerciaux ayant un grand pouvoir sur leurs utilisateur·rices, il est intéressant de voir et de critiquer les décisions prises par les entreprises qui les possèdent. On peut penser par exemple à la volonté de Mark Zuckerberg de mener une politique « antisuicide » sur son réseau social (Facebook) reposant sur l’analyse automatisée des contenus et non un accompagnement humain, ou encore aux transformations qu’a subies Twitter après son rachat par Elon Musk en novembre 2022. On voit alors comment la volonté d’un seul homme ou d’une seule entreprise peut avoir des conséquences sur des millions de personnes. Mais il est plus intéressant encore de voir que la majorité des décisions qui sont prises viennent surtout d’autres forces extérieures à l’entreprise, et auxquelles les réseaux sociaux commerciaux doivent se plier pour conserver leur place hégémonique.
Le pouvoir des annonceurs
Le modèle économique basé sur la publicité motive les réseaux sociaux commerciaux à se modeler en fonction de celle-ci. Nous avons qualifié cette dynamique de « censure passive » car la censure n’en est qu’un effet secondaire. Mais il existe aussi une demande active de censure de la part des annonceurs, en particulier pour que leur publicité ne soit pas affichée à côté de certaines catégories de contenus. Récemment avec Twitter, des annonceurs se sont retirés en raison de la recrudescence de contenus d’extrême-droite. Cette pression possible des annonceurs sur les plateformes explique aussi pourquoi on retrouve souvent des règles de censure proscrivant la nudité. Cette influence n’est pas spécifique aux réseaux sociaux : partout où il y a un financement publicitaire, les annonceurs ont le pouvoir de retirer leur publicité (et donc leur financement) si leurs exigences en matière de censure ne sont pas respectées (la presse papier, également, est souvent tributaire du pouvoir de ses annonceurs).
Le pouvoir des États
Le pouvoir centralisé des réseaux sociaux commerciaux représente aussi une opportunité de pouvoir pour les États. Nous l’avons particulièrement vu durant ces cinq dernières années. Les volontés de censure des États viennent du constat d’un changement dans les dynamiques d’expression en ligne dont nous avons expliqué les causes (le caractère commercial des réseaux sociaux et leur caractère centralisé). Pour autant, le biais d’administration centralisée de l’État ou le manque de temps nécessaire à cette compréhension n’ont pas conduit les représentant·es politiques à vouloir remonter à la racine des problèmes. À chaque « problème » identifié — haine et harcèlement, contenus violents, fausses informations, etc — l’urgence les a toujours conduit à valider le pouvoir de l’instance centralisée des réseaux sociaux commerciaux en leur imposant de durcir leur modération, souvent dans des délais courts qui ne peuvent être respectés que par l’usage d’algorithmes de filtrage des contenus.
Le pouvoir de l’industrie culturelle
La création de contenus sur les réseaux sociaux est très prolifique et a apporté un renouveau dans les moyens d’expression et la production de contenus créatifs. Le vieux modèle de production d’œuvres culturelles, façonné lui aussi pour obéir à des impératifs économiques au détriment de l’écosystème créatif et des populations nécessitant un accès à la culture, n’a pas disparu pour autant. Sous la pression de l’industrie culturelle, les réseaux sociaux commerciaux — c’est particulièrement le cas de Youtube — ont mis en place des algorithmes pour censurer certains contenus qui ne respecteraient pas le droit d’auteur. L’industrie culturelle a par la suite, avec l’aide du législateur, réussi à imposer cette idée qu’il faudrait surveiller l’ensemble des contenus en ligne afin de repérer les œuvres « illégalement » partagées. Le fonctionnement de l’outil Content ID de Youtube, qui consiste à comparer les condensas (hash) de musiques et vidéos à une base de données de contenus protégés et, en cas de similitude, à bloquer le contenu a donc depuis été mis en place sur tous les grands réseaux sociaux commerciaux.
Centralisation et censure par algorithme
La très grande quantité de contenus que les réseaux sociaux commerciaux hébergent demande un lourd travail de modération. La motivation économique étant la raison première de leur existence, ils ont rapidement cherché à « rationaliser » la modération, à l’aide de la sous-traitance de ce travail à des « fermes de modérateurs » et à l’usage d’algorithmes de filtrage.
Les « fermes de modérateurs » sont des entreprises, souvent implantées dans des pays où les salaires sont très bas. Les conditions de travail y sont généralement très dures et les salarié·es sont exposé·es à une quantité phénoménale de contenus violents (aux conséquences psychiques lourdes sur les personnes) sortis de leur contexte (le contexte culturel variant d’un pays à l’autre, le contexte d’une publication serait de toute manière très difficile à appréhender). Leur travail sert à modérer les contenus des réseaux sociaux commerciaux et à entraîner des algorithmes dans le but d’automatiser la modération1Lire les travaux du sociologue Antonio Casilli sur les « travailleurs du clic » et la déconstruction du fantasme selon lequel l’intelligence artificielle remplacerait le travail humain. Casilli, Antonio. En attendant les robots – Enquête sur le travail du clic, Seuil, 2019.
Pour ces raisons, la modération par algorithme n’est pas souhaitable. Elle est en plus de cela largement fantasmée. Comme en témoigne l’exemple de la tuerie de Christchurch que nous présentions plus tôt : les algorithmes remplissent mal l’objectif de censure qui leur est donné et laissent passer des contenus qu’ils étaient censés censurer. Ces erreurs fonctionnent aussi dans l’autre sens : certains contenus qui ne devraient pas être censurés par l’algorithme le sont quand même. Diverses représentations d’œuvres d’art se sont ainsi retrouvées censurées, suscitant de vives polémique.
Le législateur, valide, encourage et va parfois jusqu’à imposer l’usage des algorithmes de filtrage en exigeant des délais très court aux retraits de contenus. La directive européenne sur le droit d’auteur et le règlement européen relatif à la prévention de la diffusion de « contenus à caractère terroriste » en ligne qui imposent l’usage de ces algorithmes semblent passer totalement à côté de la réalité de comment sont entraînés ces algorithmes et de leur soi-disant « efficacité ».
L’interopérabilité, et son objectif de décentralisation, permettrait de remettre en avant la modération humaine effectuée par des personnes concernées ayant un regard plus juste et contextualisé sur les contenus à modérer.
L’obligation d’interopérabilité des réseaux sociaux comme outil de leur régulation
L’interopérabilité des réseaux sociaux consiste à permettre à un·e utilisateur·rice inscrit·e sur une plateforme A de pouvoir communiquer avec celleux inscrit·es sur une plateforme B, et inversement, sans pour autant avoir besoin de compte sur cette deuxième plateforme. Un·e utilisateur·rice pourrait écrire à des personnes qui sont sur une autre plateforme et s’abonner à leurs fils d’actualités ou pages sans avoir besoin de compte chez les autres réseaux sociaux, donc sans accepter non plus leurs conditions générales d’utilisation et leur surveillance.
L’objectif principal de La Quadrature du Net lorsqu’elle demande au législateur de contraindre les plus gros réseaux commerciaux de devenir interopérables est de briser leurs silos afin que leurs utilisateur·rices puisse échapper à leur captivité et rejoindre d’autres réseaux. Le fait de briser ces silos a de nombreuses conséquences possibles, dont certaines nous semblent particulièrement désirables.
Casser les silos : ouvrir de nouveaux possibles
Comment cela fonctionne ? L’exemple du fédivers
Le fédivers (de l’anglais fediverse, mot-valise entre « fédération » et « univers ») est un grand réseau social permettant d’échanger des informations, des photos, des vidéos, de la musique, … Il est très différent des réseaux sociaux commerciaux dans sa conception, mais s’utilise de manière similaire au quotidien. Nous prenons cet exemple car il a connu un essor ces dernières années (notamment avec le logiciel Mastodon), mais il ne s’agit pas forcément pour autant de la meilleure solution technique : plusieurs voies sont en cours de développement et les choix techniques et standards choisis ont toujours des conséquences sur l’organisation des réseaux et sur les utilisateur·rices. L’avantage des protocoles ouverts comme ActivityPub (sur lequel se fonde le fédivers), ou encore Matrix, Solid, XMPP, Diaspora, etc., est qu’ils rendent possibles de créer des ponts entre eux, de « traduire » un protocole vers un autre2Souvent la mise en place de tel « bridge » n’est pas aussi efficace et fonctionnel que si le protocole utilisé était le même, mais cela permet tout de même de maintenir un lien entre eux.. Ces protocoles ont donc l’intérêt de faire fonctionner plusieurs réseaux sociaux comme un seul.
Dans le fédivers, tous les rôles que nous avons décrit plus haut sont gérés par des acteurs différents qui ont des noms différents : le réseau social s’appelle « fédivers », le protocole « ActivityPub », et les logiciels sont très nombreux (on vous en présente quelques uns plus bas). Cela peut donner une sensation de complexité pour les utilisateur·rices, mais c’est ce qui garantit l’ouverture du réseau, la possibilité d’en créer de nouvelles parties, et permet surtout la déconcentration des pouvoirs.
Dans le fédivers, on trouve par exemple des alternatives à Twitter : Mastodon est la plus connue, mais il existe aussi GNU social, Pleroma, Misskey et d’autres. Il y a Peertube, une alternative à Youtube, Plume, une alternative à Medium, Mobilizon qui permet d’organiser des événements (et remplace les événements Facebook), Pixelfed, qui permet de partager des images et se propose comme alternative à Instagram, Lemmy, une alternative aux sites-forums d’agrégation d’actualité comme Reddit, ou encore Funkwhale qui permet d’héberger et partager des fichiers audio et se propose en alternative à Deezer ou Spotify.
Notons la place importante de nos ami·es de Framasoft dans le développement de cet écosystème de logiciels libres, notamment à travers leur travail sur Mobilizon et Peertube ainsi que le rôle des CHATONS, collectif d’hébergeurs alternatifs qui hébergent et administrent de nombreuses instances de réseaux sociaux décentralisés3Cette liste de logiciels du fédivers est loin d’être exhaustive : il en existe bien d’autres, d’autant plus si on ajoute les logiciels utilisant d’autres protocoles interopérable qu’ActivityPub. Ces logiciels libres sont plus ou moins proches des logiciels privateurs desquels ils sont l’alternative et sont dans des états de développement plus moins avancés..
Le fédivers fonctionne sur le principe de fédération : pour faire partie du réseau, il faut créer ou rejoindre une instance. Une instance est une version installée sur un serveur d’un logiciel qui communique avec ActivityPub. N’importe qui peut donc créer une instance. La Quadrature du Net a par exemple une instance Mastodon, mamot.fr.
Voici un schéma d’une instance Mastodon. Contrairement aux réseaux sociaux commerciaux, on peut y accéder via des clients différents :
Contrairement aux réseaux sociaux commerciaux, plusieurs instances Mastodon peuvent se fédérer et permettre à leurs utilisateur·rices de communiquer entre elles tout en ayant des règles de modération différentes. Mais il y a également une nouveauté supplémentaire : différents logiciels, à partir du moment où ils sont basés sur ActivityPub, peuvent communiquer entre eux même si leurs usages sont différents. Ainsi, une personne avec un compte sur une instance Mastodon (dont l’usage est du micro-blogging) peut s’abonner à un compte PixelFed (partage d’images) ou bien commenter des vidéos hébergées sur une instance Peertube (partage de vidéos).
Nombreux·ses sont les utilisateur·rices qui souffrent de la démultiplication des comptes sur les messageries et les réseaux sociaux. L’interopérabilité pourrait devenir une solution permettant à chaque utilisateur·rices d’avoir des comptes uniquement sur les services qui l’intéressent tout en ayant la possibilité de communiquer avec quelqu’un ayant un compte sur n’importe quel autre service interopérable.
Régulation de l’expression par la décentralisation
La première étape pour transformer l’écosystème des réseaux sociaux passe donc par la possibilité pour les utilisateur·rices de se diriger vers les alternatives existantes, qui leur montreront ce que donnent des logiques de modération différentes de celles des réseaux sociaux commerciaux. Les logiciels de réseaux sociaux existants utilisant des protocoles interopérables proposent déjà des services qui permettent aux utilisateur·rices de s’extraire de la surveillance et de l’organisation des contenus au service de la publicité, de choisir parmi une multitude de régimes de modération différents, et même d’en créer de nouveaux.
On peut d’ores et déjà observer la différence, en termes de diffusion des contenus, qu’apporte le caractère décentralisé des politiques de modération, via une comparaison entre Mastodon et Twitter. Sur Mastodon, la modération est effectuée à l’échelle des instances (et donc de chaque serveur sur lequel est installée le logiciel Mastodon). Elle est faite par des personnes humaines, se référant aux règles de modération établies par l’instance en question. Les contenus problématiques ne bénéficient pas d’une viralité boostée comme sur Twitter ; au contraire, leur viralité est même plutôt freinée par les décisions de modération de chaque instance au fur et à mesure que les contenus atteignent différentes instances en étant partagés par des utilisateur·rices.
Ce système de modération est bien plus fin que la modération par algorithmes car les personnes humaines qui modèrent chaque instance ont une meilleure compréhension du contexte et se réfèrent à des règles collectives correspondant à l’espace d’expression dont elles sont les actrices. Par ailleurs, la décision de modérer ou non un contenu est beaucoup moins lourde de conséquences car elle n’entraîne pas pour tout le monde une interdiction d’accès au contenu : seule l’instance hébergeant le compte qui a posté le contenu peut le supprimer complètement. Une instance peut donc modérer un contenu chez elle, sans que cela n’impacte la manière dont le contenu sera vu sur les autres instances. Il n’y a donc pas de censure hégémonique. De cette manière, la logique décentralisée prend bien plus en compte la complexité du monde des espaces d’expression : elle accepte que la validité d’un propos ne soit pas binaire et dépende de l’espace où il est exprimé et des règles que celui-ci s’est données.
De nouveaux usages possibles grâce à l’interopérabilité
Ces initiatives sont pour la plupart en cours de développement et beaucoup de critiques peuvent leur être faites. Pour reprendre l’exemple précédent de la comparaison entre Mastodon et Twitter, de nombreux problèmes subsistent : Mastodon étant très largement inspiré de Twitter, il en copie le fonctionnement en favorisant par défaut les contenus publics, en étant construit comme une grande arène uniquement constituée de comptes d’individus, en valorisant le sentiment de récompense rattaché aux outils de mesure de la « performance d’un contenu » (les partages et les favoris), etc. Le fonctionnement par instance maintient corrélées les décisions de modération et la question de l’hébergement : les personnes ayant la capacité technique d’héberger une instance ont plus de pouvoir que les personnes qui n’ont pas cette capacité technique puisqu’elles en seront la plupart du temps administratrices.
Les critiques et pistes d’amélioration sont nombreuses et déjà très investies par l’écosystème de développeur·euses et d’utilisateur·rices des réseaux sociaux décentralisés. Parmi les réflexions en cours, celles s’intéressant aux modes de décisions collectives sont particulièrement intéressantes. Il y a un fort enjeu pour les groupes à avoir des outils en ligne qui leur permettent de s’organiser aussi librement qu’ils le souhaitent.
Ainsi, le protocole Scuttlebut propose un fonctionnement entièrement basé sur l’auto-hébergement et le pair-à-pair : les contenus sont hébergés directement par les utilisateur·rices et circulent de manière chiffrée au sein du réseau sur la logique du bouche-à-oreilles. Comme dans des discussions entre ami·es : on ne peut savoir ce qu’a dit quelqu’un que si quelqu’un d’autre nous le répète, le tout restant privé.
De même, Bonfire est un logiciel de réseau social basé sur ActivityPub qui permet de faire du microblogging. Il permet de reproduire les usages de type « Twitter », comme les alternatives que nous avons précédemment mentionnées, mais tente aussi de proposer de nouvelles fonctionnalités comme la possibilité de faire exister des logiques de groupes ou encore d’avoir une interface adaptable à différents usages.
Enfin, on soulignera les travaux de l’association Technostructures, qui formule plusieurs critiques à l’égard du protocole ActivityPub : le lien indissociable entre hébergement de l’instance et pouvoir de modération et le caractère public par défaut des contenus. C’est sur ce constat qu’elle développe Posca, un réseau social qui n’est pas basé sur le protocole ActivityPub mais sur le protocole Matrix (tout en proposant tout de même la fédération avec le fédivers via un pont). L’usage du protocole Matrix apporte aussi l’avantage que les échanges sont chiffrés.
Un autre enjeu est celui de l’avenir des réseaux sociaux. Les vieux réseaux sociaux commerciaux semblent depuis longtemps s’être figés. Parce qu’ils n’ont plus besoin d’attirer les utilisateur·rices avec de nouveaux usages intéressants depuis qu’ils les ont rendus captif·ves, on n’y voit quasiment plus rien de nouveau. Les quelques nouveautés ne servent que l’objectif économique des entreprises, comme la mise en avant par Meta de la réalité virtuelle à travers son idée de Metaverse qui répondait à une logique de création d’un nouveau marché (sur lequel Meta aurait eu un monopole grâce à son fonctionnement en silo) et s’est écroulée car ne répondant à aucun usage des utilisateur·rices. Il y a pourtant de nombreuses pistes à explorer pour proposer des usages réellement utiles aux groupes et aux personnes qui cherchent le bon moyen de communiquer. Promouvoir l’interopérabilité, c’est aussi rouvrir la question des usages médiatiques du Web et de leur devenir.
Forcer l’interopérabilité : stratégies politiques et juridiques
Il ne faut bien évidemment pas compter sur les réseaux sociaux commerciaux pour être interopérables de leur plein gré. La Quadrature du Net demande donc, depuis 2019, que soit instaurée dans le droit une obligation d’interopérabilité des grands réseaux sociaux.
Le refus du législateur jusqu’à présent d’instaurer une obligation d’interopérabilité
En France, la députée Laetitia Avia (LREM) a fait voté en 2020 une proposition de loi qui, sous couvert de lutte contre la haine en ligne, instaurait un gigantesque dispositif de censure obligatoire et arbitraire. Lors des débats parlementaires, La Quadrature a rappelé qu’il existe une autre manière de réguler les plateformes et de lutter contre la haine en ligne, sans passer par la censure, grâce à l’obligation d’interopérabilité afin de permettre aux internautes de quitter une plateforme toxique. Ainsi, en 2019, plus soixante-dix organisations, aux côtés de La Quadrature, demandaient au législateur d’obliger les grands réseaux sociaux commerciaux à être interopérables. Le choix du législateur a été d’ignorer cet appel, de rester dans une vision de régulation par la censure, et cette loi est aujourd’hui tombée dans les oubliettes de la République depuis que le Conseil constitutionnel l’a quasiment intégralement déclarée contraire à la Constitution.
Lorsque l’Union européenne a voulu réformer son cadre juridique sur le numérique avec le Digital Services Act (règlement sur les services numériques, ou DSA) et le Digital Markets Act (règlement sur les marchés numériques, ou DMA), de nombreuses associations de défense des libertés, dont La Quadrature, EDRi, ARTICLE 19, ou encore l’Electronic Frontier Foundation ont demandé à ce qu’une obligation d’interopérabilité des réseaux sociaux soit inscrite dans ces textes législatifs : l’Union européenne avait enfin l’occasion d’innover dans sa manière de réguler les géants du net. Le Parlement européen a été réceptif à cet appel : la version du DMA votée par le Parlement européen comportait une obligation d’interopérabilité des grands réseaux sociaux. Mais c’était sans compter sur les efforts de la France et de Cédric O, alors secrétaire d’État au numérique. Lors des négociations sur le DMA, la France, alors présidente du Conseil (l’autre organe législatif de l’UE à côté du Parlement européen), a obtenu, à la toute fin des négociations, le retrait de cette obligation d’interopérabilité.
Enfin, récemment, le gouvernement français a présenté en mai 2023 un projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN ») dont l’objectif est, entre autres, de réguler les plateformes en ligne. Là encore, de la même manière que la loi Avia, le gouvernement a préféré la solution de la censure à celle de l’interopérabilité des réseaux sociaux, grande absente. Et ici encore, alors que des député·es de gauche et du centre avaient proposé d’instaurer une forme d’obligation d’interopérabilité, le gouvernement s’y opposa. La raison de son refus ? Nous ne la connaîtrons pas : le ministre du numérique Jean-Noël Barraut n’a pas pris la parole pour s’expliquer, se contentant d’un lapidaire « Défavorable », et la majorité présidentielle suivit sagement l’avis négatif du ministre pour rejeter les amendements proposés.
Un rapport de force entre grandes plateformes et États d’une part, et société civile d’autre part
Alors que l’obligation d’interopérabilité des réseaux sociaux aurait pu devenir une réalité si la France et Cédric O n’avaient pas autant bataillé contre, les déclarations de ce dernier éclairent assez bien le rapport de force qui se joue aujourd’hui.
Dès 2019 en effet, Cédric O se montrait très réticent à l’idée d’obliger les grands réseaux sociaux à être interopérables. Devant la commissions des lois de l’Assemblée nationale, il regrettait le caractère « excessivement agressif pour le modèle économique des grandes plateformes » d’une obligation d’interopérabilité. Autrement dit, le secrétaire d’État a préféré sacrifier les libertés publiques et la possibilité d’explorer de nouvelles manières de s’exprimer en ligne sur l’autel des intérêts économiques des grandes plateformes.
Il y a donc un véritable rapport de force aujourd’hui autour de la question de l’obligation d’interopérabilité des réseaux sociaux, où grandes plateformes et États travaillent de concert. Meta, notamment, n’a pas hésité à critiquer l’interopérabilité pour ses risques – exagérés, nous revenons dessus plus bas – en termes de vie privée. Or, en juillet 2020, Facebook et Snapchat réussissaient à s’afficher aux côtés du Conseil national du numérique (CNNum) à l’occasion d’une table-ronde sur l’interopérabilité des réseaux sociaux et de la publication d’un rapport de l’institution très critique sur l’interopérabilité.
L’urgence à obliger les réseaux sociaux commerciaux à être interopérables
Il est particulièrement important d’agir et de faire en sorte que cette obligation d’interopérabilité des réseaux sociaux arrive vite, parce que de leur côté, les grands réseaux sociaux n’attendent pas. Reconnaissons un point à Cédric O lorsqu’il s’opposait pendant les débats sur la loi Avia à une telle obligation : elle remettra drastiquement en cause le modèle économique actuel des grands réseaux sociaux qui n’est possible, nous l’expliquions plus haut, que grâce à leur position hégémonique. Ces derniers n’investiront le champ de l’interopérabilité que s’ils y ont quelque chose à gagner.
Or, c’est précisément ce que voudrait faire Meta : lancer un réseau social interopérable sans attendre d’y être contraint par le législateur. L’entreprise a en effet annoncé à l’été 2023 que son nouveau réseau de microblogging, Threads, serait interopérable avec le reste du fédivers grâce au support du protocole ActivityPub. Bonne nouvelle ? Non, comme nous l’expliquions à l’époque. Meta profite de l’absence d’obligation d’être interopérable, donc de l’absence de régulation de ce domaine, pour devenir le plus gros acteur et ainsi, pouvoir peser sur les choix techniques du fédivers et du protocole ActivityPub.
En effet, aujourd’hui, parce qu’aucun réseau social n’a l’obligation d’être interopérable, le domaine de l’interopérabilité des réseaux sociaux n’est pas régulé. Cela fonctionne à peu près correctement lorsque l’écosystème des réseaux sociaux interopérables est composé de petits acteurs, qui ne cherchent pas le profit, donc qui ne voient pas le fédivers comme un marché à conquérir et qui ne cherchent pas à le canibaliser. Mais cet équilibre serait radicalement modifié avec l’arrivée d’une entreprise comme Meta : non seulement en raison de l’objectif commercial de Meta, mais également en raison du nombre d’utilisateur·rices qu’elles représenterait et du pouvoir d’influence que cela lui conférerait (les plus grosses instances Mastodon ont quelques centaines de milliers d’utilisateur·rices quand Facebook en a plusieurs milliards).
C’est pour cette raison qu’il est nécessaire que l’obligation d’interopérabilité s’accompagne d’une régulation de ce secteur. Aujourd’hui, même si la question de la nature de la régulation est ouverte, La Quadrature du Net estime, à défaut de meilleure solution, que celle-ci devrait prendre la forme d’un régulateur indépendant étatique, comme c’est le cas avec la régulation des télécoms et l’obligation de neutralité du net. En France, ce serait l’ARCEP, déjà chargée de réguler les télécoms. Ce régulateur aurait non seulement le pouvoir d’imposer aux géants les protocoles à implémenter (afin qu’un Meta ne puisse pas inventer son propre protocole fermé et ne l’ouvrir que partiellement pour garder le contrôle sur son évolution), mais pourrait également, avec des sanctions dissuasives, punir les réseaux sociaux commerciaux qui ne se plieraient pas à cette obligation (par exemple si un réseau social voulait se refermer après avoir capté une partie de la communauté, comme ce qu’il s’est passé avec Google et GTalk).
La proposition législative de La Quadrature
La Quadrature du Net a proposé à des député·es, à l’occasion du projet de loi SREN, d’instaurer une obligation d’interopérabilité par voie d’amendement. Deux amendements leur ont été proposés, qui peuvent être redéposés clé-en-main à l’occasion d’un futur véhicule législatif, voire être transformés en proposition de loi.
Le premier amendement vise à instaurer une véritable obligation d’interopérabilité. Il repose sur les définitions et seuils européen·nes et s’inspire de la proposition du Parlement européen d’instaurer une telle obligation dans le DMA. Lorsqu’un réseau social est un « contrôleur d’accès » (c’est-à-dire une grande plateforme) au sens de l’article 3 du DMA, il devra être interopérable. Cette obligation est contrôlée par l’ARCEP, qui voit ses pouvoirs de régulation et de sanction étendus à la question de l’interopérabilité.
Le deuxième amendement est un amendement de repli. Il n’instaure pas d’obligation d’interopérabilité, mais régule les plateformes qui, comme Meta, voudraient cannibaliser le fédivers. Cet amendement de repli repose sur les mêmes définitions du DMA, mais ne prévoit d’obligation de respecter les règles de l’ARCEP que si le réseau social commercial appartient à un « contrôleur d’accès » et est interopérable.
Prévoir les impacts de l’interopérabilité
Nous avons évoqué de nombreuses formes que peuvent prendre les réseaux sociaux grâce à l’interopérabilité, à travers les initiatives existantes : en reprenant certaines logiques des réseaux sociaux dominants dans une version décentralisée ou en proposant de nouvelles logiques de diffusion de l’information. On ne peut pas prévoir de manière certaine les dynamiques que provoqueraient une obligation d’interopérabilité. Toutefois, il est important d’envisager que cette obligation (ou la menace de la création d’une telle obligation) va provoquer des tentatives de « prise de marché » de la part du monde commercial.
Protocole ouvert = accès massif aux données ?
Pouvoir acceder aux informations et publications de nos proches sur les réseaux sociaux commerciaux, c’est aussi permettre aux personnes sur les réseaux sociaux commerciaux d’accèder aux informations et aux publications des personnes sur les réseaux sociaux non commerciaux qui ont une politique de gestions des données personnelles protectrice. Cela soulève donc la question suivante : l’interopérabilité risque-t-elle de donner une opportunité technique au réseaux sociaux commerciaux de récupérer également les informations issues des autres réseaux sociaux ? Bien sûr, cela serait parfaitement illégal, mais on ne peut pas faire confiance aux réseaux sociaux commerciaux pour respecter la loi, ils ne le font déjà pas.
Il est aujourd’hui déjà possible de collecter les informations publiquement accessibles sur un réseau social, en collectant les pages web qui contiennent les informations recherchées. Il est techniquement possible de faire une copie de toutes les pages publiques d’un réseau social pour analyser leur structure HTML et extraire le contenu (on appelle cela du scraping). Mais cette manière de faire est compliquée : il faut passer d’un contenu non-structuré (une page HTML) à un contenu structuré (l’information intéressante dans cette page HTML), ce qui n’est possible que par une analyse fine de la structure de la page HTML. Cette analyse est complexe mais les outils existent déjà ; c’est ce que fait par exemple l’administration fiscale française.
Or, l’intéropérabilité facilite la collecte par un acteur malveillant de données puisque le protocole servant à différentes instances pour communiquer entre elles (ActivityPub pour le fédivers) vise, précisément, à structurer les données. Mais cette facilitation technique de la collecte de données n’est pas le propre de l’interopérabilité : certains réseaux sociaux commerciaux proposent, parfois moyennant finances ou à des conditions strictes d’utilisation, des API (« application programming interface », ou « interface de programmation d’application ») qui permettent de structurer les données. Pour reprendre le cas de l’administration fiscale, celle-ci utilise ces API lorsqu’elle en a la possibilité et ne procède à du scraping que dans le cas où ces API ne sont pas disponibles.
Il est donc vrai que l’interopérabilité facilite le travail d’un acteur malveillant qui voudrait collecter des données. Mais il ne crée pas de nouveau risque à proprement parler, d’autant que ces outils de scraping sont largement à la portée des géants du Web.
Toutefois, ce débat – éminemment légitime – a pris de la place sur le fédivers lorsque l’entreprise Meta a annoncé la sortie de Threads, à terme basé sur le protocole ActivityPub donc pouvant communiquer avec d’autres instances du fédivers. Certain·es utilisateur·rices du fédivers ont notamment eu peur de voir leur données récupérées par Meta et de nombreuses instances ont même signé le « Fedipact », s’engageant à bloquer Threads.
En effet, une grande partie des utilisateur·rices du fédivers est particulièrement soucieuse aux questions de collecte de leur données personnelles. Nous ne pensons pas pour autant que cette crainte doive bloquer la possibilité de permettre aux personnes toujours captives des réseaux sociaux commerciaux de s’en echapper.
Décentraliser les espaces de discussions, c’est enlever du pouvoir aux États
Comme on l’a expliqué plus haut, l’interopérabilité a beaucoup d’avantages : pourquoi, alors, les États persistent-ils à vouloir maintenir des espaces de discussions centralisés au sein de quelques acteurs commerciaux ? Parce que cela répond à leur logique de recherche de pouvoir.
La régulation de l’expression en ligne est parsemé d’exemples où les États ont voulu accroître leur pouvoir. Il y a tout d’abord la question de la censure des expressions : avec le règlement européen « terroriste », il est possible pour une police de n’importe quel État de l’UE d’obliger le retrait d’un contenu, sans passer par un juge, qu’elle estimerait être à caractère terroriste. Avant les contenus terroristes, au début des années 2010, ce sont les contenus d’abus sur enfant qui ont, les premiers, été le prétexte pour ouvrir la boîte de Pandore de la censure administrative.
Or, il est beaucoup plus facile pour un État de discuter avec quelques acteurs commerciaux qui suivent des logiques de marchés et qui seront sensibles aux menaces économiques, qu’avec des collectifs informels, mouvants et difficilement palpables comme le fédivers en comporte. Les États ont donc intérêt à maintenir l’hégémonie des géants, puisqu’ils auront face à eux un petit nombre d’acteurs clairement identifiés.
Cette centralisation des réseaux sociaux permet de plus facilement faire pression sur eux pour censurer, y compris en dehors de tout cadre légal. Ainsi, à l’été 2023, lorsque des révoltes ont éclaté en France suite au meurtre par un policier d’un adolescent, la classe politique a ignoré les causes sociales de cette colère, et a préféré ressortir le vieux bouc émissaire des réseaux sociaux. Certains parlementaires et ministres, ainsi qu’Emannuel Macron, ont suggéré d’accentuer les obligations de censure s’imposant aux plateformes. Or, sans attendre une évolution législative, les réseaux sociaux commerciaux se sont s’exécuté. Ainsi, après une « convocation » par le ministère de l’intérieur, la responsable des affaires publiques de Snapchat, Sarah Bouchahoua (ancienne collaboratrice de Laetitia Avia), n’hésitait à révéler devant l’Assemblée nationale que, sur demande du gouvernement, le réseau social avait procédé au retrait de certains contenus. Une censure extralégale, qui repose sur une interprétation arbitraire et a maxima des conditions générales d’utilisation de la plateforme.
On voit bien le problème pour les États d’une généralisation des réseaux sociaux interopérables. Le ministre de l’intérieur ne pourra pas « convoquer » le fédivers. Ses décisions de censures, si elles sont illégitimes, seront d’un effet beaucoup plus réduit. Si une instance se voyait bloquée arbitrairement, ses utilisateur·rices pourraient migrer ailleurs.
Conclusion
Depuis 2019, date où nous avons commencé à expliquer aux parlementaires la nécessité de prévoir dans la loi une obligation d’interopérabilité, nos constats sur les dangers des pratiques hégémoniques des réseaux sociaux commerciaux n’ont pas bougé. Ce qui a évolué en revanche, c’est la volonté croissante des internautes de s’en libérer. Nous avons ainsi vu s’enchaîner les vagues de migration d’utilisateur·rices vers les alternatives. L’Internet libre aussi a bougé et foisonne de nouvelles initiatives porteuses d’idées à même de réellement réinventer le monde des réseaux sociaux. Nous avons également vu apparaître des stratégies d’interopérabilité adversarielle, c’est-à-dire des stratégies pour libérer de force les contenus présents sur les réseaux sociaux commerciaux et les rendre accessibles depuis d’autres services.
Malheureusement, nous avons aussi assisté à un enchaînement de lois de censure, cherchant à « réparer » les problèmes des réseaux sociaux tout en les confortant dans leur centralisation et leur hégémonie. L’interopérabilité devient une urgence.
Ce n’est pas la première fois que nos droits à communiquer et à partager des informations sont remis en question par la position hégémonique d’intermédiaires techniques à des fins commerciales. Dans les années 2010, les fournisseurs d’accès Internet ont cherché à tirer plus de profit de leur position en tentant de filtrer ou de ralentir l’accès à certains sites. Pour assurer un accès à Internet sans restriction de leur part, nous avons érigé la neutralité du net en principe fondamental d’Internet. Aujourd’hui face à la surveillance, la censure, les régimes de modération uniques et unilatéraux nous devons tous·tes ensemble pousser le principe d’interopérabilité et le rendre obligatoire pour les réseaux sociaux hégémoniques.
Nous plaçons la promotion l’interopérabilité des réseaux sociaux dans nos principaux combats pour l’année 2024. Ce principe est encore bien trop méconnu du grand public et une adhésion massives des populations faciliterait son insertion dans un texte de loi. Parlez donc de l’interopérabilité autour de vous !
Et pour soutenir La Quadrature du Net, n’hésitez pas à nous faire un don.
Lire les travaux du sociologue Antonio Casilli sur les « travailleurs du clic » et la déconstruction du fantasme selon lequel l’intelligence artificielle remplacerait le travail humain. Casilli, Antonio. En attendant les robots – Enquête sur le travail du clic, Seuil, 2019
Souvent la mise en place de tel « bridge » n’est pas aussi efficace et fonctionnel que si le protocole utilisé était le même, mais cela permet tout de même de maintenir un lien entre eux.
Cette liste de logiciels du fédivers est loin d’être exhaustive : il en existe bien d’autres, d’autant plus si on ajoute les logiciels utilisant d’autres protocoles interopérable qu’ActivityPub. Ces logiciels libres sont plus ou moins proches des logiciels privateurs desquels ils sont l’alternative et sont dans des états de développement plus moins avancés.
";s:7:"dateiso";s:15:"20231204_144516";}s:15:"20231201_171527";a:7:{s:5:"title";s:32:"QSPTAG #299 — 1 décembre 2023";s:4:"link";s:67:"https://www.laquadrature.net/2023/12/01/qsptag-299-1-decembre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22359";s:7:"pubDate";s:31:"Fri, 01 Dec 2023 16:15:27 +0000";s:11:"description";s:248:"Algorithmes de suspicion de la CAF : la preuve par les faits
C’est une enquête qui a duré 18 mois. Dès avril 2022, conjointement avec le collectif Changer de Cap, nous demandions l’arrêt des pratiques discriminatoires de…";s:7:"content";s:11906:"
Algorithmes de suspicion de la CAF : la preuve par les faits
C’est une enquête qui a duré 18 mois. Dès avril 2022, conjointement avec le collectif Changer de Cap, nous demandions l’arrêt des pratiques discriminatoires de la Caisse d’allocations familiales (CAF), qui utilise un algorithme pour attribuer un « score de suspicion » aux bénéficiaires des aides sociales, pour détecter les personnes les plus susceptibles de percevoir des sommes indues. Sous prétexte de lutter contre la « fraude sociale » — une ambition très populaire dans l’idéologie de la chasse à « l’assistanat » — fraude réelle dont toutes les études au sein même des agences de l’État ont depuis longtemps démontré qu’elle est majoritairement une fraude aux cotisations de la part des employeurs notamment, il s’agit avec cet algorithme de débusquer plutôt les bénéficiaires qui, du fait de la complexité des règles relatives aux minima sociaux, auraient touché des sommes plus importantes que celles à quoi ils et elles auraient droit.
Le « bon sens » tel qu’il s’exprime sur les réseaux sociaux, et nous avons pu le constater à chaque publication de nos articles, ne trouve pas d’inconvénient à ce procédé : « Il faut bien attraper les fraudeurs ! Vous préférez ne rien faire ? ». On peut discuter le principe, mais ce n’est pas le sujet. Le problème, comme souvent, est dans la manière de faire.
En pratique, la CAF dispose d’environ 1 000 types de données différents sur les allocataires et en utilise une quarantaine pour passer au crible la vie d’environ 13 millions de personnes. Leur vie personnelle et intime, sous prétexte de leur donner ou non de l’argent public, devient l’objet d’une analyse et d’un jugement, de fond en comble. Le logiciel mouline cette masse d’informations avec son petit mécanisme et sort à la fin pour chaque bénéficiaire un « score de suspicion » compris entre 0 et 1. S’il se rapproche de 1, le risque de fraude est considéré comme étant plus grand, et la personne concernée fera l’objet d’un contrôle humain par des agents soumis à une pression de rentabilité. En pratique, la sanction algorithmique touche d’abord les personnes les plus pauvres, soit que l’allocation retirée ou réduite représente une partie importante de leurs revenus de survie, soit qu’elle en représente la totalité.
Plus grave encore : nous avions l’intuition, après l’étude de plusieurs cas particuliers, que les critères qui faisaient augmenter le score de suspicion incluaient le fait d’être d’origine étrangère, de toucher le RSA, ou d’être une femme seule qui élève des enfants. Pour en avoir le cœur net, nous avions demandé à la CAF, par l’intermédiaire d’une « demande Cada », de publier son algorithme de calcul. La CAF a refusé autant qu’elle a pu de fournir le code-source logiciel, sous prétexte que sa publication permettrait aux « fraudeurs » de le contourner — peut-être en arrêtant fourbement d’être une femme noire au RSA, par exemple ?
Mais, faute d’avoir accès à la version actuelle, nous avons enfin obtenu la communication d’une ancienne version de cet algorithme de « scoring », et notre analyse est sans appel : oui, l’algo de flicage de la CAF pénalise, dans sa structure même et dans le poids qu’il donne aux critères d’évaluation, les personnes à l’emploi précaire, qui doivent changer de logement souvent et, de manière générale, qui ont des parcours de vie compliqués. Autrement dit, les personnes les plus précaires se retrouvent traquées et sanctionnées par une administration sociale. Nous demandons par conséquent l’interdiction de cette technologie numérique de contrôle social, qui cache sous la prétendue neutralité de la technique une politique sociale discriminatoire, dégradante et injuste.
Comme bon nombre d’associations, nous avons lancé il y a quinze jours notre campagne de soutien pour l’année qui vient. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent en 2024, principalement la promotion de l’interopérabilité des services Web, la lutte contre les algorithmes de contrôle social dans les administrations, la réflexion nécessaire autour du numérique dans le contexte de la crise écologique, et la défense du droit au chiffrement des communications.
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
2 décembre 2023 : le groupe Saccage 2024 appelle à une journée d’action contre les Jeux Olympiques de Paris 2024, notamment en raison des mesures de surveillance numérique prévues par la loi JO. Plus d’informations : https://saccage2024.noblogs.org/archives/2480.
8 décembre 2023 : Réunion d’information Technopolice à Rouen — à partir de 18h30, Maison des associations et la solidarité, 22 bis rue Dumont d’Urville, Rouen.
14 décembre 2023 : Causerie mensuelle du groupe Technopolice Marseille — à partir de 19h, Manifesten, 59 Rue Adolphe Thiers, Marseille.
14 décembre 2023 : Table ronde au festival OSINT à La Gaité Lyrique – à 11h, à La Gaité Lyrique, 259 rue Saint-Martin 75003 Paris. Plus d’informations sur https://www.gaite-lyrique.net/evenement/festival-osint
";s:7:"dateiso";s:15:"20231201_171527";}s:15:"20231127_132334";a:7:{s:5:"title";s:90:"Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable";s:4:"link";s:122:"https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais-indeniable/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22126";s:7:"pubDate";s:31:"Mon, 27 Nov 2023 12:23:34 +0000";s:11:"description";s:230:"Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap, et après avoir détaillé le fonctionnement de l’algorithme de…";s:7:"content";s:55153:"
Les détails techniques de l’algorithme (code, liste de variables et leurs pondérations) et de la méthodologie employée pour la construction de profils-types sont présentés dans cette annexe méthodologique.
Petit à petit, la lumière se fait sur un système de surveillance de masse particulièrement pernicieux2La CAF n’est pas la seule administration à utiliser ce type d’algorithmes, mais elle fut la première à le faire. Nous reviendrons bientôt sur une vision plus globale de l’utilisation de ce type d’algorithmes par les administrations sociales dans leur ensemble. : l’utilisation par la CAF d’un algorithme de notation des allocataires visant à prédire quel·les allocataires seraient (in)dignes de confiance et doivent être contrôlé·es.
Pour rappel, cet algorithme, construit à partir de l’analyse des centaines de données que la CAF détient sur chaque allocataire3Si l’algorithme lui-même n’utilise que quelques dizaines de variables pour calculer la note des allocataires, celles-ci sont sélectionnées après une phase dite d’« entraînement » mobilisant plus de 1000 informations par allocataire. Pour des détails techniques voir l’article de Pierre Collinet « Le datamining dans les caf : une réalité, des perspectives », écrit en 2013 et disponible ici. , assigne un « score de suspicion » à chaque allocataire. Ce score, mis à jour chaque premier du mois, est compris entre zéro et un. Plus il est proche de un, plus l’algorithme juge qu’un·e allocataire est suspect·e : un contrôle est déclenché lorsqu’il se rapproche de sa valeur maximale4Les contrôles à la CAF sont de trois types. Les contrôles automatisés sont des procédures de vérification des déclarations des allocataires (revenus, situation professionnelle..), organisés via à l’interconnexion des fichiers administratifs (impôts, pôle emploi…). Ce sont de loin les plus nombreux. Les contrôles sur pièces consistent en la demande de pièces justificatives supplémentaires à l’allocataire. Enfin les contrôles sur place sont les moins nombreux mais les plus intrusifs. Réalisé par un.e contrôleur.se de la CAF, ils consistent en un contrôle approfondi de la situation de l’allocataire. Ce sont ces derniers qui sont aujourd’hui en très grande majorité déclenchés par l’algorithme suite à une dégradation de la note d’un allocataire (Voir Vincent Dubois, « Contrôler les assistés », p.258). .
Lever l’opacité pour mettre fin à la bataille médiatique
Nos critiques portent tant sur la nature de cette surveillance prédictive aux accents dystopiques que sur le fait que l’algorithme cible délibérément les plus précaires5Voir avant tout le livre de Vincent Dubois publié en 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir le chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250. Voir aussi Dubois V., Paris M., Weill P-Edouard., 2016, Politique de contrôle et lutte contre la fraude dans la branche famille, Cnaf, Dossier d’études, n°183 disponible ici . Face à la montée de la contestation, les dirigeant·es de la CAF se sont réfugié·es derrière l’opacité entourant l’algorithme pour minimiser tant cet état de fait que leur responsabilité dans l’établissement d’une politique de contrôle délibérément discriminatoire. Un directeur de la CAF est allé jusqu’à avancer que « l’algorithme est neutre » et serait même « l’inverse d’une discrimination » puisque « nul ne peut expliquer pourquoi un dossier est ciblé »6Extrait de la réponse d’un directeur de la CAF aux critiques opposées par le Défenseur des Droits à l’utilisation de cet algorithme. .
C’est pourquoi nous avons bataillé de longs mois pour que la CAF nous donne accès au code source de l’algorithme, c’est à dire la « formule » utilisée par ses dirigeant·es pour noter les allocataires7La CAF nous avait initialement communiqué un code source « caviardé » dans lequel la quasi-totalité des noms de variables étaient masqués. Nous avons finalement obtenu le code de deux versions de l’algorithme. La première a été utilisée entre 2010 et 2014. La seconde entre 2014 et 2018. Six variables ont tout de même été occultées du modèle « 2010 » et 3 du modèle « 2014 ». . Nous espérons que sa publication mette un terme à ces contre-vérités afin, qu’enfin, puisse s’installer un débat autour des dérives politiques ayant amené une institution sociale à recourir à de telles pratiques.
L’algorithme de la honte…
La lecture du code source des deux modèles utilisés entre 2010 et 2018 — la CAF a refusé de nous transmettre la version actuelle de son algorithme — confirme tout d’abord l’ampleur du système de surveillance de détection des allocataires « suspect·es » mis en place par la CAF.
Situation familiale, professionnelle, financière, lieu de résidence, type et montants des prestations reçues, fréquence des connexions à l’espace web, délai depuis le dernier déplacement à l’accueil, nombre de mails échangés, délai depuis le dernier contrôle, nombre et types de déclarations : la liste de la quarantaine de paramètres pris en compte par l’algorithme, disponible ici, révèle le degré d’intrusion de la surveillance à l’oeuvre.
Elle s’attache à la fois aux données déclarées par un·e allocataire, à celles liées à la gestion de son dossier et celles concernant ses interactions, au sens large, avec la CAF. Chaque paramètre est enfin analysé selon un historique dont la durée est variable. Visant tant les allocataires que leurs proches, elle porte sur les plus de 32 millions de personnes, dont 13 millions d’enfants, vivant dans un foyer bénéficiant d’une prestation de la CAF.
Quant à la question du ciblage des plus précaires, la publication du code source vient donner la preuve définitive du caractère discriminant des critères retenus. Ainsi, parmi les variables augmentant le « score de suspicion », on trouve notamment :
Le fait de disposer de revenus faibles,
Le fait d’être au chômage,
Le fait d’être allocataire du RSA,
Le fait d’habiter dans un quartier « défavorisé »8Concernant la variable liée au lieu de résidence, cette dernière fait a priori partie des variables masquées dans le code reçu. Elle est toute fois mentionnées dans la réponse de la CAF à la CADA, ce pourquoi il nous paraît raisonnable de l’inclure ici. Voir notre annexe méthodologique pour une discussion détaillée de la formule. ,
Le fait de consacrer une partie importante de ses revenus à son loyer,
Le fait de ne pas avoir de travail ou de revenus stables.
Comble du cynisme, l’algorithme vise délibérément les personnes en situation de handicap : le fait de bénéficier de l’Allocation Adulte Handicapé (AAH) tout en travaillant est un des paramètres impactant le plus fortement, et à la hausse, le score d’un·e allocataire.
En un graphique
Bien entendu, ces facteurs sont corrélés et ne peuvent être considérés indépendamment les uns des autres. Il est ainsi probable qu’une personne aux faibles revenus ait connu des périodes de chômage ou bénéficie de minima sociaux etc…
Disposant tant des paramètres que de leurs pondérations, nous avons pu construire différents profils-types d’allocataires pour lesquels nous avons calculé les scores de suspicion9Pour ce faire, nous avons simulé les données nécessaires – une trentaine de variables – pour chaque « profil-type » puis utilisé l’algorithme pour calculer leur note. Pour plus de détails, voir notre annexe méthodologique. . Entre les différents profils-types, nous avons seulement fait varier les paramètres liées à la situation professionnelle, aux revenus, aux prestations reçues, à la situation maritale ou de handicap.
Nous tenons à préciser que pour réaliser ces simulations, nous devons faire de nombreuses hypothèses dont il est parfois difficile de savoir si elles sont justes ou non. Ainsi, les scores simulés ci-dessous sont donnés à titre indicatif seulement. Nos résultats sont toutefois cohérents avec les analyses de Vincent Dubois basées sur des statistiques agrégées10Le sur-ciblage des personnes en situation de handicap – bénéficiaires de l’AAH – ne concerne que celles disposant d’un travail. C’est ainsi que ces résultats sont compatibles avec les analyses du chapitre 10 du livre Contrôler les assistés de Vincent Dubois qui regroupent l’ensemble des personnes en situation de handicap. Voir notre annexe méthodologique pour une discussion détaillée de ce point. . Dans un souci de transparence, nous détaillons leur construction — et ses limites — dans une annexe méthodologique11Voir notamment une méthodologie alternative utilisée par LightHouse Reports dans son article sur Rotterdam pour lequel les journalistes disposaient non seulement de la formule mais aussi de données sur les personnes visées. Elle est disponible ici. .
Les profils-types correspondent tous à des foyers comprenant deux enfants à charge et sont censés correspondre à :
Une famille « aisée » aux revenus stables et élevés,
Une famille « modeste » dont les deux parents gagnent le SMIC,
Un parent isolé gagnant aussi le SMIC,
Une famille dont les deux parents sont bénéficiaires des minima sociaux,
Une famille dont un des parents est travailleur·se en situation de handicap : pour ce profil, nous simulons le score de la personne bénéficiant de l’AAH trimestrialisée.
Les résultats sont éclairants comme le montre le graphique ci-dessous. Les « scores de suspicion » des foyers les plus aisés sont bien plus faibles que ceux des foyers bénéficiant des minima sociaux ou de l’AAH trimestrialisée.
On observe également le ciblage des familles monoparentales, dont 80% sont des femmes12Voir la note de l’Insee disponible ici. . Nos simulations indiquent que ce ciblage se fait indirectement — la CAF ayant peut-être jugé que l’inclusion d’une variable « mère célibataire » était trop risquée politiquement — en intégrant des variables comme le revenu total du foyer et le nombre de mois en activité cumulés sur un an des responsables du foyer, dont la nature vient mécaniquement défavoriser les foyers ne comprenant pas deux parents13A revenus égaux, un parent seul gagne moins que deux parents. Quant au nombre de mois d’activité sur une année, il ne dépassera jamais 12 par an pour une famille monoparentale mais peut aller jusqu’à 24 pour un couple. Ce ciblage est particulièrement fort dans les mois qui suivent une séparation, ce type d’évènement dégradant fortement le score d’un·e allocataire. Voir nos analyses additionnelles en annexe méthodologique. .
Effets de seuil, discriminations et double peine
Il y a quelques mois, la CAF cherchait à minimiser la stigmatisation des plus précaires engendrée par son algorithme en expliquant que « les scores de risques les plus élevés » ne concernent pas « toujours les personnes les plus pauvres » car « le score de risque n’intègre pas comme seule donnée la situation financière »14C’est ce qu’elle a déjà fait dans son « Vrai/Faux » sur le datamining où elle expliquait que « les scores de risques les plus élevés » ne concernent pas « toujours les personnes les plus pauvres » car « le score de risque n’intègre pas comme seule donnée la situation financière ». . Nos analyses viennent démontrer à quel point ce raisonnement est fallacieux.
Ce que montre notre graphique c’est justement que les variables socio-économiques ont un poids prépondérant dans le calcul du score, désavantageant structurellement les personnes en situation de précarité. Ainsi, le risque d’être contrôlé suite à un événement considéré comme « facteur de risque » par l’algorithme – déménagement, séparation, décès – se révèle inexistant pour un allocataire aisé puisque son score est initialement proche de zéro. A l’inverse, pour un allocataire du RSA dont le score est déjà particulièrement élevé, le moindre de ces évènements risque de faire basculer son score au-delà du seuil à partir duquel un contrôle est déclenché.
Pire, la plupart des variables non financières sont en fait liées à des situations d’instabilité et d’écart à la norme – séparation récente, déménagements, changements de loyers multiples, modification répétée de l’activité professionnelle, perte de revenus, erreurs déclaratives, faible nombre de connexions web… – dont tout laisse à penser qu’elles sont elles-mêmes liées à des situations de précarité. A l’opposé de ce que veut faire croire la CAF, tout indique que cet algorithme fonctionne plutôt comme une « double peine » : il cible celles et et ceux qui, parmi les plus précaires, traversent une période particulièrement compliquée.
Clore le (faux) débat technique
La CAF ayant refusé de nous communiquer la version la plus récente de son algorithme, nous nous attendons à ce que ses dirigeant·es réagissent en avançant qu’iels disposent d’un nouveau modèle plus « équitable ». En anticipation, nous tenons à clarifier un point fondamental : il ne peut exister de modèle de l’algorithme qui ne cible pas les plus défavorisé·es, et plus largement celles et ceux qui s’écartent de la norme définie par ses concepteurs.
Comme nous l’expliquions ici de manière détaillée, si l’algorithme de la CAF a été promu au nom de la « lutte contre la fraude », il a en réalité été conçu pour détecter les « indus » (trop-perçus). Ce choix a été fait pour des questions de rentabilité : les indus sont plus nombreux et plus faciles à détecter que des cas de fraude dont la caractérisation nécessite, en théorie, de prouver une intention15Les témoignages collectés par Stop Contrôles ou Changer de Cap montrent que la nécessité de prouver l’intentionnalité pour qualifier un indu de fraude – dont les conséquences pour un•e allocataire sont plus lourdes – est très régulièrement bafouée. .
Or, ces indus ont pour cause principale des erreurs déclaratives involontaires, dont toutes les études montrent qu’elles se concentrent principalement sur les personnes aux minima sociaux et de manière plus générale sur les allocataires en difficulté. Cette concentration s’explique d’abord par le fait que ces prestations sont encadrées par des règles complexes — fruit des politiques successives de « lutte contre l’assistanat » — multipliant le risque d’erreurs possibles. Pour reprendre les termes d’un directeur de la lutte contre la fraude de la CNAF : « ce sont les prestations sociales elles-mêmes qui génèrent le risque […] ceci est d’autant plus vrai pour les prestations liées à la précarité […], très tributaires de la situation familiale, financière et professionnelle des bénéficiaires. »16Voir Daniel Buchet. 2006. « Du contrôle des risques à la maitrise des risques ». Disponible ici. .
Nul besoin donc de connaître le détail de la formule de l’algorithme pour prédire quelles populations seront ciblées car c’est l’objectif politique de l’algorithme — détecter les trop-perçus — qui le détermine. C’est pourquoi laisser s’installer un débat autour de l’inclusion de telle ou telle variable est un jeu de dupes statistiques. La CAF pourra toujours substituer à une variable jugée politiquement « sensible » d’autres critères jugés « acceptables » permettant d’aboutir au même résultat, comme elle semble déjà le faire pour les mères célibataires17Il serait ainsi relativement facile pour la CAF de supprimer la référence directe aux minima sociaux ou à l’AAH dans son algorithme en se limitant à l’utilisation de la variable « faits générateurs trimestriels ». Cette dernière ne concerne que les allocations nécessitant une déclaration de ressources trimestrielles : AAH trimestrielle, APL, RSA et prime d’activité. S’agissant du ciblage des allocataires du RSA et de l’AAH, la CAF pourrait ainsi prétendre, sans trop perdre de précision, avoir modifié son algorithme en ne retenant dans le calcul que cette variable « faits générateurs trimestriels » tout en continuant à cibler les personnes aux minima sociaux. .
Logiques policières, logiques gestionnaires
Dire cela, c’est enfin dépasser le débat technique et reconnaître que cet algorithme n’est que le reflet de la diffusion de logiques gestionnaires et policières au sein de nos administrations sociales au nom des politiques de « lutte contre la fraude ».
C’est en transformant les allocataires en « assisté·es », puis en risques pour la survie de notre système social que le discours de « lutte contre l’assistanat » a fait de leur contrôle un impératif de « bonne gestion »18Voir avant tout le livre de Vincent Dubois publié en 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir le chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250.. Qu’importe que toutes les estimations montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif.
Devenu objectif institutionnel, le contrôle doit être rationalisé. Le numérique devient alors l’outil privilégié de « la lutte contre la fraude sociale » par la capacité qu’il offre aux dirigeant·es de répondre aux injonctions de résultats tout en offrant un alibi technique quant aux pratiques de discrimination généralisée que leur tenue impose.
Ces logiques sont saillantes dans la réponse écrite par la CAF pour s’opposer à la transmission du code de son algorithme, avant d’y être contrainte par la Commission d’Accès aux Documents Administratifs (CADA). Elle assume ouvertement un discours policier en avançant comme principal argument que cette communication consisterait en une « atteinte à la sécurité publique » car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux ».
Lutter
L’Assurance maladie, l’Assurance vieillesse, les Mutualités Sociales Agricoles ou dans une moindre mesure Pôle Emploi : toutes utilisent ou développent des algorithmes en tout point similaires. À l’heure où ces pratiques de notation se généralisent, il apparaît nécessaire de penser une lutte à grande échelle.
C’est pourquoi nous avons décidé de faire de ces pratiques de contrôle algorithmique une priorité pour l’année à venir. Vous trouverez ici notre page dédiée à ce sujet, que nous alimenterons régulièrement.
La CAF n’est pas la seule administration à utiliser ce type d’algorithmes, mais elle fut la première à le faire. Nous reviendrons bientôt sur une vision plus globale de l’utilisation de ce type d’algorithmes par les administrations sociales dans leur ensemble.
Si l’algorithme lui-même n’utilise que quelques dizaines de variables pour calculer la note des allocataires, celles-ci sont sélectionnées après une phase dite d’« entraînement » mobilisant plus de 1000 informations par allocataire. Pour des détails techniques voir l’article de Pierre Collinet « Le datamining dans les caf : une réalité, des perspectives », écrit en 2013 et disponible ici.
Les contrôles à la CAF sont de trois types. Les contrôles automatisés sont des procédures de vérification des déclarations des allocataires (revenus, situation professionnelle..), organisés via à l’interconnexion des fichiers administratifs (impôts, pôle emploi…). Ce sont de loin les plus nombreux. Les contrôles sur pièces consistent en la demande de pièces justificatives supplémentaires à l’allocataire. Enfin les contrôles sur place sont les moins nombreux mais les plus intrusifs. Réalisé par un.e contrôleur.se de la CAF, ils consistent en un contrôle approfondi de la situation de l’allocataire. Ce sont ces derniers qui sont aujourd’hui en très grande majorité déclenchés par l’algorithme suite à une dégradation de la note d’un allocataire (Voir Vincent Dubois, « Contrôler les assistés », p.258).
Voir avant tout le livre de Vincent Dubois publié en 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir le chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250. Voir aussi Dubois V., Paris M., Weill P-Edouard., 2016, Politique de contrôle et lutte contre la fraude dans la branche famille, Cnaf, Dossier d’études, n°183 disponible ici
La CAF nous avait initialement communiqué un code source « caviardé » dans lequel la quasi-totalité des noms de variables étaient masqués. Nous avons finalement obtenu le code de deux versions de l’algorithme. La première a été utilisée entre 2010 et 2014. La seconde entre 2014 et 2018. Six variables ont tout de même été occultées du modèle « 2010 » et 3 du modèle « 2014 ».
Concernant la variable liée au lieu de résidence, cette dernière fait a priori partie des variables masquées dans le code reçu. Elle est toute fois mentionnées dans la réponse de la CAF à la CADA, ce pourquoi il nous paraît raisonnable de l’inclure ici. Voir notre annexe méthodologique pour une discussion détaillée de la formule.
Pour ce faire, nous avons simulé les données nécessaires – une trentaine de variables – pour chaque « profil-type » puis utilisé l’algorithme pour calculer leur note. Pour plus de détails, voir notre annexe méthodologique.
Le sur-ciblage des personnes en situation de handicap – bénéficiaires de l’AAH – ne concerne que celles disposant d’un travail. C’est ainsi que ces résultats sont compatibles avec les analyses du chapitre 10 du livre Contrôler les assistés de Vincent Dubois qui regroupent l’ensemble des personnes en situation de handicap. Voir notre annexe méthodologique pour une discussion détaillée de ce point.
Voir notamment une méthodologie alternative utilisée par LightHouse Reports dans son article sur Rotterdam pour lequel les journalistes disposaient non seulement de la formule mais aussi de données sur les personnes visées. Elle est disponible ici.
A revenus égaux, un parent seul gagne moins que deux parents. Quant au nombre de mois d’activité sur une année, il ne dépassera jamais 12 par an pour une famille monoparentale mais peut aller jusqu’à 24 pour un couple. Ce ciblage est particulièrement fort dans les mois qui suivent une séparation, ce type d’évènement dégradant fortement le score d’un·e allocataire. Voir nos analyses additionnelles en annexe méthodologique.
C’est ce qu’elle a déjà fait dans son « Vrai/Faux » sur le datamining où elle expliquait que « les scores de risques les plus élevés » ne concernent pas « toujours les personnes les plus pauvres » car « le score de risque n’intègre pas comme seule donnée la situation financière ».
Les témoignages collectés par Stop Contrôles ou Changer de Cap montrent que la nécessité de prouver l’intentionnalité pour qualifier un indu de fraude – dont les conséquences pour un•e allocataire sont plus lourdes – est très régulièrement bafouée.
Il serait ainsi relativement facile pour la CAF de supprimer la référence directe aux minima sociaux ou à l’AAH dans son algorithme en se limitant à l’utilisation de la variable « faits générateurs trimestriels ». Cette dernière ne concerne que les allocations nécessitant une déclaration de ressources trimestrielles : AAH trimestrielle, APL, RSA et prime d’activité. S’agissant du ciblage des allocataires du RSA et de l’AAH, la CAF pourrait ainsi prétendre, sans trop perdre de précision, avoir modifié son algorithme en ne retenant dans le calcul que cette variable « faits générateurs trimestriels » tout en continuant à cibler les personnes aux minima sociaux.
Voir avant tout le livre de Vincent Dubois publié en 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir le chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250.
";s:7:"dateiso";s:15:"20231127_132334";}s:15:"20231124_174012";a:7:{s:5:"title";s:32:"QSPTAG #298 — 24 novembre 2023";s:4:"link";s:68:"https://www.laquadrature.net/2023/11/24/qsptag-298-23-novembre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=22088";s:7:"pubDate";s:31:"Fri, 24 Nov 2023 16:40:12 +0000";s:11:"description";s:270:"Campagne de soutien 2024 : gros plan sur le Chiffrement
Comme bon nombre d’associations, vous le savez, nous avons lancé la semaine dernière notre campagne de soutien pour l’année qui vient. C’est pour nous l’occasion de présenter…";s:7:"content";s:8622:"
Campagne de soutien 2024 : gros plan sur le Chiffrement
Comme bon nombre d’associations, vous le savez, nous avons lancé la semaine dernière notre campagne de soutien pour l’année qui vient. C’est pour nous l’occasion de présenter les grands chantiers qui nous attendent en 2024, principalement la promotion de l’interopérabilité des services Web, la lutte contre les algorithmes de contrôle social dans les administrations, la réflexion nécessaire autour du numérique nécessaire dans le contexte de la crise écologique, et la défense du droit au chiffrement des communications.
Cette semaine, nos publications ont mis l’accent sur la défense du chiffrement. Vous pouvez retrouver l’ensemble de ces « fils » sur nos réseaux sociaux : ici la présentation générale de la problématique, ici la nécessité du chiffrement pour que les réseaux soient structurellement compatibles avec le droit fondamental à la vie privée, ici les risques que le règlement européen CSAR, surnommé « Chat Control », fait peser sur le chiffrement de bout en bout des messageries instantanées, ici le rappel des fantasmes du ministre de l’Intérieur selon qui le chiffrement des communications par les militant·es politiques couvre la prolifération des projets « clandestins » fomentés par « les extrêmes », et enfin ici nous racontons comment le chiffrement, dans la logique de la DGSI, est carrément devenu un élément à charge dans le procès des inculpé·es de l’affaire du « 8 décembre ».
Nous avons besoin de vous pour travailler en 2024 ! N’hésitez pas à faire un don de soutien à l’association, ou à faire connaître notre campagne de dons autour de vous. Merci pour votre aide !
Censure constitutionnelle des mouchards audio, mais la géolocalisation passe l’épreuve
Le 16 novembre dernier, le Conseil constitutionnel, après avoir examiné la loi de programmation et d’orientation du ministère de la justice (LOPJ), a censuré la disposition qui autorisait les services de renseignement et de police à transformer les objets connectés en « mouchards » en les activant à distance (avec des techniques d’intrusion), pour utiliser leur micro ou leur caméra en toute discrétion dans le cadre de leurs enquêtes.
L’Observatoire des Libertés et du Numérique (OLN), dont La Quadrature du Net fait partie, s’était prononcé contre cette légalisation de l’espionnage policier, mal bordée par des conditions trop faciles à élargir dans l’usage, une fois l’idée rendue acceptable et banalisée.
Aujourd’hui, l’OLN se réjouit donc de la censure des « mouchards » comme micros ou comme caméras à distance, tout en soulignant le gros défaut de cette censure : l’activation à distance des objets connectés pour géo-localiser leur propriétaire reste autorisée par la loi. Si cela paraît moins grave, alors la stratégie du « chiffon rouge » chère au gouvernement aura fonctionné encore une fois : introduire une mesure inacceptable pour camoufler une mesure tout aussi contestable mais moins scandaleuse. Vous ne voulez pas être légalement écouté·es par les services de renseignement ? D’accord, d’accord… Mais vous serez légalement localisé·es.
2 décembre 2023 : le groupe Saccage 2024 appelle à une journée d’action contre les Jeux Olympiques de Paris 2024, notamment en raison des mesures de surveillance numérique prévues par la loi JO. Plus d’informations : https://saccage2024.noblogs.org/archives/2480.
8 décembre 2023 : Réunion d’information Technopolice à Rouen — à partir de 18h30, Maison des associations et la solidarité, 22 bis rue Dumont d’Urville, Rouen.
14 décembre 2023 : Causerie mensuelle du groupe Technopolice Marseille — à partir de 19h, Manifesten, 59 Rue Adolphe Thiers, Marseille.
14 décembre 2023 : Table ronde au festival OSINT à La Gaité Lyrique – à 11h, à La Gaité Lyrique, 259 rue Saint-Martin 75003 Paris. Plus d’informations sur https://www.gaite-lyrique.net/evenement/festival-osint
";s:7:"dateiso";s:15:"20231124_174012";}s:15:"20231123_131029";a:7:{s:5:"title";s:71:"Censure de la surveillance par mouchard : l’OLN ne crie pas victoire";s:4:"link";s:106:"https://www.laquadrature.net/2023/11/23/censure-de-la-surveillance-par-mouchard-loln-ne-crie-pas-victoire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21959";s:7:"pubDate";s:31:"Thu, 23 Nov 2023 12:10:29 +0000";s:11:"description";s:220:" Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 23 novembre 2023.
Le 16 novembre 2023, le Conseil constitutionnel a rendu sa décision sur la loi de programmation de la justice en…";s:7:"content";s:6609:"
Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 23 novembre 2023.
Le 16 novembre 2023, le Conseil constitutionnel a rendu sa décision sur la loi de programmation de la justice en censurant une disposition relative à l’activation à distance des objets électroniques. Pour les organisations de l’Observatoire des libertés et du numérique (OLN) qui s’étaient fortement opposées à cette mesure, cette décision est plus que bienvenue. Pour autant, elle ne saurait constituer une victoire criante.
Il faut se souvenir des récentes décisions de ce même Conseil constitutionnel faisant peu cas du respect des libertés : validation de la vidéosurveillance algorithmique dans la loi JOP 2024, légalisation des drones, blanc-seing à l’assouplissement de la procédure pénale dans la LOPMI au nom d’une « efficacité opérationnelle »… Si l’on peut saluer le sursaut de la décision de la semaine dernière, il est difficile d’y déceler une volonté de mettre fin à la fuite en avant sécuritaire, tant cette institution l’a accompagnée ces dernières années. Pour caractériser une atteinte au droit à la vie privée, le Conseil retient qu’il existe un risque pour les tierces personnes étant dans le champ d’une éventuelle captation déclenchée par cette activation à distance du micro ou de la caméra. Si nous saluons l’établissement d’une telle limite, qui pourra servir d’argument pour d’autres types de surveillance, nous regrettons que le Conseil ne prenne jamais en compte le changement de paradigme philosophique et politique qu’implique la possibilité de transformation de tout objet numérique en mouchard de la police.
Cette absence dans le raisonnement s’illustre par la validation pure et simple de l’activation à distance des fonctions de géolocalisation de téléphone et autres objets connectés (voiture, balises airtag, montre etc) qui repose exactement sur le même procédé technique que le dispositif censuré : la compromission d’un périphérique, en y accédant directement ou par l’intermédiaire d’un logiciel espion pour en prendre le contrôle à distance. Or, une telle possibilité soulève de graves problèmes en termes de vie privée, de sécurité et d’intégrité des preuves. On le comprend, le caractère intrusif de cette technique, pourtant au cœur des scandales Pegasus et Predator Files, n’intéresse pas le Conseil.
Pour justifier cette nouvelle forme de surveillance, le gouvernement et ses soutiens ont répété que les services de renseignement seraient déjà autorisés à activer à distance les micros ou caméras de terminaux. Pourtant, la lecture de l’article L. 853-2 du code de la sécurité intérieure montre précisément l’inverse : ne peuvent être mis en œuvre par les services de renseignement que des dispositifs qui permettent d’accéder à des données qui « s’affichent sur un écran », telles qu’une personne les « introduit par saisie de caractère » ou « telles qu’elles sont reçues et émises par des périphériques. » Autrement dit, le droit actuel ne permet aux services de renseignement que d’enregistrer l’activité d’une personne sur un téléphone ou un ordinateur, mais en aucun cas d’activer à son insu une fonctionnalité supplémentaire comme un micro ou une caméra. Cette pratique, pourtant avancée pour justifier le bien-fondé de la mesure, semble donc illégale et doit être sérieusement questionnée.
De façon générale, on assiste à un essor toujours plus important des technologies de surveillance et à une banalisation de leurs usages par les services de police et de renseignement alors que, souvent, elles ne répondent à aucun cadre. Ces pratiques illégales se généralisent aussi bien dans les ministères que sur le terrain, et la licéité de ces outils n’est jamais une préoccupation de ceux qui les utilisent. Qu’il s’agisse de logiciels illégaux de surveillance algorithmique et reconnaissance faciale, de fichage sauvage ou ou encore d’exploitation de téléphone en garde à vue, l’impunité se répand, l’illégalité se banalise. Dans ce contexte et avec ces tendances lourdes, la décision du Conseil constitutionnel est salutaire mais nous apparaît malheureusement trop peu engageante pour y voir un avertissement fort contre la surveillance.
Organisations signataires membres de l’OLN : Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).
";s:7:"dateiso";s:15:"20231123_131029";}s:15:"20231117_181059";a:7:{s:5:"title";s:32:"QSPTAG #297 — 16 novembre 2023";s:4:"link";s:68:"https://www.laquadrature.net/2023/11/17/qsptag-297-16-novembre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21834";s:7:"pubDate";s:31:"Fri, 17 Nov 2023 17:10:59 +0000";s:11:"description";s:270:"Campagne 2024 : c’est le moment de soutenir La Quadrature !
Comme chaque fin d’année à l’approche de l’hiver, nous lançons notre campagne de soutien pour financer l’année qui vient. Si vous pouvez faire un don pour nous…";s:7:"content";s:21312:"
Campagne 2024 : c’est le moment de soutenir La Quadrature !
Comme chaque fin d’année à l’approche de l’hiver, nous lançons notre campagne de soutien pour financer l’année qui vient. Si vous pouvez faire un don pour nous aider à travailler en 2024, c’est maintenant, et c’est ici !
Pour nous, c’est bien sûr aussi un moment important pour réfléchir aux chantiers qui nous attendent, en plus de ceux qui nous occupent déjà beaucoup. Sans cesse il faut faire des choix, décider où mettre le temps et l’énergie qui ne sont pas illimitées. Alors on se donne une sorte de « feuille de route » pour garder le cap, sans s’interdire bien sûr de se consacrer aux surprises bonnes ou mauvaises de l’actualité quand elles se présenteront. Cette « feuille de route » est ici.
Nous porterons plus haut que jamais l’idée et la nécessité d’obliger les services web à l’interopérabilité, seul moyen de lutter contre la recentralisation du Web et la tyrannie de l’économie de l’attention. Nous lutterons autant que nécessaire contre les algorithmes utilisés par les administrations pour criminaliser et punir les bénéficiaires des services sociaux. Nous défendrons le droit au chiffrement des communications, attaqué de toutes parts par les gouvernements français et européens sous prétexte de lutter contre le terrorisme, au mépris du droit fondamental qu’est le secret des correspondances, vital pour les démocraties. Et enfin, nous réfléchirons à ce que le numérique fait au monde, non seulement selon les points de vues sociaux et politiques qui sont les nôtres depuis toujours, mais aussi du point de vue écologique, dans le contexte bien connu de la destruction de l’écosystème par les activités humaines. Quels usages faut-il promouvoir et lesquels abandonner ? Il nous semble que La Quadrature à quelque chose à en dire : « l’écologie sans la politique, c’est du jardinage », dit le dicton.
Nous aurons donc beaucoup à faire dans l’année qui vient. Alors si vous le pouvez, soutenez-nous ! Tous les dons sont les bienvenus, même les tout petits, et les dons mensuels même minimes auront toujours notre prédilection parce qu’ils nous permettent d’envisager le budget de l’année avec plus de sérénité. Merci pour tout ce que vous pourrez faire, et merci aussi de faire connaître cette campagne de soutien sur vos réseaux sociaux !
Révélation : la police nationale utilise de manière illégale les logiciels de VSA de la société Briefcam
C’est l’association Disclose qui a publié l’information après une enquête approfondie : la police nationale utilise en toute illégalité et en toute connaissance de cause les logiciels de la société Briefcam, qui appliquent un traitement algorithmique aux photos et aux flux de vidéosurveillance pour analyser les images et identifier des personnes par reconnaissance faciale.
Nous avons documenté depuis quelque temps l’utilisation de ce logiciel ou d’outils similaires par les polices municipales, mais nous n’avions pas de preuves concernant les pratiques de la police nationale. C’est aujourd’hui chose faite>. Nous rappelons dans un article de réaction à cette publication de Disclose les éléments juridiques qui posent l’illégalité du dispositif, et nous en appelons aussi à la CNIL, beaucoup trop conciliante jusqu’à présent avec les usages illégaux de la reconnaissance faciale et de logiciels d’analyse par les forces de police.
Une coalition d’associations européennes attaque le Règlement Terro en France
Le 8 novembre denier, six organisations européennes — La Quadrature du Net, Access Now, ARTICLE 19, European Center for Not-for-Profit Law, EDRi et Wikimedia France — ont déposé devant le Conseil d’État un recours contre le décret qui doit adapter dans le droit français les dispositions du « règlement Terro » européen (ou TERREG) adopté en 2021.
Mais en quoi ce contentieux français concerne-t-il nos partenaires européens ? C’est que ce recours en France est pour nous un point d’entrée : nous demandons au Conseil d’État de transmettre à la Cour de justice de l’Union européenne (CJUE) une « question préjudicielle » sur la validité du TERREG. Nous pensons que ce règlement, qui permet aux forces de police d’un pays de l’UE d’ordonner à un site web de bloquer dans un délai d’une heure (oui, une heure) tout contenu supposé être à caractère terroriste, contrevient au regard des droits fondamentaux protégés par le droit de l’UE.
La procédure durera plusieurs mois, avant que le gouvernement français produise sa réponse, et probablement plusieurs années avant que la CJUE ne rende sa décision. Mais comme nous rejetons les dispositions numériques du TERREG depuis sa première ébauche en 2018, on peut dire que La Quadrature a les idées longues. On suit l’affaire et on vous tiendra au courant !
8 décembre 2023 : Réunion d’information Technopolice à Rouen — à partir de 18h30, Maison des associations et la solidarité, 22 bis rue Dumont d’Urville, Rouen.
14 décembre 2023 : Causerie mensuelle du groupe Technopolice Marseille — à partir de 19h, Manifesten, 59 Rue Adolphe Thiers, Marseille.
";s:7:"dateiso";s:15:"20231117_181059";}s:15:"20231115_144027";a:7:{s:5:"title";s:29:"De nouveaux combats pour 2024";s:4:"link";s:70:"https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21750";s:7:"pubDate";s:31:"Wed, 15 Nov 2023 13:40:27 +0000";s:11:"description";s:235:"La Quadrature du Net défend depuis quinze ans les droits et les libertés fondamentales de toutes et tous à l’ère du numérique. Ces quinze années de combat n’auraient pas été possibles sans vous, merci beaucoup !…";s:7:"content";s:8677:"
La Quadrature du Net défend depuis quinze ans les droits et les libertés fondamentales de toutes et tous à l’ère du numérique. Ces quinze années de combat n’auraient pas été possibles sans vous, merci beaucoup ! Et nous avons besoin de vous pour continuer la lutte en 2024 !
Mais de nouvelles questions surgissent, de nouveaux fronts se réactivent, où nous sentons que nous pouvons jouer un rôle utile. On a vu les administrations publiques s’armer d’algorithmes dans la guerre aux pauvres et aux « fraudeurs », avec pour effet l’amplification des discriminations structurelles, le tout sous sous prétexte de modernité caricaturale, de pseudo-efficacité et de « dématérialisation ». On a vu la logique de la surveillance s’immiscer partout et s’étendre à tous les aspects de nos vies publiques et intimes. D’abord pour les besoins d’une surenchère publicitaire qui a transformé le Web en gigantesque galerie marchande, où chacune de nos curiosités, chacun de nos intérêts et chacune de nos relations amoureuse ou amicale devient l’enjeu d’une vente, d’un produit, ou d’un « service » toujours plus inutile et farfelu. Ensuite, et surtout, pour les besoins d’un pouvoir politique et étatique friand de fichage et toujours plus intrusif, beaucoup trop content d’exploiter nos innombrables traces numériques pour mieux nous surveiller, nous connaître, et anticiper nos comportements politiques et sociaux. Face à ces défis, nous voulons amplifier de nouveaux chantiers — sans pour autant oublier ceux sur lesquels nous travaillons déjà.
D’abord, nous continuerons de porter toujours plus loin et toujours plus haut (ça tombe bien, on entre dans une année olympique) l’idée d’un Web interopérable. L’Internet ouvert et horizontal des débuts, qui fut une réalité incontestable, s’est retrouvé ces quinze dernières années mis en « silos » par les grandes plateformes et les réseaux sociaux privés (Facebook, Twitter, Instagram bien sûr, mais aussi YouTube, etc.). Aujourd’hui, quitter un de ces réseaux c’est perdre les relations et les échanges qui sont tout le sel du Web. Alors que si les différents services sont interopérables, on peut déménager sans perdre de vue personne, et choisir l’environnement dans lequel on se sent libre de s’exprimer sans être soumis à l’hostilité qui fait vivre les plateformes et détruit le tissu des sociétés. Nous porterons avec entêtement cette idée simple, qui a déjà une réalité technique (dans le Fédivers par exemple), jusqu’à ce que les lois européennes et françaises en fassent un principe de base du Web et de l’Internet en général.
Nous allons aussi continuer notre travail d’enquête et de lutte contre les algorithmes de contrôle social, jusqu’à leur disparition. Aujourd’hui, des algos de « scoring » ou de profilage traquent les bénéficiaires des minima sociaux, que ce soit à la CAF, à Pôle Emploi ou ailleurs, pour transformer en enfer la vie des personnes les plus précaires, sous prétexte de lutter contre les abus. En réalité, ici comme ailleurs, l’outil numérique n’a servi qu’à introduire une surveillance très fine des vies les plus ordinaires pour contester les droits des personnes et criminaliser les comportements marginaux. Le numérique ne doit pas être l’instrument complaisant d’une politique sociale qui déresponsabilise la société dans son ensemble et déshumanise les personnes. Nous ferons tout pour que ces outils dangereux soient remplacés par une volonté d’humanité et le désir d’une société plus aimante et plus juste.
Ensuite, nous défendrons partout où il le faudra le droit au chiffrement des données et des communications. C’est une vieille lune des États, quels qu’ils soient : accéder aux correspondances des citoyens pour des raisons de police. Le « cabinet noir », c’était autrefois ce lieu secret métaphorique où la police lisait discrètement les lettres des opposants avant de les remettre en circulation. Alors que le numérique menace de rendre tout transparent aux yeux du pouvoir, le chiffrement des données a rétabli un peu de l’équilibre perdu entre le secret des correspondances et la prétention du « cabinet noir » à tout voir. Sans le chiffrement des communications, n’importe qui d’un peu déterminé peut accéder aux photos et aux blagues que vous échangez avec votre famille, aux échanges scientifiques inaboutis des chercheurs, aux discussions des groupes politiques ou syndicaux, etc. Le secret des communications est un des piliers de la démocratie bien tempérée : la transparence totale des opinions aux yeux de l’État est exactement la définition d’un régime policier. Pour mille raisons, dont le fait qu’il s’agit d’un droit fondamental, nous devons donc défendre notre droit au chiffrement et au secret contre tous les sophismes sécuritaires et policiers. Et plus les États voudront forcer ce droit au secret, plus nous aurons de raisons urgentes de le protéger.
Enfin, nous ne pouvons plus longtemps faire l’impasse sur les dangers immédiats et majeurs que notre mode de vie numérique fait collectivement peser sur les conditions de notre survie, et celle d’innombrables autres espèces. L’écosystème dont nous faisons partie craque de toutes parts, on le sait, on le voit, et la surproduction numérique a largement sa part dans ce désastre. Porté par le culte incontesté de la croissance et de la nouveauté permanente, le numérique entraîne avec lui une industrie colossale et polluante, qui détruit des territoires et des vies, pour alimenter notre ivresse d’écrans et de connectivité. Des mines de cobalt et de lithium jusqu’aux entrepôts des géants de la distribution mondiale, de la frénésie consumériste à l’économie de l’attention qui nous retient avec des procédés d’addiction, le numérique est aujourd’hui sans conteste un facteur de destruction autant que d’échanges, de liberté et de savoir. Il faut donc rendre au « digital » le poids de son corps physique, et à la « dématérialisation » sa matérialité, pour réfléchir aux outils et aux usages qui nous paraissent devoir être sauvés, préservés, cultivés ou inventés, et ceux auxquels ils nous faut renoncer.
Vaste programme ! Et on ne s’arrêtera pas à cela. Notre campagne Technopolice va connaître des rebondissements avec l’expérimentation prochaine de la vidéosurveillance algorithmique légalisée par la loi relative aux Jeux Olympiques. Nous voulons aussi participer de manière plus résolue à lutter contre la surveillance numérique croissante à laquelle font face les groupe militants. Enfin, nous envisageons d’ouvrir un front contre l’« intelligence artificielle », qui déferle partout sans qu’une résistance organisée puisse y faire face.
Tout cela pour vous dire à quel point votre soutien et vos dons seront précieux pour cette nouvelle année qui s’annonce !
";s:7:"dateiso";s:15:"20231115_144027";}s:15:"20231114_192347";a:7:{s:5:"title";s:94:"Vidéosurveillance algorithmique à la police nationale : des faits passibles du droit pénal";s:4:"link";s:135:"https://www.laquadrature.net/2023/11/14/videosurveillance-algorithmique-a-la-police-nationale-des-revelations-passibles-du-droit-penal/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21732";s:7:"pubDate";s:31:"Tue, 14 Nov 2023 18:23:47 +0000";s:11:"description";s:277:"Dans un article publié aujourd’hui, le média d’investigation Disclose révèle que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale a recouru au logiciel de l’entreprise israélienne Briefcam, qui permet…";s:7:"content";s:4282:"
Dans un article publié aujourd’hui, le média d’investigation Disclose révèle que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale a recouru au logiciel de l’entreprise israélienne Briefcam, qui permet d’automatiser l’analyse des images de vidéosurveillance. Cette solution comporte une option « reconnaissance faciale » qui serait, d’après Disclose, « activement utilisée ».
Cela fait désormais près de cinq ans qu’à travers la campagne Technopolice, La Quadrature du Net, en lien avec des collectifs partout dans le pays, documente l’usage illégal de la vidéosurveillance algorithmique (VSA) par les forces de police municipale. De fortes présomptions existaient quant à son utilisation par la police nationale. Nous l’évoquions d’ailleurs dans notre dossier sur la VSA publié lors de la campagne contre la loi sur les jeux olympiques et paralympiques (voir page 20). La confirmation faite aujourd’hui n’en est pas moins choquante. Non seulement compte tenu de l’échelle du déploiement de cette technologie, avec des licences Briefcam couvrant plusieurs départements. Mais aussi en raison des dissimulations dont ce marché public hautement sensible a fait l’objet de la part de hauts fonctionnaires et de responsables politiques.
Il faut se souvenir de Gérald Darmanin qui, l’an dernier en préparation des débats sur l’article 10 de la loi Jeux Olympiques, reconnaissait qu’il n’existait aucune base légale pour l’utilisation policière de ces technologies d’analyse automatisée. L’intelligence artificielle transforme radicalement l’économie politique de la vidéosurveillance, raison pour laquelle nous refusons la VSA. Même dans le cadre d’enquêtes judiciaires, l’État se devrait au minimum de prévoir une base juridique claire pour l’encadrer.
Tout aussi choquant est le sentiment d’impunité généralisé que révèle cette affaire. Les cadres de la Direction Générale de la Police Nationale, de même que les ministres successifs, ont sciemment organisé le secret par peur de la controverse, se sachant hors du droit.
Rappelons-le : « Le fait de collecter des données à caractère personnel par un moyen frauduleux, déloyal ou illicite est puni de cinq ans d’emprisonnement et de 300 000 euros d’amende. » (cf. art. 226-18 et -19 du code pénal). Par ailleurs, tout·e fonctionnaire est tenu·e de signaler sur le champ une infraction dont il ou elle aurait connaissance au procureur (article 40 du code de procédure pénale). Enfin, Disclose explique que pour financer le renouvellement des licences Briefcam, « la hiérarchie policière a pioché dans le « fonds concours drogue » ». Ce qui pourrait s’apparenter à du détournement de fonds publics.
Ces faits sont extrêmement graves. L’impuissance chronique à laquelle se condamnent les contre-pouvoirs institutionnels, de la CNIL à l’IGPN, est elle aussi symptomatique d’une crise systémique de l’État de droit. L’actualité donne d’ailleurs une nouvelle et triste illustration de cette coupable inaction : la CNIL s’est contentée d’un « rappel à l’ordre » à l’encontre de deux ministères après le détournement de fichiers et l’envoi au printemps dernier de 2 millions de messages de propagande destinés à manipuler l’opinion au sujet de la réforme des retraites.
";s:7:"dateiso";s:15:"20231114_192347";}s:15:"20231109_121534";a:7:{s:5:"title";s:114:"Une coalition de 6 organisations attaque en justice le dangereux règlement de l’UE sur les contenus terroristes";s:4:"link";s:151:"https://www.laquadrature.net/2023/11/09/une-coalition-de-6-organisations-attaque-en-justice-le-dangereux-reglement-de-lue-sur-les-contenus-terroristes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21545";s:7:"pubDate";s:31:"Thu, 09 Nov 2023 11:15:34 +0000";s:11:"description";s:231:"Le 8 novembre 2023, une coalition de six organisations – La Quadrature du Net (LQDN), Access Now, ARTICLE 19, European Center for Not-for-Profit Law (ECNL), European Digital Rights (EDRi) et Wikimedia France – a déposé…";s:7:"content";s:6462:"
Le 8 novembre 2023, une coalition de six organisations – La Quadrature du Net (LQDN), Access Now, ARTICLE 19, European Center for Not-for-Profit Law (ECNL), European Digital Rights (EDRi) et Wikimedia France – a déposé un recours devant la plus haute juridiction administrative française, le Conseil d’État, contre le décret français adaptant le règlement européen relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (également connu sous le nom de « TERREG »).
Elles demandent au Conseil d’État de saisir la Cour de justice de l’Union européenne (CJUE) d’une question préjudicielle sur la validité du TERREG au regard des droits fondamentaux protégés par le droit de l’UE.
Ce règlement permet aux forces de police d’un pays de l’UE d’ordonner à un site web, à un réseau social ou à tout fournisseur de services en ligne hébergeant des contenus créés par les utilisateurs de bloquer, dans un délai d’une heure, tout contenu supposé être à caractère terroriste – et cela dans tous les États membres de l’UE. Ces fournisseurs de services peuvent également être contraints de mettre en œuvre des « mesures spécifiques » pour prévenir la publication de contenus terroristes. Ces « mesures spécifiques » – dont la nature reste à la discrétion des fournisseurs de services – peuvent inclure, par exemple, des dispositifs de filtrage automatisé, afin d’analyser l’ensemble des contenus avant leur publication. Ces systèmes automatisés sont incapables de prendre en compte le contexte de la publication et sont notoirement prédisposés à commettre des erreurs, entraînant la censure de contenus protégés tels que le travail de journalistes, la satire, l’art ou les contenus documentant les violations des droits humains. En outre, l’obligation d’adopter des « mesures spécifiques » peut violer l’interdiction d’imposer une obligation générale de surveillance en vertu du règlement sur les services numériques (Digital Services Act, ou DSA).
Depuis que la proposition législative a été publiée par la Commission européenne en 2018, les organisations de la société civile parties au litige – comme beaucoup d’autres – ontdénoncé le risque de violation des droits fondamentaux qu’implique le TERREG. Bien que la lutte contre le terrorisme soit un objectif important, le TERREG menace la liberté d’expression et l’accès à l’information sur internet en donnant aux forces de l’ordre le pouvoir de décider de ce qui peut être dit en ligne, sans contrôle judiciaire indépendant préalable. Le risque d’excès et d’abus des forces de l’ordre en matière de suppression de contenu a été largement décrit, et augmentera inévitablement avec ce règlement. Cette législation renforce également l’hégémonie des plus grandes plateformes en ligne, car seules quelques plateformes sont actuellement en mesure de respecter les obligations prévues par le TERREG.
« La question de la modération des contenus en ligne est grave et la réponse ne peut être une censure policière technosolutionniste, simpliste mais dangereuse », déclare Bastien Le Querrec, juriste à La Quadrature du Net, l’ONG cheffe de file de la coalition.
La défense de l’affaire par le gouvernement français est attendue pour les prochains mois. La décision du Conseil d’État n’est pas attendue avant l’année prochaine.
La Quadrature du Net (LQDN) promeut et défend les libertés fondamentales dans le monde numérique. Par ses activités de plaidoyer et de contentieux, elle lutte contre la censure et la surveillance, s’interroge sur la manière dont le monde numérique et la société s’influencent mutuellement et œuvre en faveur d’un internet libre, décentralisé et émancipateur.
Le European Center for Not-for-Profit Law (ECNL) est une organisation non-gouvernementale qui œuvre à la création d’environnements juridiques et politiques permettant aux individus, aux mouvements et aux organisations d’exercer et de protéger leurs libertés civiques.
Access Now défend et améliore les droits numériques des personnes et des communautés à risque. L’organisation défend une vision de la technologie compatible avec les droits fondamentaux, y compris la liberté d’expression en ligne.
European Digital Rights (EDRi) est le plus grand réseau européen d’ONG, d’expert·es, de militant·es et d’universitaires travaillant à la défense et à la progression des droits humains à l’ère du numérique sur l’ensemble du continent.
ARTICLE 19 œuvre pour un monde où tous les individus, où qu’ils soient, peuvent s’exprimer librement et s’engager activement dans la vie publique sans crainte de discrimination, en travaillant sur deux libertés étroitement liées : la liberté de s’exprimer et la liberté de savoir.
Wikimédia France est la branche française du mouvement Wikimédia. Elle promeut le libre partage de la connaissance, notamment à travers les projets Wikimédia, comme l’encyclopédie en ligne Wikipédia, et contribue à la défense de la liberté d’expression, notamment en ligne.
";s:7:"dateiso";s:15:"20231109_121534";}s:15:"20231013_141527";a:7:{s:5:"title";s:31:"QSPTAG #296 — 13 octobre 2023";s:4:"link";s:67:"https://www.laquadrature.net/2023/10/13/qsptag-296-13-octobre-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21306";s:7:"pubDate";s:31:"Fri, 13 Oct 2023 12:15:27 +0000";s:11:"description";s:327:"Filtre anti-arnaques : la censure administrative embarquée dans le navigateur ?
Parmi les mesures contestables et contestées de la loi « visant à sécuriser et réguler l’espace numérique » (SREN), l’obligation des filtres anti-arnaques n’est pas la moindre. L’article 6…";s:7:"content";s:7376:"
Filtre anti-arnaques : la censure administrative embarquée dans le navigateur ?
Parmi les mesures contestables et contestées de la loi « visant à sécuriser et réguler l’espace numérique » (SREN), l’obligation des filtres anti-arnaques n’est pas la moindre. L’article 6 du projet de loi oblige les navigateurs web à bloquer les sites identifiés par les autorités administratives (la police) comme étant des arnaques (phishing, mineurs de Bitcoin, usurpation d’identité, etc.).
Aujourd’hui déjà, la police peut exiger que les plateformes et les fournisseurs d’accès à Internet (FAI) censurent les contenus terroristes ou pédocriminels. Dans ce cas, les FAI paramètrent leurs serveurs DNS, chargés de traduire les URL des sites (www.laquadrature.net) en adresses IP (185.34.33.4). Après cette modification, le site n’est plus trouvable à partir de son URL et se trouve donc hors d’atteinte pour la grande majorité des internautes. Sauf si.
Sauf si l’internaute sait choisir son DNS et contourner l’interdiction en passant par un autre serveur. Il est donc tout à fait possible, et pas très difficile à vrai dire, de contourner une censure par DNS. C’est un procédé utilisé lorsque certains États bloquent les DNS nationaux, comme cela s’est vu lors des révoltes du Printemps arabe en 2011 par exemple.
Mais la solution choisie dans le projet de loi pour les « arnaques » implique directement le navigateur web de l’internaute. Les navigateurs incluent déjà des listes de sites ou de pages web malhonnêtes, sur lesquelles les utilisateurs pourraient croiser des virus ou des scripts malveillants. Si le navigateur détecte une tentative de connexion à l’une de ces pages « dangereuses », il prévient l’internaute, qui a le choix de passer outre à ses risques et périls. L’outil est donc envisagé à l’heure actuelle comme un service que les navigateurs choisissent de rendre à l’utilisateur, qui garde la main sur la décision finale.
Avec ce que le projet de loi SREN propose, les listes seraient non seulement tenues par la police, mais s’imposeraient surtout aux navigateurs. Une pratique très différente dans sa philosophie, et qui ouvre la porte à tous les excès possibles, à la censure de sites politiques par exemple, quand le fait sera installé et qu’il suffira de l’étendre pour censurer à discrétion tous les sites « gênants ».
Plus de détails dans notre article paru le 5 octobre dernier, avant le vote de l’article 6 à l’Assemblée ce mercredi 11 octobre.
3-27 octobre : procès de l’affaire du « 8 décembre », audiences publiques les après-midis du mardi au vendredi à partir de 13h30 au tribunal de Paris (porte de Clichy). Les débats sur la question du chiffrement devraient commencer aux alentours du mercredi 18, mais le calendrier des audiences change sans cesse au gré des retards pris dans les auditions.
2 novembre : rencontre avec Félix Tréguer à 18h à la librairie L’Hydre aux mille têtes à Marseille (96 rue Saint-Savournin, 13001) dans le cadre de la parution de son livre « Contre-histoire d’Internet » aux éditions Agone.
";s:7:"dateiso";s:15:"20231013_141527";}s:15:"20231006_160350";a:7:{s:5:"title";s:30:"QSPTAG #295 — 6 octobre 2023";s:4:"link";s:51:"https://www.laquadrature.net/2023/10/06/qsptag-295/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21277";s:7:"pubDate";s:31:"Fri, 06 Oct 2023 14:03:50 +0000";s:11:"description";s:262:"Sensivic, couic
Voilà déjà deux ans que nous avons attaqué en justice et devant la CNIL l’initiative de la mairie d’Orléans qui voulait installer dans certaines rues les micros de surveillance de l’entreprise Sensivic pour détecter…";s:7:"content";s:11409:"
Sensivic, couic
Voilà déjà deux ans que nous avons attaqué en justice et devant la CNIL l’initiative de la mairie d’Orléans qui voulait installer dans certaines rues les micros de surveillance de l’entreprise Sensivic pour détecter « des sons anormaux ». Des cris de misère, des ventres qui gargouillent, des protestations contre la suppression des services publics ? Non : des bruits de bombe de peinture, de bagarre, de verre brisé ou des éclats de voix. Petit problème : le système implique « d’analyser en permanence le son ambiant pour pouvoir détecter des anomalies ». N’allez pas raconter votre dernier secret amoureux dans les rues d’Orléans.
Suite à notre action, Sensivic (aujourd’hui en redressement judiciaire) et la ville d’Orléans ont reçu la visite de la CNIL qui a étudié de près cette surveillance. Finalement, par un courrier du 27 septembre dernier, l’autorité nous a informé qu’elle considère illégal le couple maléfique constitué par les caméras et les micros dans les rues. On détaille dans l’article pourquoi cette position est insatisfaisante à nos oreilles – les micros tout seuls seraient-ils donc plus acceptables ?
Affaire du « 8 décembre » : le chiffrement mis en procès
C’est un sujet grave dont nous parlons depuis le mois de juin dernier. Un groupe de sept personnes est inculpé du chef de terrorisme, pour diverses raisons sans lien apparent, et surtout sans trace d’un projet terroriste avéré. Mais les enquêteurs de la DGSI et le parquet national antiterroriste ne doutent pas de leur intuition et pensent que les intentions terroristes des inculpé·es sont d’autant plus certaines qu’elles sont cachées.
Et ce n’est même pas une blague : pour l’accusation, le fait que les accusé·es utilisaient des messageries chiffrées (Signal par exemple) et des disques durs chiffrés est la marque évidente d’une « culture de la clandestinité ». Encore plus fort : alors qu’elle a saisi tous les appareils électroniques des accusé·es, ordinateurs et téléphones, et qu’elle a pu lire 80 à 90 % de leur contenu, l’accusation prétend que les preuves d’un projet terroriste se cachent forcément dans les 10% restants, qui sont chiffrés. Comme le dit l’un des avocats d’une inculpée, « l’absence de preuve devient une preuve ».
L’histoire serait absurde si elle n’était pas très grave. D’abord, des vies ont été détruites : surveillance, prison, procès, emplois perdus, désastre psychologique. Et pour nous, les prémisses et les conséquences du raisonnement policier et judiciaire concernent tout le monde : tout le monde utilise des messageries chiffrées. Whatsapp par exemple, qui est le moyen de communication utilisé pour un très grand nombre de conversations amicales et familiales, est une messagerie chiffrée. Les journalistes, les lanceur·euses d’alerte, les militant·es politiques et syndicales, les chercheur·euses, les industriel·les, ont besoin de protéger leurs communications. Au quotidien, le secret des correspondances est protégé par le droit, comme principe de base de libertés civiles et du débat démocratique. Le droit à la vie privée est la condition sine qua non à l’exercice d’autres libertés fondamentales.
Si l’utilisation d’outils de chiffrement devenait, lors de ce procès et de son verdict, un élément incriminant ou aggravant, alors nous serions toutes et tous des terroristes, des malfaiteurs ou des comploteurs en puissance. Et si les outils de chiffrement était interdits, alors nos échanges numériques seraient accessibles à toutes les personnes malintentionnées et à toutes les polices. Cela n’est pas envisageable. C’est pourquoi nous suivons de très près ce procès, pour les droits de toutes et tous.
6 octobre : rencontre avec Félix Tréguer à 19h à la librairie Le Monte-en-l’air à Paris (2 rue de la Mare, 75020) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
6 octobre : Rencontres Radicales d’Alternatiba – Table ronde sur la répression. Césure – 13 rue Santeuil 75005, 19h.
3-27 octobre : procès de l’affaire du « 8 décembre », audiences publiques les après-midis du mardi au vendredi à partir de 13h30 au tribunal de Paris (Porte de Clichy).
12 octobre : causerie mensuelle Technopolice Marseille, de 19h à 20h, au Manifesten (59 rue Adolphe Thiers, Marseille).
";s:7:"dateiso";s:15:"20231006_160350";}s:15:"20231005_173733";a:7:{s:5:"title";s:96:"Projet de loi SREN et filtre « anti-arnaque » : les navigateurs comme auxiliaires de police";s:4:"link";s:126:"https://www.laquadrature.net/2023/10/05/projet-de-loi-sren-et-filtre-anti-arnaque-les-navigateurs-comme-auxiliaires-de-police/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21259";s:7:"pubDate";s:31:"Thu, 05 Oct 2023 15:37:33 +0000";s:11:"description";s:280:"Le projet de loi visant à sécuriser et réguler l’espace numérique (« SREN », parfois appelé projet de loi « Espace numérique »), qui est actuellement débattu en hémicycle à l’Assemblée nationale, comporte un article 6 qui crée une…";s:7:"content";s:25931:"
Le projet de loi visant à sécuriser et réguler l’espace numérique (« SREN », parfois appelé projet de loi « Espace numérique »), qui est actuellement débattu en hémicycle à l’Assemblée nationale, comporte un article 6 qui crée une nouvelle excuse pour imposer un mécanisme de censure administrative : la protection contre les « arnaques » en ligne. Cet article ne se contente pas de créer un nouveau prétexte pour faire retirer un contenu : pour la première fois, il exige également que les fournisseurs de navigateurs Internet participent activement à cette censure.
L’article 6 du projet de loi SREN prévoit en effet d’obliger les navigateurs Internet à censurer les sites qui proposeraient des « arnaques ». Cette censure administrative se ferait sur demande de la police (c’est-à-dire sans passer par un juge) si celle-ci estime qu’un contenu en ligne constitue une « arnaque ». Il faut entendre par « arnaque » les contenus qui usurperaient l’identité d’une personne, collecteraient de manière illicite des données personnelles, exploiteraient des failles de sécurité pour s’introduire dans le terminal de l’internaute ou tenteraient de tromper l’internaute par une fausse page de paiement ou de connexion (phishing, ou hameçonnage). Pour comprendre ce texte, présentons d’abord comment la censure se passe aujourd’hui en France.
La faible efficacité de la censure par DNS
Aujourd’hui, lorsqu’une censure d’un site est demandée, soit par un juge, soit par la police, elle passe par un blocage DNS. Pour simplifier, le DNS est le système qui traduit un nom de domaine en une adresse IP (par exemple www.laquadrature.net correspond à l’adresse IP 185.34.33.4). Quand un internaute veut consulter un site Internet, son périphérique interroge un service appelé « serveur DNS » qui effectue cette traduction. Chaque fournisseur d’accès Internet (FAI) fournit des serveurs DNS, de manière transparente pour l’abonné·e, qui n’a pas besoin de configurer quoi que ce soit : les serveurs DNS du FAI sont paramétrés par défaut.
Les injonctions de censure jouent aujourd’hui sur ce paramétrage par défaut : les FAI soumis à une obligation de censurer un site font mentir leur service DNS. Ainsi, au lieu de retourner à l’internaute la bonne adresse IP, le serveur DNS du FAI répondra qu’il ne connaît pas l’adresse IP du site censuré demandé, ou répondra par une adresse IP autre que celle du site censuré (par exemple pour rediriger l’internaute vers les serveurs du ministère de l’intérieur, comme c’est le cas avec la censure des sites terroristes ou des sites pédopornographiques).
La censure par DNS menteur a deux problèmes majeurs. Premièrement, elle est facilement contournable : il suffit à l’internaute de changer de serveur DNS. L’internaute peut même, lorsque sa box Internet le permet, paramétrer des serveurs DNS différents de ceux de son FAI, pour ne pas avoir à faire ce changement sur chaque périphérique connecté à son réseau. Deuxièmement, cette censure n’est pas précise : c’est tout le nom de domaine qui est bloqué. Il n’est ainsi pas possible de bloquer une page web seule. Si un FAI voulait bloquer avec un DNS menteur l’article que vous êtes en train de lire, il bloquerait aussi tous les autres articles sur www.laquadrature.net.
Lorsque le principe de la censure sur Internet a été introduit en droit, les législateurs dans le monde ont tâtonné pour trouver un moyen de la rendre effective. Différentes techniques ont été expérimentées avec la censure par DNS, et toutes posaient de sérieux problèmes (voir notamment l’article de Benjamin Bayart sur le site du FAI associatif French Data Network). Finalement, la censure par DNS menteur, lorsqu’elle ne consiste pas à renvoyer vers les serveurs d’un ministère1Lorsque les serveurs DNS d’un FAI répondent par une adresse IP qui n’appartient pas au site demandé mais à un tiers, ce tiers, qui recevra le trafic ainsi redirigé, sera capable de savoir quels sites censurés un·e abonné·e a voulu consulter. Ainsi, lorsqu’un serveur DNS répond par une adresse IP du ministère de l’intérieur lorsqu’on lui demande un site terroriste ou pédopornographique censuré (dans le but d’afficher le message d’avertissement du gouvernement), le ministère de l’intérieur sait que tel·le abonné·e a voulu accéder à tel site censuré. Qu’un gouvernement puisse connaître les détails d’une partie de la navigation d’un·e internaute pose d’évidents problèmes de vie privée., a l’avantage de ne poser que peu de restrictions aux libertés fondamentales. Et le status quo aujourd’hui est de préférer cette technique de censure peu efficace à d’autres qui poseraient des problèmes techniques ou conduiraient à devoir surveiller tout le trafic.
En France, on n’a pas de pétrole, mais on a des idées
C’est là que le gouvernement français innove avec son idée de censure par les navigateurs Internet. L’article 6 du projet de loi SREN vise à obliger les navigateurs à censurer des sites qui auraient été notifiés par la police parce qu’ils proposeraient des « arnaques ». Pour cela, le gouvernement compte sur une technologie déjà présente dans les principaux navigateurs : les filtres anti-phishing.
Aujourd’hui, les principaux navigateurs protègent leurs internautes en comparant les URL des sites visités avec une liste d’URL connues pour être dangereuses (par exemple, si le site héberge des applications malveillantes ou un faux formulaire de connexion pour tenter de voler des identifiants). Il existe différentes listes d’URL dangereuses, notamment Google Safe Browsing (notamment utilisée par Firefox) ou Microsoft Defender SmartScreen (utilisée par Edge) : le navigateur, à partir d’une copie locale de cette liste, va vérifier que l’internaute n’est pas en train de naviguer vers une URL marquée comme dangereuse. Et si c’est le cas, un message d’avertissement est affiché2Vous pouvez tester vous-même dans Firefox avec cette adresse de test de Mozilla. Rassurez-vous, le site en question n’est pas dangereux, il ne s’agit que d’une démonstration..
Mais cette censure n’est pas obligatoire : l’internaute peut passer outre l’avertissement pour un site et il peut désactiver totalement cette censure dans les paramètres de son navigateur. Celle-ci est également transparente : les listes d’URL bloquées sont téléchargées localement, c’est-à-dire qu’elle sont intégralement connues par l’ensemble des internautes (voir, pour Firefox, l’explication du fonctionnement sur le site de Mozilla).
Or, avec ce projet de loi SREN, le législateur entend s’inspirer de ces filtres, mais en changeant leur esprit. Les navigateurs devront obligatoirement intégrer un mécanisme de censure des sites d’« arnaques » et, même si l’internaute pourra passer outre un avertissement, ce mécanisme ne pourra pas être désactivé dans son ensemble.
Certes, le gouvernement voulait initialement aller plus loin : dans la version du texte présentée en juillet au Sénat, il n’était pas question de laisser la possibilité à l’internaute de contourner un blocage. Exit le bouton « J’ai compris » : si la police avait décidé qu’une URL était dangereuse, il n’était pas envisagé que vous puissiez accéder à cette adresse. En commission spéciale à l’Assemblée nationale, des député·es ont modifié le texte issu des travaux du Sénat pour ajouter la possibilité de contourner un blocage exigé d’un navigateur. Leur élément de langage était tout trouvé : ne parlez plus de « censure », il ne s’agit désormais que de « filtrage ». Bon, peut-être n’avaient-ils pas ouvert un dictionnaire : « Filtrage, n.m. […] Censure des informations jugées non conformes à la loi ou aux bonnes mœurs » nous rappelle le Wiktionnaire.
Malgré cette maigre atténuation des dangers de cette censure par rapport à la version du Sénat, le principe de cet article 6 n’a pas été remis en cause par les député·es en commission spéciale : les navigateurs devront toujours, en l’état actuel du projet de loi, censurer les URL notifiées par la police.
Un texte flou qui sapera la confiance dans les navigateurs
Ce nouveau mécanisme de blocage comporte énormément de parts d’ombre. Par exemple, le texte ne précise pas comment les navigateurs devront l’intégrer. Le décret d’application que devra adopter le gouvernement pour préciser la loi pourrait très bien, en raison du flou de la rédaction actuelle, exiger l’utilisation d’une sorte de boîte noire non-libre pour faire cette censure. Cela aurait comme conséquence que les navigateurs Internet aujourd’hui libres, comme Firefox, ne le seraient plus réellement puisqu’ils intégreraient cette brique non-libre du gouvernement.
Par ailleurs, le projet de loi est également flou sur la question de la transparence des URL bloquées. En l’état actuel du texte, les URL censurées ne doivent être rendues publiques que 72h après une injonction de censure. Autrement dit, la police pourrait exiger des navigateurs qu’ils ne dévoilent pas aux internautes quelles URL sont censurées. Dès lors, à défaut de ne pouvoir embarquer la liste complète des URL bloquées, les navigateurs devraient interroger la police (ou un tiers agissant pour son compte) à chaque fois qu’une page web serait demandée par l’internaute pour vérifier si celle-ci n’est pas soumise à une injonction de blocage. Ce faisant, la police (ou ce tiers) connaîtrait l’intégralité de la navigation Internet de tout internaute.
Au-delà du flou entretenu sur cet article 6, les navigateurs deviendront, avec ce texte, des auxiliaires de police. Ils devront opérer pour le compte de la police cette censure. Ils devront assumer à la place de l’État les cas de surcensure qui, vu la quantité de contenus à traiter, arriveront nécessairement3Cette surcensure arrive déjà aujourd’hui avec les filtres anti-phishing intégrés par défaut. Cela s’est par exemple produit avec des instances Mastodon.. Ils devront engager leur crédibilité lorsque des abus seront commis par la police. Alors que ce filtre anti-arnaque voulait redonner confiance aux internautes lorsqu’ils ou elles naviguent en ligne, c’est bien l’inverse qui se produira : le gouvernement retourne les navigateurs contre leurs utilisateur·rices, en imposant à ces dernier·es des censures possiblement injustifiées et potentiellement arbitraires. Comment, dans ce cas, faire confiance à un navigateur dont le comportement est en partie dicté par la police ?
Et c’est sans parler de cet effet cliquet qui se met en place à chaque nouvelle mesure sécuritaire. Il est impossible de revenir sur de nouvelles formes de contrôle par l’État : initialement présentées comme limitées, elles finissent inévitablement par être étendues. Avec son texte, le gouvernement envoie un signal fort à sa police et aux autres administrations : une fois l’État capable de faire bloquer sans juge les « arnaques » par les navigateurs, tout le monde pourra avoir sa part du gâteau de la censure par navigateur. Demain, la police voudra-t-elle faire censurer les discours politiques ou d’actions écologistes sous prétexte de lutte contre le terrorisme ? Les parlementaires voudront-ils faire bloquer des contenus haineux comme au temps de la loi Avia ? L’Arcom, qui a récupéré les pouvoirs de l’Hadopi en matière de droit d’auteur, voudra-telle bloquer les sites de streaming ?
Prendre les internautes pour des enfants incapables
Une fois encore, la CNIL est brandie en garde-fou qui permettrait de neutraliser et faire oublier tous les dangers de ce texte. Le projet de loi prévoit ainsi qu’une « personnalité qualifiée » de la CNIL sera notifiée des URL censurées et pourra enjoindre à la police de cesser un blocage abusif.
Or, ce « garde-fou » n’est pas sans rappeler celui, similaire et totalement défaillant, que l’on retrouve en matière de censure des sites terroristes ou pédopornographiques : lorsque la police veut faire censurer un contenu à caractère terroriste ou pédopornographique, une personnalité qualifiée de l’Arcom est chargée de vérifier que la demande est bien légitime. Avant l’Arcom, c’était à une personnalité qualifiée de la CNIL, Alexandre Linden, que revenait cette tâche. En 2018, il dénonçait le manque de moyens humains à sa disposition, ce qui a conduit à l’impossibilité de contrôler l’ensemble des demandes de censure. En 2019, il réitérait son appel et rappelait que les moyens nécessaires à son contrôle n’étaient toujours pas là. En 2020, il alertait sur les obstacles techniques mis en place par le ministère de l’intérieur.
Avec la censure des contenus terroristes ou pédopornographiques, ce sont déjà près de 160 000 contenus qui ont été vérifiés en 2022. Or, ce filtre « anti-arnaque » opèrerait un changement d’échelle : avec environ 1000 nouvelles menaces quotidiennes, il faudrait deux à trois fois plus de vérifications. Autant dire qu’il est illusoire de compter sur un tel garde-fou. Pire ! La police n’aura pas à motiver ses décisions de blocage lorsqu’une « mesure conservatoire » est prise, c’est-à-dire dans les cinq jours suivants la détection de l’arnaque, lorsque la police attend l’explication du site concerné. La personnalité qualifiée devra donc vérifier la véracité des « mesures conservatoires » sans connaître la raison pour laquelle la police a ordonné la censure.
En quoi la protection des internautes justifie-t-elle d’imposer une censure qu’ils ou elles ne pourront que contourner au cas par cas avec un message dont l’objectif est de dissuader de continuer ? Le gouvernement adopte une nouvelle fois une posture paternaliste auprès des internautes qui, pour leur bien, devraient accepter d’être pris·es par la main et de se voir imposer des mesures coercitives.
Reconnaissons un point : ce filtre « anti-arnaques » part d’une bonne intention. Mais l’imposer comme le fait l’article 6 du projet de loi SREN est un non-sens. Ce filtre aurait sa place dans un ensemble de mesures facultatives, mais qui ne relèvent pas de la loi : si le gouvernement est persuadé qu’il peut proposer un filtre « anti-arnaques » complet, fiable et à jour, pourquoi ne confie-t-il pas à la police le soin de maintenir une liste anti-phishing concurrente à celles de Google ou Microsoft ? Si ce filtre est de qualité, les navigateurs seront incités à l’intégrer, de leur plein gré et en laissant la liberté à l’internaute de le désactiver. Non, au contraire, le législateur préfère imposer sa solution, persuadé d’avoir raison et que forcer la main des navigateurs et des internautes serait une bonne chose. Et tant pis si cette censure ne sert à rien puisque, comme pour la censure des sites pornographique, les origines du problème ne sont pas abordées : rien n’est prévu dans ce projet de loi pour éduquer les citoyen·nes aux risques sur Internet, aucun nouveau moyen pour la CNIL ou l’ANSSI et son service cybermalveillance.gouv.fr n’est envisagé.
La vision paternaliste qui se dégage de ce filtre « anti-arnaque » montre bien la philosophie de l’ensemble de ce projet de loi : réguler Internet par l’excès d’autorité. Taper du poing sur la table, montrer que le gouvernement agit même si cela est parfaitement inefficace, et finalement sacrifier les libertés fondamentales sur l’autel du marketing politique en se ménageant de nouveaux moyens de surveillance et de censure. Le législateur ne doit pas tomber dans le piège, tendu par la commission spéciale, d’un « filtrage » qui serait acceptable : ce texte prévoit bel et bien une censure administrative par les navigateurs inacceptable en elle-même. Il est donc fondamental que cet article 6 et, au-delà, l’ensemble du projet de loi soient rejetés. Alors pour nous aider à continuer à défendre un Internet libre, vous pouvez nous faire un don !
Lorsque les serveurs DNS d’un FAI répondent par une adresse IP qui n’appartient pas au site demandé mais à un tiers, ce tiers, qui recevra le trafic ainsi redirigé, sera capable de savoir quels sites censurés un·e abonné·e a voulu consulter. Ainsi, lorsqu’un serveur DNS répond par une adresse IP du ministère de l’intérieur lorsqu’on lui demande un site terroriste ou pédopornographique censuré (dans le but d’afficher le message d’avertissement du gouvernement), le ministère de l’intérieur sait que tel·le abonné·e a voulu accéder à tel site censuré. Qu’un gouvernement puisse connaître les détails d’une partie de la navigation d’un·e internaute pose d’évidents problèmes de vie privée.
Vous pouvez tester vous-même dans Firefox avec cette adresse de test de Mozilla. Rassurez-vous, le site en question n’est pas dangereux, il ne s’agit que d’une démonstration.
Cette surcensure arrive déjà aujourd’hui avec les filtres anti-phishing intégrés par défaut. Cela s’est par exemple produit avec des instances Mastodon.
";s:7:"dateiso";s:15:"20231005_173733";}s:15:"20231002_154832";a:7:{s:5:"title";s:89:"Affaire du « 8 décembre » : le droit au chiffrement et à la vie privée en procès";s:4:"link";s:115:"https://www.laquadrature.net/2023/10/02/affaire-du-8-decembre-le-droit-au-chiffrement-et-a-la-vie-privee-en-proces/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21247";s:7:"pubDate";s:31:"Mon, 02 Oct 2023 13:48:32 +0000";s:11:"description";s:278:"Le 3 octobre prochain s’ouvrira le procès de l’affaire dite du « 8 décembre ». Sept personnes sont accusées d’association de malfaiteurs terroriste. Pour construire le récit du complot terroriste, les services de renseignement de la DGSI…";s:7:"content";s:20328:"
Le 3 octobre prochain s’ouvrira le procès de l’affaire dite du « 8 décembre ». Sept personnes sont accusées d’association de malfaiteurs terroriste. Pour construire le récit du complot terroriste, les services de renseignement de la DGSI chargés de l’enquête judiciaire, le parquet national antiterroriste (PNAT) puis le juge d’instruction instrumentalisent à charge le fait que les inculpé·es utilisaient au quotidien des outils pour protéger leur vie privée et chiffrer leurs communications. Face à cette atteinte inédite, que nous documentions longuement il y a quelques mois, le temps de ce procès va donc être crucial dans la bataille contre les velléités récurrentes de l’État de criminaliser des pratiques numériques banales, sécurisées et saines, pratiques que nous défendons depuis toujours.
« Il reconnaissait devant les enquêteurs utiliser l’application Signal »
Comme le souligne le journal Le Monde qui a consacré un long article au « 8 décembre », cette affaire repose « sur des bases fragiles ». Parmi celles-ci, nous sommes particulièrement inquiets de la place donnée à l’utilisation des outils de chiffrement ou, plus largement, des moyens pour protéger sa vie privée. Un des enjeux de ce procès sera donc de savoir si une telle pratique peut être utilisée à charge par la police et la justice pour étayer la la présomption d’un projet terroriste. Un tel parti pris de la part du juge constituerait un passage de cap extrêmement dangereux, puisque toute forme de confidentialité deviendrait alors suspecte par défaut.
Dans ce dossier, protéger sa vie privée et chiffrer ses communications n’est plus seulement suspect mais devient constitutif d’un « comportement clandestin », un moyen de cacher un projet criminel. À travers différentes notes, la DGSI s’est ainsi affairée à démontrer comment l’utilisation d’outils comme Signal, Tor, Proton, Silence, etc., serait une preuve de la volonté de dissimuler des éléments compromettants. Et en plus de cela, comme nous le dénonçions en juin dernier, la DGSI justifie l’absence de preuves d’un projet terroriste par l’utilisation d’outils de chiffrement : les éléments prouvant une intention terroriste sont nécessairement, selon elle, dans ces fameux messages chiffrés et inaccessibles. Le serpent se mord la queue, ce qui amène les avocats d’un des inculpé·es à dénoncer le fait qu’« ici, l’absence de preuve devient une preuve ».
Plus inquiétant encore, l’enquête de la DGSI est parsemée d’approximations voire d’erreurs techniques, qui seront ensuite reprises par le PNAT puis le juge d’instruction. Ainsi, les enquêteurs confondent Tor et Tails dans certaines pièces du dossier. Le résultat de l’enquête pointe également comme un élément de culpabilité le fait que les inculpé·es chiffrent le contenu de leur téléphone ou de leur ordinateur. Toujours avec beaucoup de confusions techniques, la DGSI reproche ainsi aux personnes en cause d’utiliser LUKS, un outil disponible sous Linux pour chiffrer ses disques, pourtant banal et recommandé pour protéger ses données. Mais, de manière générale, l’ensemble du dossier tend à démontrer que la police et la justice ignorent que le chiffrement par défaut des supports de stockage est mis en place par les principaux développeurs de logiciels. Et ces mêmes autorités oublient que leurs périphériques aussi sont chiffrés (en tout cas nous l’espérons pour elles !).
En somme, il est reproché aux inculpé·es de respecter des règles élémentaires de sécurité informatique. Ce qui est parfois appelé « hygiène numérique »1Voir par exemple le guide de l’ANSSI sur l’hygiène numérique. devient le symbole d’un prétendu comportement clandestin.
Les États relancent leur guerre contre le chiffrement
Il existe depuis toujours une tension politique autour du chiffrement des communications électroniques, et cela est bien logique puisque le chiffrement est politique par nature. Martin Hellmann, un des chercheurs en mathématiques ayant participé à la conception du chiffrement asymétrique dans les années 1970, justifiait à l’époque sa démarche par sa crainte que « l’utilisation croissante des outils de traitement automatisés représente une réelle menace pour l’économie et la vie privée ». Pour lui, les techniques de chiffrement fiables constituaient une manière d’empêcher le développement de la « surveillance d’un État policier s’appuyant sur l’informatisation » 2Voir la citation de Corrigan-Gibbs, « Keeping Secrets », dans la thèse de Félix Tréguer, « Pouvoir et résistance dans l’espace public : une contre-histoire d’Internet (XVe-XXIe siècle) » accessible sur https://shs.hal.science/tel-01631122. Voir aussi le livreContre-histoire d’Internet : Du XVe siècle à nos jours, édition revue et actualisée, Agone, 2023.. On le comprend, l’émergence de cette technologie n’est pas le résultat de découvertes scientifiques fortuites mais bien le fruit d’un rapport de force naissant. Et cela explique pourquoi les États ont toujours opposé une résistance à son développement et à son utilisation, une volonté de contrôle trahie par un discours transformant leurs créateur·rices et les utilisateur·rices du chiffrement en criminels potentiels.
En effet, dès la publication des travaux d’Hallman et de ses camarades, le gouvernement des États-Unis a fait pression pour que cette technique reste dans le domaine militaire, afin de pouvoir en maîtriser le développement. Ensuite, dans les années 1990, la démocratisation du chiffrement, notamment via le protocole PGP, donne de nouvelles sueurs froides au gouvernement états-unien qui repart à l’attaque. Ce dernier propose alors de mettre en place des « Clipper Chips », c’est-à-dire l’obligation d’installer une puce contenant une « porte dérobée » dans tout système chiffré, permettant un accès aux données pour les autorités judiciaires et administratives.
Commence alors une « crypto-war » qui oppose l’administration Clinton et les nombreux activistes défendant le droit à la cryptographie. Le gouvernement fédéral se défend en expliquant que « si les technologies cryptographiques sont rendues librement accessibles à l’échelle mondiale, elles seraient sans aucun doute largement utilisées par les terroristes, les trafiquants de drogue et autres criminels qui portent préjudice aux Américains sur le territoire national et à l’étranger. » Mais ce discours de criminalisation échoue et le chiffrement est retiré de la liste des « armes et munitions » en 1996, ouvrant la voie à sa libéralisation. En France, bien que poussée par des militant·es, cette libéralisation du chiffrement n’a eu lieu qu’en 1999, faisant de la France un des derniers États à vouloir garder cette technique sous son contrôle.
Les attaques contre le chiffrement ont refait surface dans les années 2010, à un moment où la population a tout à la fois pris conscience des méga-programmes de surveillance étatiques, vécu des épisodes d’attentats donnant lieu à un climat sécuritaire intense, et pu accéder à des messageries chiffrées grand public. Cette conjoncture a ainsi donné de nouvelles occasions aux différents ministres de l’intérieur (Cazeneuve, Castaner puis Darmanin), députés, ou président pour redonner corps à la criminalisation aussi bien des concepteur·rices des outils fondés sur du chiffrement (pensons par exemple à l’affaire de l’iPhone de San Bernardino qui a mis Apple au centre des critiques) que de ses utilisateur·rices.
La crainte d’un précédent irrémédiable
Avec l’affaire du « 8 décembre », nous assistons donc à une matérialisation de ce discours qui tente de faire croire que le chiffrement des communications serait l’apanage des criminels et terroristes. Sauf qu’il ne s’agit plus d’une déclaration politique opportuniste pour étendre des pouvoirs voulus depuis des décennies. Nous parlons cette fois-ci d’une accusation policière et judiciaire aux conséquences concrètes et graves, qui a participé à mettre des personnes en prison. Nos inquiétudes sont grandes face à la possibilité que les juges puissent adhérer à cette narration criminalisant les outils de protection de la vie privée. Cela créerait un précédent aussi bien juridique que politique, en plus d’avoir des conséquences humaines désastreuses pour les principales personnes concernées. La confidentialité, ici numérique mais qui pourrait s’étendre demain à des pratiques physiques, deviendrait alors une présomption de culpabilité. Se protéger, adopter des mesures de sécurité pour soi et les autres serait alors un motif de poursuites.
Isabela Fernandes, la directrice exécutive du Tor Project nous a fait part de son soutien dans cette bataille à venir. Pour elle, « le chiffrement ne doit pas être compris à tort comme un signe d’intention malveillante mais, doit au contraire être vu comme une composante fondamentale du droit à la vie privée et à la sécurité informatique des personnes. Dès lors que de plus en plus d’aspects de nos vies ont lieu en ligne, le chiffrement est garant de la capacité à protéger sa vie privée et ses droits. »
Elle ajoute : « De nombreux outils préservant la vie privée sont utilisés par les membres de la Commission européenne et des organes d’État. Les gouvernements ont la responsabilité d’assurer le droit à la liberté d’expression et à la vie privée pour toutes et tous afin de protéger un fondement des sociétés démocratiques – plutôt que de promouvoir une interprétation biaisée de qui peut bénéficier de ces droits et qui ne le peut pas. »
C’est bien parce que déduire de l’utilisation d’outils pour protéger sa vie privée et chiffrer ses communications un comportement clandestin vient nourrir un dossier pénal très faible que plus de 130 personnes et organisations ont dénoncé cela dans une tribune parue dans Le Monde. À l’heure où l’État étend ses filets de plus en plus loin, autorise la surveillance à distance des objets connectés , y compris ceux des journalistes sous prétexte de sécurité nationale, assimile les revendications écologiques à du terrorisme pour mieux justifier sa débauche de moyens répressifs et intrusifs, perquisitionne les journalistes qui révèlent des crimes de guerre commis avec la complicité de l’État, veut mettre fin à toute idée d’anonymat en ligne ou à tout secret des correspondances, nous assistons actuellement à un emballement autoritaire terriblement inquiétant.
Ce procès est une énième attaque contre les libertés fondamentales, mais surtout un possible aller sans retour dans le rapport que l’État entretient avec le droit à la vie privée. Alors votre mobilisation est importante ! Rendez-vous demain, 3 octobre, à 12h devant le tribunal de Paris (Porte de Clichy) pour un rassemblement en soutien aux inculpé·es. Puis si vous le pouvez, venez assister aux audiences (qui se tiendront les après-midis du 3 au 27 octobre au tribunal de Paris) afin de montrer, tous les jours, solidarité et résistance face à ces attaques.
Voir la citation de Corrigan-Gibbs, « Keeping Secrets », dans la thèse de Félix Tréguer, « Pouvoir et résistance dans l’espace public : une contre-histoire d’Internet (XVe-XXIe siècle) » accessible sur https://shs.hal.science/tel-01631122. Voir aussi le livreContre-histoire d’Internet : Du XVe siècle à nos jours, édition revue et actualisée, Agone, 2023.
";s:7:"dateiso";s:15:"20231002_154832";}s:15:"20230930_145122";a:7:{s:5:"title";s:119:"Audiosurveillance algorithmique à Orléans : la CNIL donne raison à La Quadrature sur l’illégalité du dispositif";s:4:"link";s:149:"https://www.laquadrature.net/2023/09/30/audiosurveillance-algorithmique-a-orleans-la-cnil-donne-raison-a-la-quadrature-sur-lillegalite-du-dispositif/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21242";s:7:"pubDate";s:31:"Sat, 30 Sep 2023 12:51:22 +0000";s:11:"description";s:268:"En 2021, La Quadrature du Net avait attaqué un dispositif d’audiosurveillance algorithmique déployé à Orléans dans le cadre d’une convention avec l’entreprise de surveillance Sensivic. Cette semaine, la CNIL vient de nous donner raison en…";s:7:"content";s:5982:"
En 2021, La Quadrature du Net avait attaqué un dispositif d’audiosurveillance algorithmique déployé à Orléans dans le cadre d’une convention avec l’entreprise de surveillance Sensivic. Cette semaine, la CNIL vient de nous donner raison en soulignant l’illégalité de ce dispositif technopolicier.
En 2021, la ville d’Orléans concluait avec une startup locale, Sensivic, un contrat pour expérimenter une nouvelle forme de surveillance policière de l’espace public : l’audiosurveillance algorithmique (ASA). Comme ce qui avait été tenté à Saint-Étienne, le projet consistait à déployer des « détecteurs de sons anormaux » (c’est-à-dire des « mouchards ») sur des caméras de surveillance.
L’ASA est un des composantes de la Technopolice qui s’affirme sur le territoire français, aux côtés de la vidéosurveillance algorithmique (VSA), des drones ou de la reconnaissance faciale. Il est essentiel de la freiner et de la combattre partout où elle se déploie. C’est la raison pour laquelle nous avions donc attaqué la convention entre Orléans et Sensivic, aussi bien devant la justice administrative que devant la CNIL. C’est aujourd’hui que la CNIL, après plus de deux ans d’instruction, vient de nous donner raison.
Pas d’oreilles pour les caméras
La CNIL vient ici rappeler ce qu’elle avait déjà dit à Saint-Étienne. En effet, en 2019, avec l’aide de l’entreprise Serenicity, Saint-Étienne avait envisagé un projet similaire de surveillance sonore : la CNIL avait déjà à l’époque considéré qu’il est illégal de capter des sons dans l’espace public pour améliorer la vidéosurveillance.
Le projet orléanais que nous avons attaqué prévoyait bien lui aussi une analyse automatisée de tous les sons de l’espace public dans l’objectif d’aider les caméras à repérer certains comportements suspects. Malgré tout ce qu’a pu baratiner Sensivic dans le cadre de notre contentieux, la CNIL rappelle le droit : ce dispositif de micros, couplé à la vidéosurveillance, est illégal car le droit existant ne permet en aucun cas une telle surveillance.
Après Saint-Étienne, une telle décision à Orléans permet au moins de clarifier les choses et de mettre un frein, aussi petit soit-il, à l’industrie de la surveillance qui cherche par tous les moyens à revendre ses logiciels de surveillance de masse.
La CNIL relègue l’ASA au rang de technologie inutilisable
Cette position de la CNIL est néanmoins décevante.
D’une part, alors qu’il ne s’agissait que de l’application stricte d’une décision déjà prise dans le passé à Saint-Étienne, la CNIL a mis presque trois ans à instruire ce dossier et à prendre une décision. Trois ans pendant lesquels l’ASA a pu se normaliser et se développer. Trois ans de gagnés pour la Technopolice. Notons que nous sommes d’ailleurs toujours en attente de la décision du tribunal administratif sur ce même dossier.
D’autre part, la CNIL limite son raisonnement à la question du couplage de l’ASA avec la vidéosurveillance. A contrario, elle considère que, lorsque l’ASA n’est pas couplée à de la vidéosurveillance, il pourrait ne pas y avoir de traitement de données personnelles. Cette analyse de la CNIL, bien que sans conséquence pratique, reste très contestable juridiquement. En bref, elle semble laisser une marge à l’industrie de la surveillance sur la question de l’analyse automatisée des sons.
Considérer qu’il n’y a de traitement de données personnelles que lorsque l’ASA est couplée avec un dispositif de vidéosurveillance (ou n’importe quel un mécanisme d’identification des personnes) est juridiquement contestable. Mais cela n’a pas de conséquence pratique directe : l’objectif de l’ASA est bien de connaître la source d’un bruit, c’est-à-dire d’être couplée à un autre dispositif. Ce « complément naturel à l’image dans les systèmes de sécurité et de vidéosurveillance », pour reprendre les mots de Sensivic, est bien illégal.
Cette victoire devant la CNIL est une bonne nouvelle. Au tour de la justice administrative, désormais, de rendre sa décision. Il est urgent, aujourd’hui, de mettre un terme définitif à ces projets de surveillance sonore. Alors pour nous aider à continuer la lutte, vous pouvez participer à documenter cette surveillance ou faire un don.
Mise à jour du 24 octobre 2023 : nous venons d’informer le tribunal administratif d’Orléans de la position de la CNIL (notre mémoire est consultable ici).
";s:7:"dateiso";s:15:"20230930_145122";}s:15:"20230922_181956";a:7:{s:5:"title";s:33:"QSPTAG #294 — 22 septembre 2023";s:4:"link";s:51:"https://www.laquadrature.net/2023/09/22/qsptag-294/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21214";s:7:"pubDate";s:31:"Fri, 22 Sep 2023 16:19:56 +0000";s:11:"description";s:267:"Loi SREN : un catalogue de mauvaises nouvelles
Le projet de loi « visant à sécuriser et réguler l’espace numérique » (SREN), voté en juillet dernier par le Sénat mais actuellement en discussion à l’Assemblée, est dans son état…";s:7:"content";s:13872:"
Loi SREN : un catalogue de mauvaises nouvelles
Le projet de loi « visant à sécuriser et réguler l’espace numérique » (SREN), voté en juillet dernier par le Sénat mais actuellement en discussion à l’Assemblée, est dans son état actuel un grand fourre-tout de mesures pour « civiliser » le « Far-West » qu’est encore aujourd’hui le web dans l’esprit des politiques.
De nombreux faits divers sont venus alimenter cette vision noire d’internet, coupable de tous les maux de la société : après le terrorisme, la pédophilie, la désinformation, les mouvements sociaux spontanés ou les émeutes de banlieue, les maux qui justifient une action énergique sont aujourd’hui le harcèlement scolaire et la pornographie accessible aux enfants. Et comme à chaque fois, on n’imagine rien d’autre que davantage de répression, de censure et de surveillance, confiées à des acteurs privés (les grandes plateformes de réseaux sociaux, en général) sans contrôle de la justice et avec les encouragements des services administratifs et policiers de l’État.
Bien sûr, personne ne songe à nier ou à minimiser les problèmes ni les faits de société qui sont à l’œuvre. En revanche, il est de notre rôle de prendre la parole quand les moyens imaginés pour les résoudre sont démesurés, inefficaces, ou carrément dangereux : surveiller tout et tout le monde présente beaucoup de risques pour une société démocratique… Nous avons donc publié le 12 septembre un long article d’analyse — aussi dense et copieux que la loi — pour présenter les points qui nous inquiètent.
Le projet de loi aborde la problématique du harcèlement en ligne par la manière autoritaire : une personne condamnée, donc bien connue et punie en proportion de ses actes, serait désormais bannie des réseaux sociaux. À charge aux plateformes de se débrouiller pour identifier les nouveaux comptes créés par une personne condamnée. Comment y arriver, si chacun ne doit pas fournir son identité civile pour créer le moindre compte ?
Même logique encore contre les arnaques en ligne (phishing et autres) : une liste de sites identifiés à bloquer serait fournie par l’État et intégrée directement dans les navigateurs web. Un moyen parfait pour créer des listes à tout faire où se retrouveraient des sites à teneur politique ou contestataire.
Par ailleurs, le projet de loi ne propose aucune solution favorisant l’autogestion des contenus en ligne, comme l’interopérabilité des réseaux sociaux que nous défendons depuis plusieurs années. En permettant la création d’instances spécifiques, gérées par une communauté qui se dote de règles, elle permettrait pourtant aux internautes jeunes et vieux d’évoluer dans des espaces modérés où les contenus haineux et pédopornographiques seraient exclus, et au pire cantonnés à des espaces plus faciles à identifier et à isoler. La promotion des plateformes géantes entraîne le recours à des moyens massifs qui attentent aux droits du plus grand nombre.
Le texte présente enfin des mesures contre l’accès jugé trop facile des enfants et des jeunes à la pornographie en ligne. L’obligation faite aux sites depuis 2020 de filtrer l’entrée aux mineurs n’ayant rien changé, le projet de loi SREN introduit une nouvelle obligation de prouver son âge. Devoir faire usage de son identité civile pour naviguer sur Internet, voilà une nouveauté très dérangeante. Comme chaque point de cette loi mérite une analyse particulière, nous avons également publié le 19 septembre un article consacré à la question de l’accès au porno, écrit en partenariat avec l’association Act-Up.
Passé en commission des lois cette semaine, le projet de loi sera discuté en séance par l’Assemblée à partir du 4 octobre prochain.
Règlement CSAR : la fin des échanges confidentiels ?
Les instances de l’Union européenne travaillent en ce moment sur un projet de règlement contre la pédopornographie intitulé « Child Sexual Abuse Regulation » (CSAR) et souvent appelé « Chat control » par les acteurs européens. Idée forte du texte : pour lutter contre les violences sexuelles faites aux enfants, il est demandé aux hébergeurs de contenus en ligne de détecter les contenus pédopornographiques et de surveiller les conversations des utilisateurs.
En réalité, l’analyse des images postées par les utilisateurs de services en ligne existe déjà, pratiquée par Meta, envisagée par Apple, et encouragée à titre expérimental, pour 3 ans, par un précédent règlement européen de 2021. Le CSAR doit justement prendre le relais et inscrire cette obligation d’analyse et de filtrage dans le marbre. L’enjeu est colossal. Dans ce cadre comme dans celui de la loi SREN, la lutte contre la pédopornographie, totem inattaquable et légitime, justifie l’abolition de la confidentialité de tous les échanges en ligne.
Le pseudonymat, le chiffrement des échanges, le secret des correspondances, la vie privée qui va de pair avec la liberté d’expression, tout disparaît devant une seule cause élevée en absolu — et pour des résultats que des études et des services de police ne jugent même pas probants.
23 septembre : soirée de soutien aux inculpé·es du « 8 décembre » au Centre Paris Anim’ Montparnasse (Jardin Atlantique, 26 allée du Chef d’Escadron de Guillebon, 75014) — discussion à 16h avec L’Envolée et La Quadrature du Net, puis grand concert de 18h à 23h : https://www.agendamilitant.org/Concert-de-soutien-aux-inculpee-es-du-8-12.html.
25 septembre : discussion « Affaire du « 8 décembre » : antiterrorisme et criminalisation du chiffrement » à la Bourse du Travail à Paris (29 boulevard du Temple, 75003) — à partir de 19h avec La Quadrature du Net, le SNJ, N0thing to Hide et les avocats des inculpé·es.
du 28 septembre au 1er octobre : deuxième édition du Festival Technopolice à Marseille ! Films, ateliers et débats, toutes les infos ici : https://technopolice.fr/festival-2023/.
28 septembre : rencontre avec Félix Tréguer à 18h à la librairie L’Hydre aux mille têtes à Marseille (96 rue Saint-Savournin, 13001) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
29 septembre : apéro mensuel au Garage (115 rue de Ménilmontant, 75020 Paris) à partir de 19h : apportez un petit truc à manger ou à boire si vous pouvez et venez discuter avec nous !
6 octobre : rencontre avec Félix Tréguer à 19h à la librairie Le Monte-en-l’air à Paris (2 rue de la Mare, 75020) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
";s:7:"dateiso";s:15:"20230922_181956";}s:15:"20230919_111614";a:7:{s:5:"title";s:85:"Projet de loi SREN et accès au porno : identifier les internautes ne résoudra rien";s:4:"link";s:121:"https://www.laquadrature.net/2023/09/19/projet-de-loi-sren-et-acces-au-porno-identifier-les-internautes-ne-resoudra-rien/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21195";s:7:"pubDate";s:31:"Tue, 19 Sep 2023 09:16:14 +0000";s:11:"description";s:278:"Article co-écrit par La Quadrature du Net et Act Up-Paris.
Parmi les nombreuses mesures du projet de loi visant à sécuriser et réguler l’espace numérique (« SREN » ou « Espace numérique ») figurent deux articles qui renforcent le contrôle…";s:7:"content";s:41235:"
Parmi les nombreuses mesures du projet de loi visant à sécuriser et réguler l’espace numérique (« SREN » ou « Espace numérique ») figurent deux articles qui renforcent le contrôle des sites proposant du contenu à caractère pornographique, en leur imposant de vérifier l’âge des internautes pour bloquer l’accès aux mineur·es. Nous revenons, La Quadrature du Net et Act Up-Paris, sur cette mesure et ses dangers (voir aussi l’analyse globale de La Quadrature sur le projet de loi SREN).
Vérification de l’âge et blocage
À l’été 2020, la loi n° 2020-936 a renforcé les obligations pesant sur les sites proposant du contenu à caractère pornographique afin d’empêcher les mineur·es d’accéder à ces derniers. D’une part, elle a renforcé le délit que commet un site à caractère pornographique s’il est accessible à un·e mineur·e : demander à l’internaute de déclarer sur l’honneur qu’il ou elle est majeur·e ne suffit pas. D’autre part, cette loi a introduit une obligation pour ces sites de recourir à des dispositifs de vérification de l’âge des internautes. La sanction en cas d’absence de vérification de l’âge est la censure. L’Arcom, autorité née de la fusion entre le CSA et la Hadopi, est chargée de mettre en demeure les sites ne vérifiant pas correctement l’âge des internautes, puis de saisir la justice pour les faire censurer si les mises en demeures sont restées sans effet.
À l’époque, La Quadrature constatait que, encore une fois, les élu·es n’avaient rien compris à ce qu’est Internet. Vouloir mettre en place une obligation de vérifier l’âge des internautes en empêchant la seule technique respectueuse des libertés fondamentales qu’est l’auto-déclaration de l’internaute revient à supprimer le droit à l’anonymat en ligne. Act Up-Paris s’était prononcée également contre de tels procédés de censure, contre-productifs tant pour protéger les mineur·es de l’exposition aux contenus pornographiques que pour l’indépendance des travailleur·ses du sexe.
Le projet de loi SREN actuellement débattu à l’Assemblée montre que le gouvernement et les élu·es qui soutiennent ce texte n’ont toujours pas compris le fonctionnement d’Internet et les enjeux en termes de libertés fondamentales. En effet, à ses articles 1er et 2, ce texte va encore plus loin dans l’obligation de vérifier l’âge des internautes qui souhaiteraient accéder à un site à caractère pornographique : si ces deux articles étaient votés en l’état, l’Arcom pourrait imposer aux plateformes ses propres choix techniques pour vérifier l’âge (à travers l’édiction d’un référentiel), puis censurer elle-même, sans passer par un juge, les sites qui ne se plieraient pas à ses exigences (par des injonctions de blocage et de déréférencement).
Contourner le juge
Ce projet de loi prévoit deux contournements du juge : celui-ci ne décidera plus du bien-fondé d’une censure avant que celle-ci ne soit prononcée, et il ne décidera plus de la manière de procéder à la vérification de l’âge.
En effet, premièrement, le ministre Jean-Noël Barrot à l’origine de ce projet de loi ne cache pas que l’objectif est de ne plus attendre la justice pour censurer les sites : le projet de loi confie, dans son article 2, le soin à l’Arcom de censurer elle-même les sites, au lieu de passer par la justice, dans un mouvement de défiance envers cette dernière. M. Barrot justifiait ainsi devant le Sénat le rôle du référentiel qu’édictera l’Arcom : « En réalité, le référentiel vient sécuriser la capacité de l’Arcom à ordonner le blocage et le déréférencement. Et puisque nous prévoyons dans les articles 1er et 2 d’aller beaucoup plus vite, en contournant la procédure judiciaire, pour procéder à ce blocage, il faut que nous puissions fixer, à tout le moins, les conditions dans lesquelles le blocage et le déréférencement puissent être prononcés par l’Arcom. »
Le ministre a admis également dans la presse que ce mécanisme pourrait parfaitement conduire à censurer des réseaux sociaux comme Twitter. En effet, censurer Twitter est une demande récurrente de certaines associations de protection de l’enfance qui avaient formellement saisi l’année dernière l’Arcom afin qu’elle obtienne le blocage judiciaire du réseau social. Pourtant, à notre connaissance, l’autorité n’a jamais fait droit à cette demande, très certainement parce qu’une telle censure serait refusée par la justice. Demain, si ce texte passait, l’autorité pourrait exiger directement le blocage d’un réseau social comme Twitter, d’autant plus que le gouvernement l’y incite.
Deuxièmement, le contournement du juge réside également dans les règles qui s’appliqueront aux sites pour vérifier l’âge. En effet, l’Arcom sera chargée d’établir un référentiel pour déterminer les caractéristiques obligatoires de la vérification de l’âge. Aujourd’hui, en l’absence de précision dans la loi, c’est le juge qui, lorsqu’il est saisi d’une demande de l’Arcom de censure d’un site, regarde si la vérification de l’âge est techniquement possible et décide de prononcer ou non une censure en fonction des outils disponibles et des conséquences pour les droits fondamentaux. Mais demain, ce sera l’Arcom qui décidera de comment procéder à cette vérification1On relèvera également le grand risque d’inconstitutionnalité de ce nouveau pouvoir accordé à l’Arcom. Depuis une décision de 1989, le Conseil constitutionnel considère que, s’il est possible de confier à une autorité administrative un pouvoir réglementaire, c’est-à-dire un pouvoir d’édicter des règles contraignantes, celui-ci ne peut porter que sur « des mesures de portée limitée tant par leur champ d’application que par leur contenu ». En l’espèce, le Conseil constitutionnel avait censuré des dispositions qui confiaient au CSA le soin d’édicter des règles générales qui devaient s’imposer aux personnes régulées. Cette jurisprudence s’oppose donc également à ce que le référentiel que l’Arcom devra établir soit édicté par l’autorité elle-même.. Ce référentiel s’imposera aux sites, qui n’auront pas d’autre choix que de s’y conformer sous peine d’être censuré, même si cela aurait des conséquences dramatiques pour les libertés fondamentales.
Ce contournement du juge est particulièrement inquiétant dans un État de droit. La justice est vue par le gouvernement comme un frein, un obstacle qu’il faudrait « contourner ». Pour le ministre, la fin justifie les moyens : parce que la justice est considérée comme trop lente, elle doit être contournée. Les mêmes dangers pour les libertés que dans le reste des cas de censure administrative se poseront ici : la justice pourra toujours se prononcer sur le bien-fondé d’une censure, mais une fois seulement que celle-ci sera mise en place. Agir d’abord, réfléchir ensuite.
Surveillance automatisée des contenus et risques de sur-censure
À première vue, on serait tenté de se dire que l’obligation de vérification de l’âge pour les sites proposant du contenu pornographique n’est pas très grave car elle est limitée. Mais comme on l’a dit juste avant, les réseaux sociaux seront eux aussi concernés.
Pour une plateforme dont l’objet principal est de proposer du contenu à caractère pornographique, l’étendue de cette obligation de vérifier l’âge des internautes est facile à déterminer : avant l’accès à la moindre page de ces sites, la vérification de l’âge devra être faite. Mais il est beaucoup plus difficile pour un site dont l’objet principal n’est pas de proposer un tel contenu, notamment les réseaux sociaux, de distinguer ce qui relèverait de la pornographie ou non.
L’obligation de vérifier l’âge des internautes avant d’accéder à un contenu pornographique va donc, de fait, imposer aux plateformes de réseaux sociaux d’analyser automatiquement tous les contenus que publieraient leurs utilisateur·rices afin de déterminer les contenus à caractère pornographique, pour activer la vérification de l’âge quand cela sera nécessaire. Une analyse humaine n’est en effet pas envisageable en raison de la masse à traiter. Et comme la responsabilité repose sur les plateformes, elles seront nécessairement incitées à englober des contenus qui ne relèvent pas de la pornographie, dans le doute et par crainte d’une sanction pénale et d’une censure administrative2Une telle obligation de surveillance généralisée des contenus est radicalement contraire au droit européen puisque la directive e-commerce précise à son article 15 que « les États membres ne doivent pas imposer aux prestataires (…) une obligation générale de surveiller les informations qu’ils transmettent ou stockent »..
Le résultat sera catastrophique car les plateformes censureront par exemple les contenus de prévention en santé sexuelle. En effet, aujourd’hui, des associations de santé comme le Projet Jasmine de Médecins du Monde font des maraudes virtuelles pour toucher les travailleur·ses du sexe les plus éloigné·es de l’accès au soin. D’autres, comme Grisélidis, effectuent des maraudes en ligne sur les applications pour toucher les personnes mineur·es qui se prostituent. Or, ces différentes actions, qui visent à accompagner et aider ces personnes, seront impactées par cette censure. Aujourd’hui déjà, les campagnes de santé sexuelle sont limitées car les algorithmes invisibilisent tout ce qui touche aux sexualités : la simple mention du mot « sexe » fait perdre de la visibilité aux contenus en ligne et la nudité est censurée (voir par exemple la censure par Meta d’une une de Télérama contre la grossophobie, ou la censure d’une campagne de prévention d’Act-Up Paris). Le public que ces associations tentent d’aider subit aujourd’hui déjà des suppression de comptes sur les réseaux sociaux, et ce projet de loi aggravera cela. Le principal risque pour les associations de santé communautaire est de perdre le contact avec ces personnes particulièrement vulnérables.
Fin de l’anonymat en ligne
Enfin, de manière encore plus grave, cette vérification de l’âge implique la fin de l’anonymat en ligne. On rappellera que le principe est le droit à l’anonymat en ligne, qui est protégé tant par le droit de l’Union européenne3Le considérant 14 de la directive e-commerce précise que « La présente directive ne peut pas empêcher l’utilisation anonyme de réseaux ouverts tels qu’Internet. » La CJUE rattache également ce droit à naviguer anonymement sur Internet aux articles 7 (droit à la vie privée) et 8 (droit à la protection des données personnelles) de la Charte UE des droits fondamentaux : « Ainsi, en adoptant cette directive [e-privacy n° 2002/58], le législateur de l’Union a concrétisé les droits consacrés aux articles 7 et 8 de la Charte, de telle sorte que les utilisateurs des moyens de communications électroniques sont en droit de s’attendre, en principe, à ce que leurs communications et les données y afférentes restent, en l’absence de leur consentement, anonymes et ne puissent pas faire l’objet d’un enregistrement. » (CJUE, gr. ch., 6 octobre 2020, La Quadrature du Net e.a., aff. C-511/18, C-512/18 et C-520/18, pt. 109). Par ailleurs, la CJUE parle d’anonymat, et non de pseudonymat. que par la Convention européenne de sauvegarde des libertés fondamentales (CESDH)4La Cour européenne des droits de l’Homme (CEDH) considère, au visa de l’article 10 de la CESDH qui protège le droit à la liberté d’expression, qu’il existe un principe de droit à l’anonymat sur Internet (CEDH, gr. ch., 16 juin 2015, Delfi AS c. Estonie, n° 64569/09, § 147). Ce droit à l’anonymat est également issu du droit à la vie privée de la CEDH puisque la Cour considère qu’un internaute conserve une attente raisonnable relative au respect de sa vie privée lorsque son adresse IP est traitée lors de sa navigation en ligne, alors même que l’adresse IP est, dans ce contexte, une donnée personnelle rendue publique par la navigation (CEDH, 24 avril 2018, Benedik c. Slovénie, n° 62357/14, §§ 100–119).. Or, le projet de loi SREN remet directement en cause ce principe en ligne.
Le texte ne dit pas comment la vérification de l’âge devra se faire : c’est sur l’Arcom, lorsqu’elle édictera son référentiel, que reposera cette mission. Il existe plusieurs manières de vérifier l’âge en ligne. La plupart sont relativement peu fiables et constitueraient de graves atteintes aux libertés fondamentales (analyse biométrique du visage, analyse de l’historique, utilisation d’une carte bancaire, envoi de sa carte d’identité au site). Il existe également une manière non-fiable mais qui offre l’avantage de ne pas créer d’atteinte disproportionnée aux libertés : l’auto-déclaration par l’internaute. Mais le législateur a explicitement écarté cette dernière en 2020.
La solution qui revient régulièrement, parce qu’elle serait la moins mauvaise solution, est l’identité numérique et on peut s’attendre à ce que l’Arcom s’oriente vers cette solution dans son référentiel. L’identité numérique consiste à s’identifier en ligne à l’aide d’un service autre. Les GAFAM ont leur système d’identité numérique (par exemple Google qui permet de s’identifier sur un site tiers à l’aide du compte Google de l’internaute), l’État également (avec ses services FranceConnect et France Identité). Or, l’identité numérique, si elle est bien implémentée via un tiers de confiance, permet de limiter les informations traitées. Comme le relevait le laboratoire d’innovation numérique de la CNIL (le LINC), passer par un tiers de confiance qui sera chargé de vérifier l’âge pour le compte d’un site internet permet à ce dernier de ne pas connaître l’identité de l’internaute. Avec ce mécanisme, l’internaute se connecte à ce tiers de confiance à l’aide d’une identité numérique d’État pour justifier de son identité donc de son âge. Puis le tiers de confiance délivre un certificat de majorité (aussi appelé ici « jeton » ou « token ») à l’internaute. Enfin, l’internaute transmet au site ce certificat pour prouver qu’il ou elle a 18 ans ou plus. Concrètement, cela prend la forme d’une page de connexion sur la plateforme du tiers de confiance et la transmission du certificat est effectuée automatiquement par le navigateur de l’internaute vers le site qui demande la majorité.
Cette solution, parfois appelée « en double aveugle », a beau être la moins mauvaise, elle reste dangereuse. Certes, le site qui doit vérifier l’âge de l’internaute ne connaît pas son identité réelle (mais seulement s’il a 18 ans ou plus) et le tiers de confiance ne sait pas sur quel site l’internaute se connecte (parce que le certificat de majorité n’est pas présenté directement par le tiers de confiance au site). En revanche, une telle solution implique nécessairement de devoir justifier de son identité à un moment avant de pouvoir accéder à un service en ligne : même si l’internaute ne se connecte pas directement auprès du site voulant vérifier l’âge, il devra justifier de son identité auprès d’un tiers. L’anonymat n’est plus possible si un site impose à ses internautes de s’identifier pour vérifier leur âge. Dit autrement, lorsque le législateur impose de vérifier l’age des internautes, il empêche fatalement tout anonymat en ligne.
Et cette affirmation est d’autant plus vraie que d’autres mesures voulues par la majorité impliquent de vérifier l’âge au-delà des contenus à caractère pornographique.
Interdire, interdire, interdire
Comme La Quadrature du Net le relevait, la vérification de l’identité des internautes avant d’accéder à du contenu à caractère pornographique s’insère dans une série de prises de positions et de lois en défaveur de l’anonymat en ligne. En juillet, le Parlement a adopté une proposition de loi Horizons qui instaure une « majorité numérique ». Cette loi veut imposer aux plateformes en ligne5Le texte parle de « réseaux sociaux » mais la définition est tellement large qu’elle englobe également les messageries interpersonnelles ou les sites ayant un espace de discussion, comme par exemple n’importe quel blog en ligne : « On entend par service de réseaux sociaux en ligne toute plateforme permettant aux utilisateurs finaux de se connecter et de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils, en particulier au moyen de conversations en ligne, de publications, de vidéos et de recommandations. » d’empêcher leurs utilisateur·rices de moins de 13 ans de se créer un compte, de s’assurer que celles et ceux ayant entre 13 et 15 ans ont bien l’accord de leurs parents, et, pour les mineur·es entre 15 et 18 ans de permettre à leurs parents de suspendre a posteriori leur compte sans avoir à se justifier. Heureusement que la rapporteure du texte au Sénat a torpillé la loi en soumettant son entrée en vigueur au feu vert de la Commission européenne qui ne devrait jamais être donné6Dans une affaire pendante devant la Cour de justice de l’Union européenne (CJUE) concernant les obligations de modération qui s’imposent aux plateformes, l’avocat général (magistrat chargé de rentre un avis à la Cour sur l’affaire) a estimé qu’un État membre ne peut imposer à une plateforme en ligne une obligation générale qui n’est pas prévue par le droit de l’UE. Autrement dit, si la Cour suivait son avocat général (elle n’est pas obligée mais le suit malgré tout très souvent), les obligations de vérifier l’âge des internautes seraient contraires au droit de l’UE car elles constitueraient une obligation supplémentaire qui n’est pas prévue par le droit de l’UE.. En revanche, cette tentative législative montre bien que le législateur est prêt à généraliser le contrôle de l’identité en ligne, parce que pour lui la solution aux problèmes ne peut résider que dans l’interdiction : interdire le porno et les réseaux sociaux aux mineurs, voire peut-être demain également les VPN. Parce que pourquoi pas.
L’art de passer à côté du vrai problème
Sous couvert de réguler les plateformes, le gouvernement évite soigneusement de répondre au problème de l’éducation sexuelle des enfants. Encore une fois, il préfère agir sur les conséquences (l’accès aux contenus à caractère pornographique par les mineur·es) plutôt que de s’occuper du fond du problème, qui est l’échec de l’éducation sexuelle en France.
Il y a un an, le Haut Conseil à l’égalité entre les femmes et les hommes (HCE) tirait la sonnette d’alarme sur le sexisme à l’école. Il notait que, loin d’être un lieu d’éducation des enfants aux questions d’égalité de genre, l’école, au contraire, « entretient et amplifie les stéréotypes de sexe ». S’il relève également que l’accès à la pornographie peut être une des raisons de la culture du viol prégnante (bien que celle-ci ne soit pas propre aux pornographies mais se diffuse dans toutes les strates de la société), il ne préconise pas la censure des sites. Au contraire, le HCE presse les pouvoirs publics de s’attaquer à la racine du problème à l’école : les enseignements obligatoires à la sexualité ne sont pas assurés, le harcèlement, le cyberharcèlement et les violences en ligne ne sont pas traitées à la hauteur des enjeux, il n’existe pas d’obligation de justes représentation et proportion de figures féminines dans les manuels, programmes scolaires et sujets d’examen. En effet, seul·es 15 % des élèves bénéficient des trois séances d’éducation à la sexualité obligatoires pendant l’année scolaire jusqu’à la fin du lycée alors même qu’elles sont prévues dans la loi depuis 2001. Cette carence grave de l’éducation nationale a récemment conduit les associations Sidaction, Planning Familial et SOS Homophobie à saisir la justice pour faire appliquer la loi. Or, comme le rappellent ces associations, « l’éducation à la sexualité, c’est donc moins de grossesses non désirées, moins d’IST, moins de VIH, moins de violences sexistes et sexuelles, moins de discriminations et de violences LGBTIphobes, plus de consentement, plus de comportements responsables, plus d’autonomie, plus de respect de soi même et de l’autre, plus de confiance en soi, plus d’égalité entre les femmes et les hommes ». Le Défenseur des droits faisait le même constat en 2021 de la nécessité d’accompagner et d’aider les enfants au lieu de leur rajouter de nouvelles interdictions : « Il est par ailleurs nécessaire de déployer la prévention à l’école, afin de mieux protéger les enfants de l’exposition précoce à la pornographie. Il convient également de renforcer les campagnes de sensibilisation auprès des enfants, adolescents et de leurs familles (éducation à la vie affective, relationnelle et sexuelle[…]) ».
En définitive, le projet de loi SREN est une énième opération de marketing électoral. Non seulement il ne résoudra rien aux problèmes qu’il prétend vouloir régler, mais en plus il signifierait la fin de l’anonymat en ligne. Cette dernière est une vieille demande de la droite française et le symptôme d’une classe politique qui ne comprend toujours pas ce qu’est Internet. Le rejet des articles 1er et 2 du projet de loi est nécessaire. Ils ne sont pas seulement contraires aux droits fondamentaux, ils feraient sauter la digue de l’anonymat en ligne, pourtant cruciale pour beaucoup de personnes, et feraient entrer encore un peu plus la France dans le club des États autoritaires. Alors n’hésitez pas à nous aider dans notre lutte, en faisant un don à Act-Up Paris ou à La Quadrature du Net et en parlant de ces sujets autour de vous.
On relèvera également le grand risque d’inconstitutionnalité de ce nouveau pouvoir accordé à l’Arcom. Depuis une décision de 1989, le Conseil constitutionnel considère que, s’il est possible de confier à une autorité administrative un pouvoir réglementaire, c’est-à-dire un pouvoir d’édicter des règles contraignantes, celui-ci ne peut porter que sur « des mesures de portée limitée tant par leur champ d’application que par leur contenu ». En l’espèce, le Conseil constitutionnel avait censuré des dispositions qui confiaient au CSA le soin d’édicter des règles générales qui devaient s’imposer aux personnes régulées. Cette jurisprudence s’oppose donc également à ce que le référentiel que l’Arcom devra établir soit édicté par l’autorité elle-même.
Une telle obligation de surveillance généralisée des contenus est radicalement contraire au droit européen puisque la directive e-commerce précise à son article 15 que « les États membres ne doivent pas imposer aux prestataires (…) une obligation générale de surveiller les informations qu’ils transmettent ou stockent ».
Le considérant 14 de la directive e-commerce précise que « La présente directive ne peut pas empêcher l’utilisation anonyme de réseaux ouverts tels qu’Internet. » La CJUE rattache également ce droit à naviguer anonymement sur Internet aux articles 7 (droit à la vie privée) et 8 (droit à la protection des données personnelles) de la Charte UE des droits fondamentaux : « Ainsi, en adoptant cette directive [e-privacy n° 2002/58], le législateur de l’Union a concrétisé les droits consacrés aux articles 7 et 8 de la Charte, de telle sorte que les utilisateurs des moyens de communications électroniques sont en droit de s’attendre, en principe, à ce que leurs communications et les données y afférentes restent, en l’absence de leur consentement, anonymes et ne puissent pas faire l’objet d’un enregistrement. » (CJUE, gr. ch., 6 octobre 2020, La Quadrature du Net e.a., aff. C-511/18, C-512/18 et C-520/18, pt. 109). Par ailleurs, la CJUE parle d’anonymat, et non de pseudonymat.
La Cour européenne des droits de l’Homme (CEDH) considère, au visa de l’article 10 de la CESDH qui protège le droit à la liberté d’expression, qu’il existe un principe de droit à l’anonymat sur Internet (CEDH, gr. ch., 16 juin 2015, Delfi AS c. Estonie, n° 64569/09, § 147). Ce droit à l’anonymat est également issu du droit à la vie privée de la CEDH puisque la Cour considère qu’un internaute conserve une attente raisonnable relative au respect de sa vie privée lorsque son adresse IP est traitée lors de sa navigation en ligne, alors même que l’adresse IP est, dans ce contexte, une donnée personnelle rendue publique par la navigation (CEDH, 24 avril 2018, Benedik c. Slovénie, n° 62357/14, §§ 100–119).
Le texte parle de « réseaux sociaux » mais la définition est tellement large qu’elle englobe également les messageries interpersonnelles ou les sites ayant un espace de discussion, comme par exemple n’importe quel blog en ligne : « On entend par service de réseaux sociaux en ligne toute plateforme permettant aux utilisateurs finaux de se connecter et de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils, en particulier au moyen de conversations en ligne, de publications, de vidéos et de recommandations. »
Dans une affaire pendante devant la Cour de justice de l’Union européenne (CJUE) concernant les obligations de modération qui s’imposent aux plateformes, l’avocat général (magistrat chargé de rentre un avis à la Cour sur l’affaire) a estimé qu’un État membre ne peut imposer à une plateforme en ligne une obligation générale qui n’est pas prévue par le droit de l’UE. Autrement dit, si la Cour suivait son avocat général (elle n’est pas obligée mais le suit malgré tout très souvent), les obligations de vérifier l’âge des internautes seraient contraires au droit de l’UE car elles constitueraient une obligation supplémentaire qui n’est pas prévue par le droit de l’UE.
";s:7:"dateiso";s:15:"20230919_111614";}s:15:"20230918_153444";a:7:{s:5:"title";s:88:"Règlement CSAR : la surveillance de nos communications se joue maintenant à Bruxelles";s:4:"link";s:124:"https://www.laquadrature.net/2023/09/18/reglement-csar-la-surveillance-de-nos-communications-se-joue-maintenant-a-bruxelles/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21184";s:7:"pubDate";s:31:"Mon, 18 Sep 2023 13:34:44 +0000";s:11:"description";s:250:"Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les…";s:7:"content";s:29804:"
Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les abus sexuels sur les enfants, cette proposition vise en réalité à créer un outil inédit de surveillance des communications. Dès le dépôt de ce projet de règlement, partout en Europe, associations et expert·es se sont insurgé·es contre cette initiative car elle reviendrait à mettre fin au chiffrement des communications. Aujourd’hui, bien que les critiques sont aujourd’hui plus nombreuses encore, les discussions avancent rapidement à Bruxelles, laissant présager une adoption très prochaine du texte. Afin de comprendre ses enjeux et aider à renforcer la mobilisation, nous revenons sur le contenu de ce règlement qui pourrait signer la fin de toute confidentialité des échanges en ligne.
La genèse du projet
Le 11 mai 2022, la Commission européenne lâchait une bombe dans le monde du numérique en publiant sa proposition de règlement « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants ». Dénommé « Chat control » ou « CSAR » (pour « Child sexual abuse regulation »), ce texte vise à obliger les fournisseurs de contenus en ligne à détecter des contenus d’abus sexuels de mineurs en analysant les conversations de leurs utilisateur·ices.
Cette initiative s’inspire d’outils mis en œuvre depuis plusieurs années par les grandes entreprises du web. Meta, par exemple, analyse de façon proactive l’ensemble des messages échangés sur Facebook Messenger ainsi que les données non chiffrées de Whatsapp (photos de profil ou groupe, descriptions, …) en vue de détecter des images connues d’exploitation d’enfants. En 2021, Apple annonçait mettre en place un outil d’analyse des données de ses clients hébergées sur iCloud afin de les comparer à une base de données de contenus signalés comme liés à de la pédopornographie, tout comme Microsoft qui a développé l’outil de comparaison PhotoDNA.
Dès 2020, la Commission avait commencé à laisser présager son appétence pour ce type d’outils dans sa « stratégie de lutte contre les abus sexuels commis contre les enfants » qui a débouché en 2021 sur l’adoption d’un règlement sur le sujet. Celui-ci autorisait, de façon temporaire pendant trois ans, les services de communication électronique à faire de l’analyse de contenus en vue de détecter ceux liés à ce type d’abus. Si cette possibilité était facultative et devait reposer sur leurs conditions générales, une telle inscription formelle dans la loi légitimait néanmoins les initiatives et techniques de surveillance des grandes plateformes, renforçant par là même leur pouvoir hégémonique, sans qu’aucune évaluation de la pertinence de ces méthodes ne soit par ailleurs réalisée.
Cette autorisation prend fin en 2024 et c’est pour cette raison que le CSAR a été proposé. Mais contrairement au règlement temporaire qui ne faisait que l’autoriser, ce projet de règlement impose de façon obligatoire la détection de ces contenus pédopornographiques sous certaines conditions, mettant donc fin à toute forme de confidentialité. Depuis le début des discussions il y a un an et demi, le réseau européen EDRi, dont La Quadrature du Net fait partie, a fourni un travail d’analyse considérable sur ce texte, que vous pouvez retrouver dans leur « position paper » ou, de façon plus condensée, dans leur brochure (en anglais). Nous vous résumons ici les principaux enjeux autour de ce règlement.
Le contenu du règlement
Le règlement CSAR vise à s’appliquer à un nombre très important d’acteurs. Entrent ainsi dans le champ d’application tous les « fournisseurs de services de communications interpersonnelles », c’est-à-dire les messageries en ligne telles que Signal, Whatsapp ou Telegram, les fournisseurs de mail, les applications de rencontre mais également les messageries qui ne sont qu’une fonction accessoire à d’autres services, comme dans les jeux par exemple. Rentrent également dans le champ d’application les « fournisseurs de services d’hébergement » tels que NextCloud, iCloud, DropBox ou les hébergeurs associatifs des CHATONS, les boutiques d’applications ainsi que les réseaux sociaux.
Ces fournisseurs seraient contraints à mettre en œuvre une surveillance considérable de leurs utilisateur·ices. D’une part, les articles 3 et 4 prévoient qu’ils obéissent à une obligation d’évaluer et réduire au maximum les risques de partage de contenus pédopornographiques sur les services concernés. Cela impliquerait de fournir, via une étude d’impact, des éléments sur le fonctionnement et l’usage de leur outil afin de théoriquement anticiper les risques pour identifier les mesures d’atténuation correspondantes. Les fournisseurs devraient ainsi être en capacité de donner des informations sur quel type d’utilisateur·rice (personne majeure, mineure..) utilisent leur service et quel type de contenu (vidéo, texte..) y sont échangés. Cette obligation est pourtant incompatible avec un des principes de base de respect de la vie privée sur lesquels repose le fonctionnement de nombreux services : l’absence de collecte de ce type de données personnelles. Ces prestataires seraient alors dans une position intenable car, pour se conformer à cette nouvelle réglementation, ils devront changer de modèle et commencer à recueillir des informations qu’aujourd’hui ils ne possèdent pas. Le règlement CSAR reviendrait pour eux à abandonner leur promesse de confidentialité, garantie notamment par le recours au chiffrement et l’anonymisation de données.
En outre, l’article 6 du CSAR préconise que les fournisseurs aient recours à des solutions de vérification d’âge pour remplir cet objectif de réduction des risques. Or, non seulement aucun outil viable et respectueux de la vie privée n’existe réellement à ce jour mais, surtout, le recours à ce genre de solution pose de sérieux problèmes quant à la protection de l’anonymat en ligne, comme nous le rappelions récemment dans notre analyse de la loi française SREN. Au final, le texte pousse pour privilégier la mise en place de mesures coercitives et remet frontalement en cause le droit à la vie privée.
D’autre part, ces acteurs auront l’obligation de répondre à toute « injonction de détection » émise par un juge ou une autorité administrative. Ainsi, les articles 7 à 11 prévoient que, s’il existe « un risque important que le service soit utilisé à des fins d’abus sexuels sur enfants en ligne », les fournisseurs pourront se voir obligés d’installer au cœur même de leur application ou infrastructure des outils leur permettant de scanner les données qui y transitent, afin d’y détecter de potentiels contenus liés aux abus sexuels d’enfants.
Plus précisément les fournisseurs devront repérer trois types de données :
Des contenus « connus » c’est-à-dire des images ou des vidéos déjà répertoriées par les autorités comme liées à de la pédopornographie ou des abus sexuels d’enfants.
Des contenus « inconnus » c’est-à-dire des photos ou vidéos susceptibles de constituer de la pédopornographie, mais qui n’auraient pas été identifiées comme telles. Pour trouver ces contenus, les services devront utiliser des outils fondés sur de l’intelligence artificielle qui identifieront des corrélations entre les contenus partagés et des indicateurs prédéfinis (par exemple de la peau nue).
Des activités consistant à solliciter des enfants (appelé « pédopiégeage »). Il s’agit de détecter des comportements « types » de personnes qui rentrent en contact avec des enfants, à nouveau à partir de modèles statistiques et probabilistes fondés sur de l’intelligence artificielle.
Concrètement, il s’agira de mettre en œuvre une technique de « client side scanning » (littéralement « analyse côté client »), c’est-à-dire analyser directement sur les appareils des utilisateur·ices les données qui y transitent. Lorsqu’un internaute enverra un message ou postera une publication via un des services concernés par une injonction, ce contenu sera analysé avant envoi. Plus précisément, ce sont des « hash », c’est-à-dire des empreintes numériques liées aux images, qui seront examinées. Ce hash sera alors comparé à une base de données déjà constituée de contenus relatifs à des abus sexuels d’enfants. Si le hash correspond avec une photo de la base, une alerte est déclenchée. Dans le cas contraire, cela signifie que le contenu doit être qualifié d’« inconnu » et un outil d’analyse supplémentaire vérifiera alors s’il existe des corrélations ou similitudes avec des contenus d’abus sexuels pour déclencher une alerte le cas échéant.
Le cheval de Troie de la Commission : vers la fin du chiffrement
En affichant l’objectif de protéger les enfants, l’Union européenne tente en réalité d’introduire une capacité de contrôle gigantesque de l’ensemble des vies numériques, concrétisant le rêve de surveillance de tout gouvernement. Ce texte a fait l’objet de tant de réactions qu’EDRi se demande si le CSAR ne serait pas la loi européenne la plus critiquée de tous les temps. Les critiques contre ce texte viennent des institutions européennes elles-mêmes, mais aussi d’organisations de défense des enfants en passant par les acteurs de la tech, ainsi que de scientifiques et chercheur·es où 465 d’entre eux ont signé une lettre contre cette proposition. Et à raison.
Sur le plan technique, il faut comprendre que les injonctions de détections obligent les fournisseurs à analyser toutes les communications de l’ensemble des utilisateur·ices des services concernés. Et puisque les messages sont alors analysés avant d’être envoyés à leurs destinataires, cela supprime non seulement toute confidentialité mais cela rendra également inutile toute technique de chiffrement appliquée ultérieurement, c’est-à-dire une fois que le message à quitté l’appareil de l’utilisateur·ice. L’objectif premier du chiffrement est d’empêcher un tiers de lire le message. Le CSAR vise pourtant précisément à permettre une telle lecture tierce. De même, la recherche de photo ou vidéo « inconnue » est totalement inacceptable. En pratique, le risque de « faux positifs » est énorme et cela signifie que pourraient faire l’objet d’une alerte des contenus tout à fait légitimes tels le corps d’adulte d’apparence trop juvénile, une photo d’enfant envoyée dans un cadre familial ou encore des ados échangeant de façon consentante.
Enfin, appliqué au cas particulier de la détection de contenus pédopornographiques, envisager la constitution et l’utilisation d’une telle base de données ne prend pas en compte la réalité des humains devant la manipuler, l’alimenter, et qui seront confrontés à des contenus difficiles quotidiennement. Sans parler du fait que les images des enfants victimes seront conservées pour « améliorer » l’efficacité de ces outils.
Non seulement le CSAR crée des obligations disproportionnées et implique des techniques extrêmement intrusives, mais surtout ces mesures sont loin d’être pertinentes pour atteindre l’objectif crucial de protection des enfants et de lutte contre les abus sexuels. En effet, aucune étude sérieuse n’a été fournie sur l’adéquation, la fiabilité ou la pertinence de telles mesures extrêmement intrusives. Au contraire, il a été révélé par l’association allemande Gesellschaft für Freiheitsrechte que la Commission fondait sa proposition sur les seules allégations de l’industrie, particulièrement la fondation Thorn et Meta, pour justifier ce projet de règlement. Des institutions policières et judiciaires, comme en Allemagne par exemple, ont elles aussi exprimé leurs réserves sur l’utilité de ces dispositifs pour leurs enquêtes dès lors que cela ne répond pas aux problématiques qu’ils rencontrent au quotidien.
Par ailleurs, depuis le début de la campagne contre ce texte, beaucoup de ressources ont été produites pour démontrer que la protection des enfants contre les abus passait principalement par des politiques de prévention ou d’éducation et que toute éventuelle réponse pénale devait être encadrée par des mesures ciblées et fondées sur des preuves tangibles. Comment a-t-on pu alors en arriver là ?
La tentation autoritaire des États
Cette proposition législative est une solution largement conçue par l’industrie, et ensuite généralisée par les élites politiques qui illustrent ainsi une nouvelle fois leur absurde propension au « solutionnisme technologique » et au renforcement de la surveillance numérique. Pour rendre acceptable ces mesures de surveillance, elles affichent un objectif qui fait l’unanimité. Mais tout le monde sait que la stratégie consiste avant tout à affaiblir le niveau de sécurité et de confidentialité des communications numériques. Depuis les crypto-wars des années 1990, un certain nombre d’États affirment que les technologies protégeant la vie privée, et principalement le chiffrement des communications, sont un obstacle aux enquêtes policières. De fait, ces technologies sont conçues pour cela, puisque c’est à cette condition qu’elle garantissent à toutes et tous la possibilité de contrôler nos modes d’expression et de communication. L’une des plus importantes conséquences des révélations du lanceur d’alerte de la NSA Edward Snowden, il y a dix ans, fut justement une démocratisation de la pratique du chiffrement et, à l’époque, l’établissement d’un relatif consensus en faveur du droit au chiffrement au plan institutionnel. Mais police et gouvernements sont gênés, et l’on assiste depuis plusieurs années au retour de positionnements autoritaires de dirigeants prenant tour à tour l’excuse du terrorisme, de la criminalité organisée et de la pédopornographie pour obtenir sa remise en cause.
En France, aussi bien Bernard Cazeneuve qu’Emmanuel Macron ont déjà affirmé leur volonté de contrôler les messageries chiffrées, rêvant ainsi de percer l’intimité des millions de personnes qui les utilisent. Au cours d’une audition devant le Sénat le 5 avril dernier, Gérald Darmanin a expressément demandé pouvoir casser le chiffrement des militant·es écologistes et de « l’ultragauche », qui auraient une « culture du clandestin ». Aussi avons-nous récemment exposé comment, dans l’affaire dite du « 8 décembre », les services de renseignement et de police ont construit une narration similaire autour de l’utilisation d’outils respectueux de la vie privée par les personnes inculpées (Signal, Tor, Tails…), afin de dessiner le portrait de personnes criminelles ayant des choses à cacher ou la volonté de fuir la police. Au niveau européen, des fuites ont révélé l’intention de plusieurs États de réduire le niveau de sécurité du chiffrement de bout-en-bout, tels que l’Espagne qui veut tout simplement y mettre fin.
Le règlement CSAR s’inscrit dans cette continuité et constitue une opportunité parfaite pour les États membres pour enfin concevoir et généraliser un outil de surveillance des échanges de la population et ainsi mettre fin aux obstacles posés par les services trop protecteurs de la vie privée. Mais passer ce cap, c’est supprimer toute confidentialité des communications qui passeraient par des infrastructures numériques. L’intégrité et la sécurité de ces dernières ne pourraient alors plus jamais être garanties dès lors que cette « porte dérobée » existe. C’est créer des occasions, aussi bien pour les États que les acteurs malveillants, de détourner et d’abuser de cette capacité d’entrer dans les téléphones et ordinateurs de la population. Enfin, c’est ouvrir une brèche, un espace à surveiller qui n’existait pas auparavant, et qui sera nécessairement étendu dans le futur par de nouvelles législations pour repérer d’autres types de contenus.
Ce risque est dénoncé par des services tels que Signal, Proton ou Matrix, qui proposent des communications chiffrées de bout-en-bout et sécurisées — et promettent donc une confidentialité presque intégrale. Cette proposition viendrait casser leur promesse en les obligeant à analyser les contenus et à créer une vulnérabilité dans leurs technologies. Ce risque a également été récemment dénoncé par Apple : pour justifier la fin de l’analyse des contenus hébergés sur iCloud, l’entreprise expliquait que la technologie utilisée est trop dangereuse en termes de sécurité et de respect de la vie privée1Néanmoins, il faut relativiser cette prise de position dès lors que la firme continue d’expérimenter une technologie similaire dans une fonction facultative dénommée « Communication Safety » qui recherche de la nudité directement sur les terminaux..
En Grande-Bretagne, où est actuellement discuté un projet de loi similaire, le Online Safety Bill, Signal et Whatsapp ont menacé de supprimer leur service du pays si ce texte venait à passer. Face à cette fronde, les Britanniques ont très récemment annoncé suspendre la mise en œuvre de cette mesure au regard de l’infaisabilité à ce stade de protéger le chiffrement de bout-en-bout. Cependant, la mesure est toujours dans la loi et pourrait donc être applicable un jour. À Londres comme à Bruxelles, la bataille est loin d’être finie.
Refuser et agir
Il est donc urgent d’agir pour arrêter cette nouvelle initiative qui créerait un grave précédent et donnerait aux États une légitimité pour pousser toujours plus loin l’intrusion dans les communications. Mais les discussions avancent vite à Bruxelles. D’un coté, le Conseil, organe regroupant les gouvernements des États membres, doit publier sa position sur ce texte d’ici fin septembre. Celle-ci s’annonce très mauvaise, poussée par plusieurs États – France en tête. Certains États comme l’Allemagne ou l’Autriche auraient néanmoins exprimé des réserves quand à l’incompatibilité de cette dernière version par rapport à leur propre position officielle. Une lettre ouverte a été signée le 13 septembre par plus de 80 organisations, dont La Quadrature, pour que les États membres n’adoptent pas le CSAR dans sa version actuelle.
De l’autre coté, le Parlement européen devra également adopter sa version du texte, d’abord en commission en octobre puis en novembre en séance plénière. Si beaucoup d’eurodéputé·es s’opposent au texte, cela ne suffira sans doute pas à bloquer son adoption. Pour agir, nous vous invitons à rejoindre la campagne « Stop Scanning me » menée par une coalition d’organisations et à partager le plus possible les informations sur la mobilisation en cours2Aussi, vous pouvez regarder cette conférence faite au dernier Chaos Communication Camp sur le combat contre Chat control (en anglais).. Vous pouvez également appeler des parlementaires européens pour les inviter à rejeter ce texte.
Et si vous le pouvez n’hésitez pas à faire un don à La Quadrature ou à EDRi qui agit à Bruxelles. Merci !
Néanmoins, il faut relativiser cette prise de position dès lors que la firme continue d’expérimenter une technologie similaire dans une fonction facultative dénommée « Communication Safety » qui recherche de la nudité directement sur les terminaux.
Aussi, vous pouvez regarder cette conférence faite au dernier Chaos Communication Camp sur le combat contre Chat control (en anglais).
";s:7:"dateiso";s:15:"20230918_153444";}s:15:"20230918_111311";a:7:{s:5:"title";s:53:"Festival Technopolice 2023 – Marseille, édition #2";s:4:"link";s:87:"https://www.laquadrature.net/2023/09/18/festival-technopolice-2023-marseille-edition-2/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21179";s:7:"pubDate";s:31:"Mon, 18 Sep 2023 09:13:11 +0000";s:11:"description";s:247:"
Aujourd’hui, nous sommes heureux de vous annoncer l’organisation par le collectif Technopolice Marseille de la deuxième édition du Festival Technopolice qui aura lieu du 28 septembre au 1er octobre 2023 à Marseille, avec le…";s:7:"content";s:2557:"
Aujourd’hui, nous sommes heureux de vous annoncer l’organisation par le collectif Technopolice Marseille de la deuxième édition du Festival Technopolicequi aura lieu du 28 septembre au 1er octobre 2023 à Marseille, avec le soutien de La Quadrature du Net.
Dans un contexte de répression des mouvements populaires, le recours aux technologies de surveillance de l’espace public se normalise sous prétexte de sécurité, tandis que la violence policière continue de s’accroître en France. En vue des Jeux Olympiques 2024, une loi légalisant la vidéosurveillance algorithmique (VSA) a été adoptée malgré de nombreuses oppositions (voir notamment ici et ici), faisant de la France le premier pays de l’Union Européenne à légaliser la surveillance biométrique de l’espace public.
Il y a 4 ans, La Quadrature du Net, association de défense des libertés numériques, lançait l’initiative Technopolice avec le soutien d’une vingtaine d’associations, pour recenser et contrer les nouvelles technologies de surveillance policières dans nos villes. Le collectif Technopolice Marseille commençait alors à s’organiser localement avec des conférences, expositions artistiques, cartographies de caméras et actions de rue contre le dispositif de surveillance de la ville. En 2022, nous organisions la première édition du festival Technopolice à Marseille et y lancions notre plainte collective contre la vidéosurveillance, le fichage de masse et la reconnaissance faciale de l’État. Pour cette deuxième édition, nous souhaitons dénoncer le rôle de ces technologies, qui donnent davantage de pouvoir à une police toujours plus répressive,
Face à la mise en place de la surveillance totale de l’espace public, il est urgent de résister et d’agir pour nos futurs désirables. À travers des films, des débats et des ateliers, en entrée libre, cette 2ème édition du festival vous invite à une réflexion collective.
";s:7:"dateiso";s:15:"20230918_111311";}s:15:"20230915_164428";a:7:{s:5:"title";s:33:"QSPTAG #293 — 15 septembre 2023";s:4:"link";s:51:"https://www.laquadrature.net/2023/09/15/qsptag-293/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21144";s:7:"pubDate";s:31:"Fri, 15 Sep 2023 14:44:28 +0000";s:11:"description";s:212:"Au Garage cette semaine, on a publié un gros article sur la loi SREN (on en reparlera la semaine prochaine) et on vous propose pour les quinze jours qui viennent un agenda rempli de rendez-vous :
–…";s:7:"content";s:5421:"
Au Garage cette semaine, on a publié un gros article sur la loi SREN (on en reparlera la semaine prochaine) et on vous propose pour les quinze jours qui viennent un agenda rempli de rendez-vous :
– trois rencontres avec Félix Tréguer, membre fondateur de l’association, qui présentera son livre Contre-histoire d’Internet dans des librairies de Marseille, Nice et Paris,
– deux soirées de soutien aux inculpé·es du « 8 décembre » à Nantes et à Pantin ainsi qu’un évènement organisé à Paris par La Quadrature et d’autres collectifs pour revenir sur cette affaire et débattre de la manière dont le chiffrement a été criminalisé par les services de renseignement et la justice,
– une rencontre à Lyon pour parler également du « 8 décembre » et du secret des communications,
– une rencontre à Bruxelles pour parler de la surveillance et de la défense du chiffrement avec nos partenaires européens,
– la deuxième édition du Festival Technopolice à Marseille, avec films et débats,
– et un apéro public dans nos locaux parisiens le vendredi 29 septembre : on vous attend pour parler de tout ça !
Alex, Bastien, Marne, Mathieu, Myriam, Noémie et Nono
Agenda du 15 septembre au 6 octobre 2023
15 septembre : rencontre avec Félix Tréguer à 19h à la librairie Les Parleuses à Nice (18 rue Defly, 5 pl. du Général Georges Marshall) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
25 septembre : discussion « Affaire du « 8 décembre » : antiterrorisme et criminalisation du chiffrement » à la Bourse du Travail à Paris (29 boulevard du Temple, 75003) — à partir de 19h avec La Quadrature du Net, le SNJ, Nothing to Hide et les avocats des inculpé·es.
du 28 septembre au 1er octobre : deuxième édition du Festival Technopolice à Marseille ! Films, ateliers et débats, toutes les infos ici : https://technopolice.fr/festival-2023/.
28 septembre : rencontre avec Félix Tréguer à 18h à la librairie L’Hydre aux mille têtes à Marseille (96 rue Saint-Savournin, 13001) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
29 septembre : apéro mensuel au Garage (115 rue de Ménilmontant, 75020 Paris) à partir de 19h : apportez un petit truc à manger ou à boire si vous pouvez et venez discuter avec nous !
6 octobre : rencontre avec Félix Tréguer à 19h à la librairie Le Monte-en-l’air à Paris (2 rue de la Mare, 75020) dans le cadre de la parution de son livre Contre-histoire d’Internet aux éditions Agone.
";s:7:"dateiso";s:15:"20230915_164428";}s:15:"20230912_170448";a:7:{s:5:"title";s:72:"Projet de loi SREN : le gouvernement sourd à la réalité d’internet";s:4:"link";s:104:"https://www.laquadrature.net/2023/09/12/projet-de-loi-sren-le-gouvernement-sourd-a-la-realite-dinternet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21120";s:7:"pubDate";s:31:"Tue, 12 Sep 2023 15:04:48 +0000";s:11:"description";s:281:"Le projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN » ou « Espace numérique ») est actuellement en discussion à l’Assemblée nationale, après avoir été voté en juillet dernier au Sénat. Ce texte,…";s:7:"content";s:23844:"
Le projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN » ou « Espace numérique ») est actuellement en discussion à l’Assemblée nationale, après avoir été voté en juillet dernier au Sénat. Ce texte, présenté comme une simple adaptation d’une série de règlements européens, change en réalité la manière de concevoir la régulation des plateformes en ligne. En voulant instaurer une censure autoritaire et extra-judiciaire, en voulant mettre fin à l’anonymat en ligne et en répétant les erreurs déjà commises avec la loi Avia, le gouvernement fait une nouvelle fois fausse route. Ce projet de loi étant très dense, commençons par une présentation générale des éléments importants du texte (nous reviendrons plus tard en détails sur certains points avec des articles dédiés).
L’accès au porno, prétexte pour mettre fin à l’anonymat
Les articles 1er et 2 du projet de loi renforcent l’obligation pour les sites pornographiques de vérifier l’âge de leurs utilisateurs. Pour rappel, depuis une proposition de loi issue de la majorité présidentielle en 2020, les sites proposant du contenu pornographique doivent vérifier l’âge des internautes, une simple case à cocher auto-déclarative ne suffisant pas. En cas de non-respect, une peine de censure peut être prononcée par un juge. Nous dénoncions à l’époque un tel principe d’obliger les personnes à justifier de leur âge, qui passe nécessairement par une mise à mal de l’anonymat en ligne.
Mais en réalité, cette loi de 2020 n’a pas vraiment changé les choses : les sites pornographiques continuent d’afficher un bouton pour que l’internaute déclare sur l’honneur avoir plus de 18 ans, et très peu de censures ont été prononcées par la justice. Pour la simple raison que personne, ni les plateformes, ni le gouvernement, ni la CNIL ne savent comment effectuer cette vérification de l’âge d’une manière qui soit simple techniquement et respectueuse de la vie privée des personnes. Le laboratoire de prospective de la CNIL, le LINC, suggère une solution passant par un tiers de confiance, c’est-à-dire une autorité chargée de délivrer à l’internaute un certificat (un jeton, ou « token ») confirmant qu’il est bien majeur, sans que ce tiers ne connaisse le service réclamant ce certificat. Mais, d’une part, cette solution implique que le tiers de confiance pourra facilement déduire que, quand une personne lui demandera une « preuve de majorité », l’objectif sera de consulter un site pornographique. D’autre part, ce mécanisme du tiers de confiance impose l’utilisation d’une identité numérique d’État, aujourd’hui théoriquement facultative, qui deviendra alors encore plus obligatoire de fait.
Malgré ces obstacles pratiques et en dépit de l’absence de solution viable décidée conjointement par les institutions et les experts techniques, le gouvernement persiste. Mécontent d’une justice qui, à son goût, ne censure pas assez les sites pornographiques, il propose tout simplement de la contourner : le projet de loi SREN passe d’une censure judiciaire des sites ne vérifiant pas l’âge de leurs internautes à une censure administrative, c’est-à-dire extra-judiciaire. Ce n’est donc qu’une fois la censure décidée qu’un juge vérifiera sa légalité. L’Arcom, autorité née de la fusion entre la Hadopi et le CSA, sera chargée de prononcer la censure d’un site pornographique qui ne vérifierait pas l’âge des internautes. Cet entêtement à vouloir fliquer les internautes est d’autant plus surprenant que même la Grande-Bretagne, pourtant pionnière dans la censure des sites pornographiques et source d’inspiration du gouvernement, a abandonné en 2019 un dispositif similaire, faute de solution technique satisfaisante. Très récemment encore, l’Australie a abandonné un tel mécanisme de vérification d’âge et le Texas a été obligé de suspendre une loi similaire parce que la justice américaine a considéré cette loi contraire à la liberté d’expression.
Le retour de la censure obligatoire en 24 heures
L’article 3 du projet de loi renforce les obligations de retrait des contenus à caractère pédopornographique pesant sur les hébergeurs de sites internet. Aujourd’hui, la loi impose que ces derniers doivent retirer ces contenus en 24 heures sur demande de la police, mais il n’y a pas de sanction spécifique en cas d’absence de retrait (seule la responsabilité des hébergeurs pourra être retenue, mais elle s’apprécie en fonction des capacités des plateformes, de la gravité du contenu, de la difficulté à contrôler la légalité de la demande, etc.). La nouveauté du projet de loi réside dans le fait que l’absence de retrait une fois passé le délai de 24 heures constitue automatiquement un délit, sans que ne soient examinées les potentielles raisons ou explications de cette absence d’action. Dès lors, la menace d’une répression systématique accentue le joug de l’État sur ces hébergeurs et renforce le principe de la censure administrative qui est déjà, en soi, un danger pour la liberté d’expression en ligne (voir par exemple ce que nous disions il y a 13 ans à propos de la LOPPSI).
Mais surtout, il est très probable que, par crainte d’une sanction, les hébergeurs préfèrent retirer trop de contenus, quitte à se tromper. C’est exactement ce que voulait la loi Avia qui imposait des délais fixes pour retirer des contenus haineux ou à caractère terroriste. Nous dénoncions alors le risque de surcensure que ce mécanisme impliquait, tout comme le Conseil constitutionnel lorsqu’il a déclaré cette loi contraire à la Constitution.
Malgré cela, le gouvernement ne cache pas vraiment ses intentions de censure généralisée. Dans l’étude d’impact du projet de loi, il explique que l’objectif de l’article 3 est d’« aligner » les régimes de censure administrative sur celui du terrorisme. En effet, après la censure de la loi Avia, la France s’est empressée de pousser un règlement européen qui oblige aujourd’hui les hébergeurs à retirer les contenus à caractère terroristes sous peine de lourdes sanctions pénales, par un mécanisme similaire à feue la loi Avia. Par cet article 3 qui introduit des sanctions similaires pour les contenus pédopornographiques, le gouvernement organise donc le retour masqué de la loi Avia.
Le bannissement des réseaux sociaux, un coup d’épée dans l’eau
Pour lutter contre le harcèlement en ligne, le gouvernement n’envisage pas de donner les moyens humains et financiers à la justice pour faire son travail. À l’inverse, l’article 5 du projet de loi préfère miser sur un réflexe disciplinaire, en créant une peine complémentaire d’interdiction de réseaux sociaux pour les personnes qui seraient condamnées pour harcèlement : sur décision de justice, les plateformes en ligne devront suspendre les comptes détenus par les personnes condamnées et les empêcher de se créer un nouveau compte. Mais comment s’assurer qu’une personne condamnée ne se recrée pas un compte ? Le projet de loi est parfaitement silencieux sur ce point. On peut en revanche légitimement craindre que cette nouveauté ouvre la voie à la généralisation du contrôle d’identité en ligne, afin de s’assurer que l’internaute voulant se créer un compte ne sera pas sur la liste des personnes interdites de réseaux sociaux.
Cette peine d’interdiction des réseaux sociaux et la généralisation de la vérification d’identité qu’elle risque d’induire s’inscrivent dans la même ligne que la récente loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne, adoptée il y a quelques mois. Issue d’une proposition de loi du groupe Horizons, elle instaure une interdiction pour les mineur·es de moins de 13 ans de se créer un compte en ligne, impose à celles et ceux entre 13 et 15 ans d’obtenir l’accord de leurs parents, et permet aux parents d’adolescent·es ayant entre 15 et 18 ans de suspendre leurs comptes jusqu’à leur majorité. Or, ces règles ne peuvent être respectées qu’en vérifiant l’identité de toute personne voulant s’inscrire sur un réseau social.
Cette « majorité numérique » semble non seulement impossible à mettre en œuvre sans atteinte excessive au droit à l’anonymat en ligne, mais également contraire au droit de l’Union européenne. Cette situation inconfortable a poussé le législateur à soumettre, à la toute fin du processus législatif, l’entrée en vigueur de ce texte à une décision de la Commission européenne sur la conformité au droit de l’UE de ce mécanisme.
Pour autant, cela ne rebute toujours pas le gouvernement, qui continue avec le projet de loi SREN et son idée de bannissement des réseaux sociaux. Le Sénat est même allé plus loin : le rapporteur du texte à la chambre haute, Loïc Hervé, a introduit de nouvelles dispositions pour que ce bannissement des réseaux sociaux puisse être prononcé par un juge d’application des peines, voire par un procureur de la République via une composition pénale1Procédure pénale où procureur et personne mise en cause s’accordent sur une peine puis la font valider par un tribunal..
La censure administrative par le navigateur
Autre surprise du texte : le gouvernement propose une nouvelle manière de faire de la censure administrative, en passant par un blocage des contenus au niveau des navigateurs web. Sous couvert de proposer un filtre « anti-arnaques », l’article 6 du projet de loi impose non seulement aux fournisseurs d’accès à Internet (FAI) et aux fournisseurs de systèmes de résolution de noms de domaine (c’est-à-dire les fournisseurs de DNS alternatifs autres que ceux des FAI) de censurer certaines ressources en ligne que la police aurait identifiées comme étant des « arnaques », mais oblige également les navigateurs web à procéder à une telle censure.
Autrement dit, si demain la police repère un site de phishing, elle pourra imposer à l’éditeur de votre navigateur préféré de procéder à son blocage pur et simple. Et peu importe s’il s’avère que la demande est erronée ou abusive. Peu importe aussi si cela ouvre grand la porte à des censures d’un autre genre, politiques par exemple. Bien évidemment, la fondation Mozilla, qui édite le navigateur Firefox, est vent debout contre cette obligation. Nous vous invitons d’ailleurs à signer leur pétition et à la faire circuler largement.
Et peut-être d’autres mesures autoritaires à venir
Ces quelques articles de ce projet de loi sont déjà très inquiétants, au regard de la mise à mal de l’anonymat en ligne, de l’atteinte à la liberté d’expression et de la négation du droit à la vie privée qu’ils instaurent. Mais ce projet de loi risque encore de s’aggraver au cours des discussions.
En juillet dernier, la réponse du gouvernement et de ses soutiens a été de pointer les réseaux sociaux comme responsables des révoltes en France, pour mieux passer sous silence le malaise social grandissant. À cette occasion, le député Renaissance Paul Midy, rapporteur général de ce projet de loi SREN, avait déjà annoncé qu’il était favorable à l’obligation de justifier de son identité civile avant de pouvoir s’inscrire sur une plateforme en ligne, emboîtant ainsi le pas d’Emmanuel Macron. Cette marotte de la droite française pourrait bien se concrétiser avec ce texte. Suite aux violences estivales, un « groupe de travail » interparlementaire s’est déjà réuni trois fois cet été pour réfléchir à une « évolution législative » de l’encadrement des réseaux sociaux. Seraient pour l’instant envisagées des restrictions temporaires de la géolocalisation ou l’obligation pour les plateformes de conserver les messages éphémères qui y sont échangés.
De plus, tout le monde au gouvernement veut maintenant son petit bout de censure. En réponse à la polémique née autour d’un site de rencontres pour jeunes enfants et adolescents devenu le terrain de chasse de pédophiles, la secrétaire d’État en charge de l’Enfance Charlotte Caubel s’imagine déjà censurer ce type de site. Mais comme la loi instaurant une majorité numérique, qui obligerait à vérifier l’identité de toute personne, n’est pas encore en vigueur, elle pourrait bien profiter de ce projet de loi SREN pour pousser ses idées de censure.
Une grande absente : l’obligation d’interopérabilité des réseaux sociaux
Finalement, il n’est pas surprenant que l’idée d’une interopérabilité obligatoire des réseaux sociaux ne figure pas dans ce projet de loi : il s’agit d’une manière radicalement différente de celle du gouvernement de réguler les contenus en ligne. L’obligation d’interopérabilité des réseaux sociaux consiste à imposer aux grandes plateformes d’ouvrir leurs communautés à d’autres réseaux sociaux. Concrètement, avec une telle obligation, les utilisateur·rices de Mastodon seraient capables de discuter avec leurs contacts restés sur Facebook. Autrement dit : les internautes pourraient partir d’un réseau social dangereux (car il marchanderait la vie privée de ses utilisateur·rices et/ou mettrait en avant des contenus problématiques) sans se couper de leurs ami·es qui y resteraient.
L’obligation d’interopérabilité des réseaux sociaux remettrait largement en question le modèle économique des géants actuels. Celui-ci repose en effet sur le non-respect structurel du droit des données personnelles et la mise en avant algorithmique de contenus haineux. En faisant réagir, ces réseaux sociaux commerciaux gardent les internautes plus longtemps sur la plateforme, augmentant ainsi les revenus publicitaires. En permettant aux internautes de partir d’un Twitter aux mains d’un milliardaire aux choix erratiques et qui met en avant l’extrême-droite ou d’un Meta régulièrement condamné pour ne pas respecter le droit des données personnelles, l’obligation d’interopérabilité de ces plateformes les pousseraient à s’adapter face à la concurrence plus éthique des réseaux sociaux décentralisés. Sans passer par une censure verticale des contenus problématiques en ligne, l’interopérabilité des réseaux sociaux, si elle est obligatoire, permettrait qu’ils ne soient plus mis en avant, et donc de réduire leur impact sur les sociétés.
Ce projet de loi, en ne s’intéressant pas à la question de l’interopérabilité, passe d’autant plus à côté du vrai sujet que les géants du numérique, eux, commencent à s’intéresser à cette question. Cet été, Meta a lancé son concurrent à Twitter, Threads, et a annoncé que son service serait interopérable, notamment avec le reste du fédivers. L’absence d’autorité capable de réguler les ardeurs des géants comme Meta crée alors un danger immédiat pour le fédivers (voir notre explication). Il est aujourd’hui crucial d’empêcher un aussi grand acteur que Meta de prendre ce qui l’intéresse dans l’écosystème des réseaux sociaux interopérables sans donner en retour. Alors que le Digital Markets Act, règlement européen voulant réguler les plateformes, avait un temps envisagé d’instaurer une telle obligation d’interopérabilité des réseaux sociaux, la France était parvenue en bout de course législative à supprimer une telle obligation. On ne peut que déplorer cette stratégie d’ignorer la question de l’interopérabilité des réseaux sociaux.
S’il fallait résumer le projet de loi SREN, nous pourrions le présenter comme l’exemple parfait de ce qu’il ne faut pas faire. Réguler par la censure, l’autoritarisme et les atteintes massives aux droits fondamentaux n’est pas la bonne solution. Il existe pourtant d’autres manières de faire, notamment en passant par l’obligation d’interopérabilité des réseaux sociaux. Nous reviendrons plus en détails sur certaines des dispositions que nous venons de présenter. En attendant, vous pouvez nous aider à continuer de défendre un Internet respectueux des personnes en nous faisant un don.
Procédure pénale où procureur et personne mise en cause s’accordent sur une peine puis la font valider par un tribunal.
";s:7:"dateiso";s:15:"20230912_170448";}s:15:"20230908_173256";a:7:{s:5:"title";s:32:"QSPTAG #292 — 8 septembre 2023";s:4:"link";s:51:"https://www.laquadrature.net/2023/09/08/qsptag-292/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=21082";s:7:"pubDate";s:31:"Fri, 08 Sep 2023 15:32:56 +0000";s:11:"description";s:273:"La VSA marseillaise fait de la résistance
Voilà trois ans déjà que nous agissons contre l’installation à Marseille de caméras de surveillance « augmentées », dont les images sont analysées en direct par des algorithmes de reconnaissance des…";s:7:"content";s:8895:"
La VSA marseillaise fait de la résistance
Voilà trois ans déjà que nous agissons contre l’installation à Marseille de caméras de surveillance « augmentées », dont les images sont analysées en direct par des algorithmes de reconnaissance des comportements. Le recours que nous avions déposé devant le tribunal administratif de Marseille a été rejeté le 2 juin dernier, pour un défaut de procédure : le tribunal a donc avalisé la stratégie de la mairie, constante malgré un changement de majorité en 2020, qui prétendait avoir « suspendu » le déploiement de ces caméras, sans pour autant s’empêcher d’utiliser celles qui étaient déjà installées… Puisque les caméras algorithmiques sont « suspendues », alors le recours n’avait plus lieu d’être, a tranché le tribunal sans chercher plus loin.
Ce faisant, le tribunal a évité de se pencher sur le fond de la question, alors que la CNIL et le Conseil d’État ont clairement énoncé l’illégalité de la vidéosurveillance algorithmique (VSA). Nous avons donc fait appel devant la cour administrative d’appel de Marseille.
Le député Philippe Latombe en porte-à-faux entre la CNIL et l’AN2V
Le mardi 5 septembre nous avons publié sur TwiX et sur notre compte Mastodon une lettre adressée à Marie-Laure Denis, présidente de la CNIL, pour attirer son attention sur les liens très étroits qu’entretient Philippe Latombe, député (Modem) et tout nouveau membre de la CNIL, avec l’industrie de la vidéosurveillance et son principal lobby, l’AN2V.
Nous avons récemment documenté cette connivence entre le député et les tenants économiques de la surveillance généralisée. Au moment où la CNIL devait se prononcer sur les expériences de vidéosurveillance automatisée dans le cadre des JO de Paris 2024 (les décrets d’application de la « loi JO » étaient alors en préparation), le député-membre de la CNIL n’a pas hésité à inviter un parterre conquis à intégrer l’intelligence artificielle « sur tous les domaines qui pourront être utilisés », s’engageant de son coté à tout faire pour « élargir l’utilisation des drones malgré la réserve du Conseil constitutionnel ». Le mélange des genres est total : tout à la fois député, lobbyiste et commissaire, chacun de ses avatars servant les deux autres, M. Latombe se place de lui-même en flagrante position de conflit d’intérêts.
Il ne se gêne d’ailleurs pas pour expliquer devant l’AN2V comment manœuvrer la CNIL, dont il est bien placé pour connaître les logiques internes, et suggérer dans quel sens il faudrait modifier le collège des membres pour l’orienter vers une vision moins soucieuse du droit et plus sensible aux attentes du monde économique. À nos yeux, cette confusion des rôles n’est pas seulement choquante, elle est contraire à toutes les dispositions qui régissent la conduite déontologique de la CNIL pour assurer l’indépendance d’esprit de ses membres. Nous les rappelons donc dans notre courrier, pour soumettre l’ensemble de la situation à sa présidente, garante de l’indépendance et de la crédibilité de la Commission.
29 septembre : apéro mensuel au Garage (115 rue de Ménilmontant 75020 Paris) à partir de 19h : apportez un petit truc à manger ou à boire si vous pouvez et venez discuter avec nous !
";s:7:"dateiso";s:15:"20230908_173256";}s:15:"20230831_142030";a:7:{s:5:"title";s:29:"QSPTAG #291 — 25 août 2023";s:4:"link";s:51:"https://www.laquadrature.net/2023/08/31/qsptag-291/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20981";s:7:"pubDate";s:31:"Thu, 31 Aug 2023 12:20:30 +0000";s:11:"description";s:271:"
Mouchards partout : le contrôle à distance des appareils numériques est légalisé
C’est une pratique de police judiciaire et des services de renseignement : retourner un téléphone contre son utilisateur, pour en faire une balise GPS ou un…";s:7:"content";s:15360:"
Mouchards partout : le contrôle à distance des appareils numériques est légalisé
C’est une pratique de police judiciaire et des services de renseignement : retourner un téléphone contre son utilisateur, pour en faire une balise GPS ou un micro, voire une caméra espion. Une pratique banalisée par les fictions télévisées, qui la présentent à la fois sous l’angle de la prouesse technologique et de la normalité. C’est toujours pour attraper des méchants qui l’ont bien mérité, qui peut donc trouver ça scandaleux ? La réalité est différente.
Dans la réalité, l’Assemblée nationale et le Sénat viennent d’adopter, dans le cadre de la loi Orientation et programmation du ministère de la justice 2023-2027, une disposition autorisant la prise de contrôle à distance des objets connectés, pour que la police puisse exploiter leur géolocalisation, leur micro ou leur caméra intégrée.
Pour l’heure, la mise en œuvre de cette prise de contrôle à distance est assortie de conditions restrictives : l’enquête en cours doit par exemple concerner des faits passibles d’au moins 5 ans de prison. Mais c’est justement l’existence de conditions qui doit mettre en alerte. L’histoire est pleine de dispositions dont les conditions d’applications se sont doucement élargies, au gré des événements, pour autoriser les pratiques dans un nombre toujours croissant de cas.
On se souvient par exemple du fichier national des empreintes génétiques (FNAEG), créé pour ficher les auteurs de crimes sexuels graves, et dans lequel se retrouvent aujourd’hui un tiers des Français (à lire ici : https://www.nextinpact.com/article/48209/plus-dun-tiers-francais-sont-fiches-dans-fnaeg). Dans le même ordre d’idées, on se souvient aussi des dispositions de lutte contre le terrorisme, adoptées dans l’urgence après les attentats de novembre 2015, qui ont aussitôt servi à réprimer les manifestations du mouvement écologiste lors de la COP 21 à Paris en décembre 2015.
Dans un contexte politique et social où les mobilisations politiques sont dorénavant traitées par les gouvernements comme des événements « anti-républicains » et « factieux », comment croire une seule seconde que l’accès aux appareils numériques sera toujours réservé aux vrais méchants de la fiction ? Comme le dit l’article : « Il n’y a jamais de retour en arrière ».
Surtout que la qualification pénale, à ce stade des enquêtes, revient aux procureurs, qui pourront user et abuser de leurs pouvoirs pour s’autoriser ces nouveaux pouvoirs d’enquête. Or, l’exemple de l’affaire de Tarnac montre bien que ce qui est présenté comme terroriste par la police ne l’est pas nécessairement pour la justice. En pleine urgence climatique, certaines actions de sabotage menées par des activistes écologistes pourraient déjà tomber sous le coup de ces mesures.
Dans la bouche des personnalités politiques paresseuses, les réseaux sociaux sont responsables de tous les maux, sauf quand c’est la faute des jeux vidéo. Lors des révoltes urbaines qui ont suivi la mort du jeune Nahel à Nanterre, le 27 juin dernier, ça n’a pas raté : juste après avoir doctement affirmé que « certains d’entre eux vivent dans la rue les jeux vidéo qui les ont intoxiqués », le Président de la République (également sociologue, spécialiste des médias et analyste des comportements de foules), a pointé « celles et ceux qui utilisent ces réseaux sociaux pour appeler au désordre ou exacerber la violence ».
Pour le gouvernement, les émeutiers sont des gamins qui agissent uniquement par imitation et pour cumuler les vues sur TikTok et SnapChat. Belle analyse au doigt mouillé, qui accuse le mécanisme de propagation de la révolte sans interroger son origine sociale dans la profondeur ni dans la durée. On accuse le médium sans lire le message, c’est de l’escamotage politicien dans toute sa splendeur.
Mais au-delà de ce tour de passe-passe affligeant qui cache la démission de toute ambition politique, le gouvernement retombe une fois encore dans les réflexes sécuritaires qui en sont le complément habituel : on parle de censurer en urgence, et à la volée, les contenus qui « appellent à l’émeute », en particulier les vidéos tournées dans les rues. Cette censure administrative est un vieil ennemi de La Quadrature : utilisée à discrétion par la police et le gouvernement, sans décision judiciaire et au gré des errances politiques, elle donne paradoxalement un pouvoir démesuré aux grandes plateformes privées du web, qui appliquent les décisions de censure administrative avec le plus grand zèle et les devancent même volontiers.
Le gouvernement prépare pour cet automne une loi numérique qui devra adapter les mesures du Digital Service Act (DSA) européen. Sera-t-elle l’occasion pour le gouvernement de renforcer les pouvoirs des plateformes ? Ce sera un des grands enjeux de cette rentrée pour La Quadrature, qui soutient toujours l’obligation d’interopérabilité.
Une analyse détaillée de l’actualité et des enjeux à venir, à lire sur notre site.
Pourquoi nous n’accueillerons pas Meta dans le fédivers
L’interopérabilité que nous réclamons est en train d’advenir. Le fédivers, basé sur le protocole ActivityPub, a pris une ampleur intéressante dans la dernière année, avec une multiplication des services qui l’utilisent — et peuvent donc tous s’interopérer — et une forte hausse de la fréquentation du réseau Mastodon, provoquée par la déréliction de Twitter sous la direction erratique d’Elon Musk. La fin du monopole de Twitter sur le micro-blogging et le développement de nouvelles formes de réseaux sociaux attirent maintenant les appétits des autres grandes plateformes.
Meta a donc annoncé le lancement de Threads, qui devrait à terme se baser sur ActvityPub pour être interopérable avec le reste du fédivers. Le groupe a même engagé, sous couvert d’un accord de confidentialité, des discussions avec quelques-unes des plus grandes instances de Mastodon. Aussitôt, le débat a pris au sein de la communauté : faut-il ou non accueillir Meta et Threads dans le fédivers ? Notre réponse est non.
L’histoire enseigne que les grandes entreprises privées du web sont toujours intéressées par les technos et les idées qui les concurrencent. Elles commencent par s’en approcher, par s’interconnecter avec elles, puis elles développent de nouvelles fonctions qui redéfinissent le jeu, avant de le refermer en absorbant tout le monde. Pour fonctionner de manière équitable et résister à la recentralisation, à la force de gravitation des grands groupes, l’interopérabilité doit être formalisée et encadrée par des règles contraignantes, les mêmes pour tous les acteurs.
C’est pourquoi les GAFAM ne seront pas les bienvenus dans le fédivers tant que l’interopérabilité ne sera pas obligatoire et strictement encadrée.
24 au 27 août : La Quadrature du Net sera au Hadra Trance Festival, aux côtés de Framasoft, Picasoft, Exarius et Linux07 – Plan d’eau de Vieure, Allier (France). Plus d’infos sur : https://hadratrancefestival.net/fr/.
1er au 4 septembre : La Quadrature du Net sera à Freedom Not Fear à Bruxelles. Plus d’infos sur : https://freedomnotfear.org/2023.
14 septembre : causerie mensuelle Technopolice Marseille à 19h, au Manifesten, 59 rue Adolphe Thiers à Marseille.
";s:7:"dateiso";s:15:"20230831_142030";}s:15:"20230830_143741";a:7:{s:5:"title";s:81:"La justice refuse de sanctionner la vidéosurveillance algorithmique marseillaise";s:4:"link";s:121:"https://www.laquadrature.net/2023/08/30/la-justice-refuse-de-sanctionner-la-videosurveillance-algorithmique-marseillaise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20963";s:7:"pubDate";s:31:"Wed, 30 Aug 2023 12:37:41 +0000";s:11:"description";s:279:"Par un jugement rendu début juin, le tribunal administratif de Marseille a refusé de constater l’illégalité de la vidéosurveillance algorithmique (VSA) de la cité phocéenne. En se retranchant derrière des considérations procédurales contestables, et après…";s:7:"content";s:16947:"
Par un jugement rendu début juin, le tribunal administratif de Marseille a refusé de constater l’illégalité de la vidéosurveillance algorithmique (VSA) de la cité phocéenne. En se retranchant derrière des considérations procédurales contestables, et après trois ans de procédure, la justice administrative marseillaise déçoit. La Quadrature du Net a fait appel de ce jugement et compte bien rappeler à la cour administrative d’appel de Marseille – désormais saisie de l’affaire – que la VSA, mise en place par la ville sous l’ère Gaudin et soutenue aujourd’hui par le Printemps marseillais, est bien illégale.
Une ville tombée dans la facilité du technosolutionnisme
L’affaire remonte à fin 2019. Alors que nous venions de lancer la campagne Technopolice, un des premiers projets documentés était celui de la vidéosurveillance algorithmique (VSA) à Marseille. La mairie, sous l’ère de son ancien maire Jean-Claude Gaudin, a commencé à mettre en œuvre ses premières caméras de VSA vers la fin de l’année 2019, comme le révélait Télérama à l’époque. Nous avons donc attaqué ce dispositif mais le tribunal administratif a estimé que la procédure d’urgence alors choisie n’était pas adéquate, et a donc rejeté notre recours.
Les élections municipales qui ont suivi, en 2020, nous ont alors laissé penser qu’il ne serait peut-être pas nécessaire de saisir de nouveau la justice pour faire retirer la VSA de l’espace public marseillais. En effet, la droite a été battue aux élections municipales par la liste du Printemps marseillais, alliance de gauche ayant pris position pendant la campagne électorale contre ce projet de surveillance de l’espace urbain. Mais une fois élue, la liste qui voulait réinventer la politique à Marseille préféra poursuivre la politique de la précédente majorité en matière de sécurité. Faute de dialogue avec la nouvelle équipe municipale, nous avons alors attaqué, à nouveau, le contrat prévoyant cette surveillance. Plus précisément nous avons contesté devant le tribunal administratif de Marseille le contrat suite au refus de la ville de résilier le marché public de la VSA.
L’enfumage de l’équipe municipale marseillaise
Face à ce nouveau recours (voir également notre premier mémoire en réplique puis notre second), la ville a adopté une stratégie de l’enfumage. Alors qu’elle affirmait à qui voulait l’entendre, y compris à la justice, que ce projet serait suspendu, la réalité était pourtant toute autre : par « suspension », il ne fallait pas croire que les caméras de VSA déjà en place avait été retirées ou, a minima, désactivées. La ville a joué sur les mots pendant les trois années de procédure en affirmant que le projet était suspendu alors que seul le déploiement de nouvelles caméras étaient arrêté ; les caméras de VSA déjà en place (« une cinquantaine » indiquait la ville au tribunal administratif, se refusant à donner plus de détails) ont toujours continué de fonctionner. Non seulement la mairie a choisi de défendre la surveillance qu’elle dénonçait pendant sa campagne électorale, mais a également joué sur les mots pour essayer de s’en sortir à moindre frais.
Et cette stratégie s’est révélée payante puisque le tribunal administratif a considéré que, le projet étant soi-disant suspendu, et ce malgré nos éléments prouvant l’inverse, il n’y avait pas lieu d’exiger la résiliation du marché public.
Un dangereux signal adressé aux communes
Le cadre contentieux de cette affaire est particulier : parce que nous attaquons un contrat passé entre la ville et un industriel local (la société SNEF), la seule illégalité du contrat ne suffit pas. Il faut démontrer que cette illégalité porte une atteinte manifeste à l’intérêt général. Or, pour rejeter notre recours, le tribunal administratif estime, en substance, que surveiller l’ensemble des marseillais·es qui passeraient devant l’une des cinquante caméras de VSA ne suffit pas pour qualifier une atteinte manifeste à l’intérêt général, peu importe que cette surveillance puisse être illégale. C’est parce que nous refusons cette manière de voir les choses que nous avons fait appel.
Ainsi, le tribunal administratif n’a même pas eu à se pencher sur le fonctionnement concret de la VSA, ni sur la légalité des traitements de données qu’elle implique, pour maintenir cette surveillance. Et pour cause. À part le ministre Darmanin qui fait faussement le naïf en parlant d’un pseudo « vide juridique » de la VSA, tout le monde s’accorde à dire que la VSA est illégale1À l’exception, désormais, de celle autorisée par la loi JO lorsque les décrets d’application seront publiés, mais le cas de Marseille ne rentre pas dedans. : la CNIL2Dans son rapport sur la VSA, la CNIL retient l’absence de base légale de la VSA, donc son illégalité., le Conseil d’État3Dans une étude de 2022 sur l’usage de l’IA par les administrations, le Conseil d’État rejoint la position de la CNIL en indiquant page 137 de son rapport que les bases légales du RGPD, de la directive « police-justice » et de la loi Informatique et Libertés ne sont pas mobilisables pour la VSA dans l’espace public., ou encore la rapporteure de la loi JO au Sénat4Dans son rapport fait à la commission des Lois du Sénat, la rapporteure Agnès Canayer se range derrière l’avis de la CNIL et du Conseil d’État, et mentionne même un avis non publié de ce dernier qui confirmerait l’illégalité de ces dispositifs.. Il a simplement eu à se retrancher derrière la soi-disant suspension du contrat pour ne pas avoir à se prononcer sur le fond.
Ce faisant, le tribunal administratif de Marseille envoie un signal dangereux aux communes : cachez vos surveillances illégales dans des contrats, faites semblant de les suspendre, et personne ne pourra venir les contester. Ce qui est inconcevable dans un État de droit.
Bien entendu, nous continuons à penser que la ville de Marseille agit dans l’illégalité en maintenant en place son dispositif de VSA. Nous continuons de penser que cette VSA constitue une surveillance biométrique des personnes filmées. Combien de temps encore faudra-t-il pour que la ville de Marseille et, au-delà de cette affaire, l’ensemble des villes utilisatrices de dispositifs de VSA, soient contraintes de respecter les droits fondamentaux des habitant·es ?
Pour que nous puissions continuer cette lutte, n’oubliez pas que vous pouvez nous aider en faisant un don ou en aidant à documenter ces dispositifs technopoliciers.
À l’exception, désormais, de celle autorisée par la loi JO lorsque les décrets d’application seront publiés, mais le cas de Marseille ne rentre pas dedans.
Dans une étude de 2022 sur l’usage de l’IA par les administrations, le Conseil d’État rejoint la position de la CNIL en indiquant page 137 de son rapport que les bases légales du RGPD, de la directive « police-justice » et de la loi Informatique et Libertés ne sont pas mobilisables pour la VSA dans l’espace public.
Dans son rapport fait à la commission des Lois du Sénat, la rapporteure Agnès Canayer se range derrière l’avis de la CNIL et du Conseil d’État, et mentionne même un avis non publié de ce dernier qui confirmerait l’illégalité de ces dispositifs.
";s:7:"dateiso";s:15:"20230830_143741";}s:15:"20230809_113133";a:7:{s:5:"title";s:68:"L’arrivée de Meta sur le fédivers est-elle une bonne nouvelle ?";s:4:"link";s:101:"https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20919";s:7:"pubDate";s:31:"Wed, 09 Aug 2023 09:31:33 +0000";s:11:"description";s:283:"Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…";s:7:"content";s:24114:"
Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole commun. Mastodon est un des logiciels qui permet de proposer une instance sur le fédivers1Pour en savoir plus sur le fédiverse : fediverse.party. En juin dernier, Meta a annoncé son arrivée sur le fédivers, à travers le lancement d’un concurrent à Twitter, nommé Threads, qui prévoit à terme de pouvoir s’intéropérer avec d’autres instances du fédivers. La Quadrature du Net réclame depuis plusieurs années une obligation d’interopérabilités pour ces grands réseaux sociaux. Alors l’interopérabilité d’un service proposé par Meta est-elle une bonne nouvelle ? Certainement pas.
Le fédivers est important
Depuis 2018, La Quadrature du Net défend le modèle vertueux du fédivers et réclame qu’il soit introduit dans le droit une obligation pour les plateformes de réseaux sociaux d’être interopérables, c’est-à-dire qu’ils puissent s’insérer dans l’écosystème du fédivers. L’objectif premier du fédivers et de notre revendication d’interopérabilité est de faire en sorte que les utilisateur·rices des grandes plateformes ne soient pas piégé·es par l’effet réseau, c’est-à-dire le fait que certaines plateformes deviennent aujourd’hui incontournables parce que les communautés sont dessus. L’interopérabilité permet ainsi de librement décider depuis quelle plateforme communiquer avec ses contacts, sans être poussé avec plus ou moins de force vers un site ou une application en particulier parce que tous·tes ses ami·es y seraient.
L’interopérabilité en matière de messageries interpersonnelles existe déjà depuis des décennies avec le courrier électronique. Avec une adresse chez un fournisseur A, il est possible d’écrire à ses contacts chez un fournisseur B.
Appliquée aux réseaux sociaux, l’interopérabilité permet à une personne sur une instance A d’écrire à une personne sur une instance B. Surtout, cela permet donc de quitter une plateforme sans se couper de ses ami·es, notamment face à un réseau social qui abuserait des données personnelles de ses utilisateur·rices ou qui aurait des politiques de modération ou de mise en avant de certains contenus problématiques.
La Quadrature du Net promeut depuis 2017 l’interopérabilité des réseaux sociaux. Nous pensons qu’il s’agit d’une réponse alternative à la problématique de la régulation des contenus en lignes. Face à des contenus racistes, antisémites, xénophobes, etc., mis en avant par certaines grandes plateformes, permettre à leurs utilisateur·rices de partir sans se couper de ses ami·es permet de faire émerger des alternatives plus vertueuses, au modèle économique différent.
Ainsi, depuis 2017, nous gérons une instance Mastodon, Mamot.fr. Avec cette instance, nous maintenons une petite pierre du grand réseau social fédéré qu’est le fédivers. Nos utilisateur·rices peuvent donc communiquer avec les autres instances du fédivers, sans avoir besoin d’un compte sur chaque autre plateforme, et en pouvant partir du jour au lendemain si notre politique de modération ne convenait pas. En sommes, un réseau social fédéré permet de redonner du pouvoir à l’internaute, en le retirant aux plateformes.
La beauté du fédivers est aussi qu’il ne s’arrête pas à du microblogging. Nous avons aussi une instance Peertube sur video.lqdn.fr, qui fait aussi partie du fédivers : chacun·e peut commenter et partager nos vidéos sans avoir de compte sur notre plateformes, mais simplement sur une instance quelconque du fédivers.
Mais voici que le géant Meta arrive
Qu’on l’appelle Meta ou Facebook, c’est bien le même géant qui est à la manœuvre. On rappellera que le réseau social de Mark Zukerberg à l’origine de nombreux scandales, sur la gestion des données personnelles et le non-respect du RGPD, ou encore le fait qu’il a servi, à travers le scandale de Cambridge Analytica, à des campagnes massives de manipulations électorales.
Meta est peut-être trop gros, sa position dominante et presque monopolistique dans le milieu des réseaux sociaux aujourd’hui lui octroyant une forme d’impunité. C’est bien en regroupant l’ensemble des internautes de Facebook, Instagram, WhatsApp, etc. que le groupe aux plusieurs milliards d’utilisateur·rices peut survivre à ses innombrables scandales.
Mais aujourd’hui Meta est face à un double souci. Premièrement, les réseaux sociaux ne durent pas éternellement et sont régulièrement abandonnés lors des migrations vers d’autres réseaux. Facebook en fait petit à petit les frais, concurrencé par d’autres plateformes qui ont su jouer sur les phénomènes d’addiction comme TikTok. Deuxièmement, sa taille fait de lui une cible prioritaire des différents États, qui cherchent à réguler les plateformes. Le Digital Markets Act (DMA), règlement européen qui, en tandem avec le Digital Services Act (DSA), vise à réguler les plateformes et l’économie numériques, a bien failli imposer aux réseaux sociaux une obligation d’interopérabilité. Si la France, sous l’impulsion de Cédric O, est venue, en toute fin de parcours législatif, retirer les obligations d’interopérabilités pour les réseaux sociaux du texte final, on voit bien que l’idée de la régulation par la décentralisation d’Internet fait son chemin parmi les décideur·euses public·ques et qu’une telle obligation finira probablement par arriver.
L’arrivée de Facebook sur le fédivers ressemble à la stratégie de prendre les devants, d’agir tant qu’il n’existe pas encore d’encadrement, afin de cannibaliser le fédivers en profitant de la circonstance de l’effondrement de Twitter.
L’interopérabilité est importante
Afin de promouvoir le modèle vertueux du fédivers, nous réclamions avec la loi Avia qu’il soit imposée aux grandes plateformes de réseaux sociaux une obligation d’interopérabilité. En permettant aux utilisateur·rices de quitter un réseau social toxique sans se couper de ses ami·es, il s’agit de casser le monopole qu’ont les géants sur les communautés et de permettre aux internautes de choisir l’endroit qui les accueillera, en fonction des préférences, affinités et valeurs de chacun·es.
Alors que la loi Avia proposait comme manière de réguler les plateformes le contrôle, la censure et la confirmation de l’hégémonie des plateformes et de leur pouvoir, nous proposions l’obligation d’interopérabilité comme modèle alternatif à la censure. Si Twitter, Facebook ou TikTok sont nocifs, c’est (entre autres) que leur modèle économique les pousse à mettre en avant des contenus problématiques, haineux, qui feront réagir les internautes et maintiendront leur attention pour engranger plus de revenus publicitaires, au détriment du débat apaisé et du respect de l’autre.
Avec le DSA et le DMA, nous proposions l’obligation d’interopérabilité pour cette même raison : réguler les géants doit passer par leur retirer le contrôle de leurs communautés. Et nos efforts, épaulés par d’autres organisations comme EDRi, Article 19 ou l’Electronic Frontier Foundation (EFF), ont bien failli réussir puisque sans les efforts du gouvernement français et de son ministre de l’époque Cédric O, l’obligation d’interopérabilité des réseaux sociaux aurait pu devenir réalité puisque le Parlement européen avait voté en sa faveur.
Récemment, nous critiquions également l’attitude du gouvernement qui, sourd aux problèmes sociaux qui touchent les banlieues, préfère museler la liberté d’expression sur les réseaux sociaux avec la vieille rengaine de la censure, alors que cela ne résoudra pas les problèmes de fond et que la régulation des plateformes devrait passer par plus de décentralisation au lieu de plus de censure.
S’interopérer, oui, mais pas n’importe comment
Alors finalement, face à ce constat de nécessité de décentraliser les réseaux sociaux, le fédivers ne devrait-il pas accueillir à bras ouverts Meta ? L’histoire nous montre que non.
Déjà, notons que, au moment où nous écrivons ces lignes, Threads n’est pas interopérable. L’annonce a été faite par Meta que son service permettrait de communiquer avec le reste du fédivers, mais il ne s’agit à ce stade que d’une annonce. Notons également que Meta a restreint Threads aux internautes qui ne sont pas dans l’Union européenne, invoquant une incompatibilité avec le RGPD.
Ce contexte étant posé, il est nécessaire, pour comprendre l’ensemble du problème, de revenir sur l’épisode de GTalk et XMPP. XMPP est un protocole ouvert de messagerie interpersonnelle. De manière relativement similaire au courrier électronique, chaque utilisateur·rice a son compte sur un service et peut discuter avec ses ami·es qui peuvent être sur d’autres services. En 2005, Google lance son service de messagerie, GTalk, qui utilise le protocole XMPP et l’année d’après la fédération est activée : il était alors possible de discuter avec un·e utilisateur·rice de GTalk en ayant un compte ailleurs que chez Google. Mais en 2012, après avoir capté une partie des utilisateur·rices externes, l’entreprise annonça qu’elle comptait réorganiser ses produits et fusionner tous ceux de messagerie avec Hangouts. En 2013, Google annonçait que Hangouts ne serait pas compatible avec XMPP, refermant sur elle-même sa communauté qu’il avait fait grossir grâce à l’interopérabilité permise par XMPP.
On le voit, la taille de Google permettait d’imposer ce choix. Couper les internautes de leurs ami·es qui ne seraient pas chez Google n’est pas une décision en faveur des utilisateur·rices. Elle a pourtant été rendue possible par la puissance de Google sur sa communauté.
Lorsque les premières rumeurs sur l’arrivée de Meta sur le fédivers avec Threads (dont le nom de code à l’époque était « Project92 ») ont émergéMeta a demandé à discuter avec des administrateur·rices d’instances Mastodon en exigeant au préalable qu’iels signent un accord de confidentialité (non-disclosure agreement). La méthode cavalière n’a bien entendu pas plu et c’est ainsi que certain·es administateurs·rices, sans connaître le contenu des échanges qu’a pu avoir Meta avec d’autres, ont révélé l’information en dénonçant au passage la méthode., l’initiative du Fedipact a été lancée. Le principe est simple, les signataires de cet engagement s’engageant à bloquer les services de Meta en raison de la nocivité de l’entreprise pour le fédivers : « Je suis un·e administeur·rice/modérateur·rice sur le fédivers. En signant ce pacte, je m’engage à bloquer toute instance de Meta qui pourrait arriver sur le fédivers. Le Projet92 pose un risque sérieux et réel à la santé et à la longévité du fédivers et doit être combattu à chaque occasion. »
La Quadrature du Net partage les craintes mais ne signera pas cet appel
De nombreuses instances du fédivers, francophone ou non, ont décidé de signer cet appel. De nombreux arguments en faveur du blocage de Meta ont été développés (voir, par exemple, l’explication de Ploum et sa traduction en français). D’autres instances ont préféré attendre, ne voulant pas condamner par avance Meta mais ne fermant pas la porte à son blocage si le service venait créer des problèmes de modération.
Si nous ne signons pas le Fedipact, nous partageons les craintes exprimées et l’instance Mastodon que gère La Quadrature du Net, mamot.fr, bloquera Threads et tout service de Meta qui arriverait sur le fédivers tant qu’une obligation d’interopérabilité accompagnée d’un régulateur capable de tenir tête aux GAFAM et autres géants du numérique ne sera pas introduite en droit.
Nous pensons en effet qu’il est possible, et souhaitable, d’avoir Facebook et les autres réseaux sociaux commerciaux sur le fédivers. C’est une condition sine qua non à leur affaiblissement. En revanche, la démarche de Meta avec Threads est tout sauf une stratégie d’affaiblissement de l’entreprise : Meta ne compte pas se tirer une balle dans le pied, son invasion du fédivers vise à le cannibaliser.
Nous demandons toujours que ces réseaux sociaux aujourd’hui fermés par nature deviennent interopérables. Mais pas n’importe comment ni au détriment de l’écosystème existant ni, in fine, au détriment des droits et libertés des utilisateur·rices. Une telle obligation doit passer par un contrôle, un encadrement, pour que Meta ne puisse pas imposer ses choix au reste d’Internet.
Par sa taille, en effet, Threads deviendrait d’office la plus grosse plateforme du fédivers, sans pour autant prendre d’engagement sur le respect du fonctionnement et de la pérennité de la structure interopérable de l’écosystème. Meta pourrait par exemple chercher à influencer le protocole sur lequel repose le fédivers, ActivityPub. Il pourrait même refuser d’utiliser ce protocole, forçant les autres plateformes à s’interopérer avec lui. Ou adopter la stratégie du Embrace, extend and extinguish.
En somme, sans régulateur fort qui puisse empêcher Meta de prendre ce qui l’arrange dans le fédivers sans participer à son développement (le fédivers repose, rappelons-le, sur une conception radicalement opposée à la logique commerciale de Meta), c’est bien un danger de mort qui pèse sur le fédivers.
Tout comme Google a pris ce qui l’arrangeait dans XMPP, sans contrôle externe Meta prendra ce qui lui convient dans le fédivers puis s’en ira, ou fera en sorte de laisser se dégrader la partie interopérée de son service, par exemple en réservant certaines fonctionnalités à ses seul·es utilisateur·rices uniquement. Comme nous l’écrivions par le passé, « en quelques années, les géants se refermèrent sur eux-même et cessèrent de communiquer, même entre eux. Ils n’avaient plus de raisons de permettre de communiquer avec l’extérieur, « tout le monde » était déjà là, prisonnier et ne pouvant s’échapper sous peine de voir un pan de sa vie sociale disparaître. » Nous ne voulons pas revivre cette situation avec le fédivers.
Nous prenons souvent l’exemple du courrier électronique pour montrer la faisabilité technique de l’interopérabilité. Mais en matière d’email aussi, les géants imposent leurs règles. Framasoft écrivait il y a déjà six ans qu’« Être un géant du mail, c’est faire la loi… ». Et pour cause : par leur captation de la majorité des utilisateur·rices, les géants du net peuvent imposer aux plus petits leurs règles, leurs standards techniques, faire en sorte de forcer les petits à s’adapter aux gros, et non les gros à s’adapter aux petits. Le même risque pèse sur le fédivers sans un régulateur pour les en empêcher.
Les conséquences pour les utilisateur·rices de Mamot.fr
Face à ces incertitudes, pour préserver notre possibilité d’agir à l’avenir et pour nous protéger d’un risque que nous jugeons réel, nous pensons que les actions de Meta doivent être observées avec la plus grande prudence.
Pour les raisons évoquées précédemment, Mamot.fr procédera, jusqu’à nouvel ordre, au blocage préventif de Threads ainsi que de tout autre service de Meta qui viendrait sur le fédivers.
Les personnes ayant un compte sur Mamot.fr ne pourrons donc pas être vues ou suivies par celles ayant un compte chez Threads, et vice versa. Si des personnes que vous connaissez sont sur cette instance et aimeraient vous suivre, nous recommandons qu’elles mettent leur données entre les mains de collectifs et d’associations de confiances, notamment les instances gérées par les CHATONS, par exemple.
Un tel blocage n’est bien évidemment pas idéal : c’est l’internaute, in fine, qui se retrouve victime de cette situation. Mais la balle est dans le camp du législateur. Notre position n’a pas changé : nous pensons qu’il est nécessaire que les grosses plateformes soient interopérables, sur des bases techniques et sociales communes, ce qui ne peut se réaliser qu’avec une obligation d’interopérabilité contrôlée par un régulateur qui aura les pouvoirs suffisants pour empêcher les gros d’écraser les petits. Ce qui, aujourd’hui, n’est malheureusement pas le cas. Le projet de loi Espace numérique, qui a été voté au Sénat en juillet et sera débattu à l’Assemblée nationale en octobre, est l’occasion pour le législateur d’introduire cette obligation d’interopérabilité. Nous reviendrons prochainement sur ce texte. En attendant, n’hésitez pas à faire un don à La Quadrature du Net, afin que nous puissions continuer ce combat pour un Internet décentralisé et bénéfique aux internautes.
";s:7:"dateiso";s:15:"20230809_113133";}s:15:"20230728_115351";a:7:{s:5:"title";s:61:"Révoltes et réseaux sociaux : le retour du coupable idéal";s:4:"link";s:96:"https://www.laquadrature.net/2023/07/28/revoltes-et-reseaux-sociaux-le-retour-du-coupable-ideal/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20905";s:7:"pubDate";s:31:"Fri, 28 Jul 2023 09:53:51 +0000";s:11:"description";s:252:"Les révoltes qu’ont connues de nombreuses villes de France en réaction à la mort de Nahel ont entraîné une réponse sécuritaire et autoritaire de l’État. Ces évènements ont également réactivé une vieille antienne : tout cela…";s:7:"content";s:25588:"
Les révoltes qu’ont connues de nombreuses villes de France en réaction à la mort de Nahel ont entraîné une réponse sécuritaire et autoritaire de l’État. Ces évènements ont également réactivé une vieille antienne : tout cela serait dû au numérique et aux réseaux sociaux. On aimerait railler cette rhétorique ridicule si seulement elle n’avait pas pour origine une manœuvre politique de diversion et pour conséquence l’extension toujours plus dangereuse de la censure et du contrôle de l’information.
« C’est la faute aux réseaux sociaux »
Aux premiers jours des révoltes, Emmanuel Macron a donné le ton en annonçant, à la sortie d’une réunion de crise, que « les plateformes et les réseaux sociaux jouent un rôle considérable dans les mouvements des derniers jours ». Aucune mention des maux sociaux et structurels dans les quartiers populaires depuis plusieurs décennies, rien sur l’écœurement d’une population vis-à-vis des violences policières. Non, pour le président, c’est Snapchat, TikTok et les autres réseaux sociaux qui participeraient à « l’organisation de rassemblements violents » et à une « forme de mimétisme de la violence » qui conduirait alors à « une forme de sortie du réel ». Selon lui, certains jeunes « vivent dans la rue les jeux vidéo qui les ont intoxiqués ». Il est vrai que nous n’avions pas vu venir cette sortie d’un autre temps sur les jeux vidéos, tant elle a déjà largement été analysée et démentie par de nombreuses études.
Mais si le jeu vidéo a vite été laissé de côté, les critiques ont toutefois continué de se cristalliser autour des réseaux sociaux, à droite comme à gauche. Benoît Payan, maire de Marseille, a ainsi expliqué que les réseaux sociaux « sont hors contrôle et ils permettent à des bandes organisées qui font n’importe quoi d’être extrêmement mobiles, de se donner des rendez-vous ». Éric Dupond-Moretti, ministre de la Justice, s’est quant à lui taillé un rôle paternaliste et moralisateur, dépolitisant les évènements et essentialisant une jeunesse qui aurait l’outrecuidance d’utiliser des moyens de communication. Selon lui, « les jeunes » utilisent les réseaux sociaux et se « réfugient derrière leurs téléphone portable », se pensant « comme ça en toute liberté dans la possibilité d’écrire ce qu’ils veulent ». Car pour Dupond-Moretti, le jeune doit « rester chez lui » et les parents doivent « tenir leurs gosses ». Et si le jeune veut quand même « balancer des trucs sur Snapchat », alors attention, « on va péter les comptes ».
En substance, il menace d’identifier les personnes qui auraient publié des vidéos de violences pour les retrouver, quand bien même ces contenus seraient totalement licites. À l’image d’un surveillant courant avec un bâton après des enfants, dépassé par la situation, le ministre de la Justice se raccroche à la seule branche qui lui est accessible pour affirmer son autorité. Les récits de comparution immédiate ont d’ailleurs démontré par la suite la violence de la réponse judiciaire, volontairement ferme et expéditive, confirmant la détermination à prouver son ascendant sur la situation.
Le clou du spectacle a été prononcé par Emmanuel Macron lui-même le 4 juillet, devant plus de 200 maires, lorsqu’il a évoqué l’idée de « réguler ou couper » les réseaux sociaux puisque « quand ça devient un instrument de rassemblement ou pour essayer de tuer, c’est un vrai sujet ». Même avis chez Fabien Roussel « quand c’est chaud dans le pays », car celui-ci préfère « l’état d’urgence sur les réseaux sociaux que sur les populations ». Pour rappel, couper Internet à sa population est plutôt apprécié par les régimes autoritaires. En 2023, l’ONG Access Now a recensé que ce type de mesure avait été utilisé en Inde, Birmanie, Iran, Pakistan, Éthiopie, Russie, Jordanie, Brésil, Chine, Cuba, Irak, Guinée et Mauritanie.
Quelques semaines plus tard, le président annonçait le projet : restaurer un « ordre public numérique », ranimant la vieille idée sarkoziste qu’Internet serait une « zone de non-droit ».
La censure au service de l’ordre
L’ensemble de ces réactions révèle plusieurs des objectifs du gouvernement. D’abord, il attaque les moyens de communication, c’est-à-dire les vecteurs, les diffuseurs, les tremplins d’une expression populaire. Ce réflexe autoritaire est fondé sur une erreur d’appréciation majeure de la situation. Comme avec Internet à sa création, l’État semble agacé que des moyens techniques en perpétuelle évolution et lui échappant permettent aux citoyens de s’exprimer et s’organiser.
Depuis sa création, La Quadrature l’observe et le documente : le réflexe du blocage, de la censure, de la surveillance traduit en creux une incapacité à comprendre les mécanismes technologiques de communication mais surtout révèle la volonté de limiter la liberté d’expression. En démocratie, seul un juge a l’autorité et la légitimité pour décider si un propos ou une image enfreint la loi. Seule l’autorité judiciaire peut décider de retirer un discours de la sphère publique par la censure.
Or, sur Internet, cette censure est déléguée à des entités privées dans un cadre extra-judiciaire, à rebours de cette protection historique. L’expression et l’information des utilisateur·rices se heurtent depuis des années aux choix de plateformes privées auto-désignées comme entités régulatrices du discours public. Ce mécanisme de contrôle des moyens d’expression tend en effet à faire disparaître les contenus militants, radicaux ou alternatifs et à invisibiliser l’expression de communautés minoritaires. Alors que ce modèle pose de sérieuses questions quant à la liberté d’expression dans l’espace démocratique, c’est pourtant bien sur celui-ci que le gouvernement compte pour faire tomber les vidéos de violences et de révoltes.
Ensuite, cette séquence démontre l’absence de volonté ou l’incompétence de l’État à se confronter aux problématiques complexes et anciennes des quartiers populaires et à apporter une réponse politique et sociale à un problème qui est uniquement… politique et social. L’analyse des évènements dans les banlieues est complexe, difficile et mérite qu’on se penche sur de multiples facteurs tels que le précédent de 2005, l’histoire coloniale française, le rapport des habitant·es avec la police ou encore le racisme et les enjeux de politique de la ville. Mais ici, le gouvernement convoque les réseaux sociaux pour contourner la situation. Comme à chaque crise, la technologie devient alors le usual suspect préféré des dirigeants : elle est facile à blâmer mais aussi à maîtriser. Elle apparaît ainsi comme une solution magique à tout type de problème.
Rappelons-nous par exemple de l’application TousAntiCovid, promue comme l’incarnation du progrès ultime et salvateur face à la crise sanitaire alors qu’il s’agissait uniquement d’un outil de surveillance inefficace. La suite a montré que seules des mesures sanitaires étaient de toute évidence à même de résorber une épidémie. Plus récemment, cette manœuvre a été utilisée pour les Jeux Olympiques, moment exceptionnel par ses aspects logistiques, économiques et sociaux mais où la réponse politique apportée a été de légaliser un degré supplémentaire de surveillance grâce à la technologie, la vidéosurveillance algorithmique.
Ici, le gouvernement se sert de ces deux phénomènes pour arriver à ses fins. Désigner les réseaux sociaux comme le coupable idéal lui permet non seulement de détourner l’opinion publique des problématiques de racisme, de pauvreté ou de politique des quartiers mais également de profiter de cette séquence « d’exception » pour asseoir sa volonté de contrôle d’Internet et des réseaux sociaux. Ainsi, les ministres de l’Intérieur et du Numérique ont convoqué le 30 juin les représentants de TikTok, Snapchat, Twitter et Meta pour leur mettre une « pression maximale », selon les mots du ministre du Numérique Jean-Noël Barrot, et renforcer ainsi la main mise et l’influence politique sur ces infrastructures de communication.
Une collaboration État-plateformes à son paroxysme
Comment le gouvernement peut-il alors faire pour réellement mettre les réseaux sociaux, des entreprises privées puissantes, sous sa coupe ? Juridiquement, il dispose de leviers pour demander lui-même le retrait de contenus aux plateformes. Certes cette censure administrative est en théorie aujourd’hui réservée à la pédopornographie et à l’apologie du terrorisme, mais cette dernière, notion vague et indéfinie juridiquement, a notamment permis d’exiger le blocage du site collaboratif et militant Indymedia ou de faire retirer une caricature de Macron grimé en Pinochet. Ces pouvoirs ont d’ailleurs été récemment augmentés par l’entrée en vigueur du règlement « TERREG », qui permet à la police d’exiger le retrait en une heure d’un contenu qualifié par elle de « terroriste ». Cependant, il ne semble pas que le gouvernement ait utilisé ces dispositions pour exiger le retrait des vidéos de révoltes. D’ailleurs, et peut-être plus grave, il n’en a probablement pas eu besoin.
Conscient des limites juridiques de son pouvoir, l’État peut en effet miser sur la coopération des plateformes. Comme nous l’avons évoqué, celles-ci ont le contrôle sur l’expression de leurs utilisateur·ices et sont en mesure de retirer des vidéos de révoltes et d’émeutes quand bien même ces dernières n’auraient absolument rien d’illégal, simplement en invoquant leurs larges pouvoirs issus des conditions générales d’utilisation.
D’un côté, les autorités peuvent compter sur le zèle de ces réseaux sociaux qui, après avoir longtemps été accusés de mauvais élèves et promoteurs de la haine en ligne, sont enclins à se racheter une image et apparaître comme de bons soldats républicains, n’hésitant pas à en faire plus que ce que demande la loi. Twitter par exemple, qui a pendant longtemps résisté et ignoré les demandes des autorités, a drastiquement changé sa discipline depuis l’arrivée d’Elon Musk. Selon le media Rest of World qui a analysé les données du réseau, Twitter ne refuse quasiment plus aucune injonction de blocage ou réquisition de données d’identification provenant des différents États dans le monde.
Concernant les récents évènements en France, le ministre Barrot a ainsi confirmé que les « demandes » du gouvernement avaient été « entendues ». Le Commandement de la Gendarmerie dans le cyberespace exposait fièrement que 512 demandes de retrait avaient été adressées aux modérateurs de réseaux sociaux, quand Olivier Veran annonçait quant à lui que « ce sont plusieurs milliers de contenus illicites qui ont été retirés, plusieurs centaines de comptes qui ont été supprimés, plusieurs dizaines de réquisitions auxquelles les plateformes ont répondu ».
Et en effet, Snapchat ne se cachait pas d’avoir fait plus que le nécessaire. Un porte-parole affirmait à l’AFP faire de la « détection proactive » notamment sur la carte interactive qui permet de retrouver des contenus en fonction des lieux et « et plus particulièrement le contenu lié aux émeutes » qui serait supprimé s’il « enfreint [leurs] directives ». La responsable des affaires publiques de l’entreprise assumait quant à elle devant l’Assemblée nationale avoir travaillé avec le ministère de l’Intérieur pour filtrer les contenus et ne laisser en ligne que ceux mettant en scène des personnes se plaignant des violences. Les représentants de Tiktok ont pour leur part annoncé : « Nous menons une modération automatique des contenus illicites, renforcée par des modérateurs humains. En raison de la nécessité urgente en France, nous avons renforcé nos efforts de modération ».
De l’autre côté, si les réseaux sociaux refusent de se plier à ce jeu diplomatique, alors le gouvernement peut menacer de durcir leurs obligations légales. Aujourd’hui, les réseaux sociaux et hébergeurs bénéficient d’un principe européen d’irresponsabilité, créé dans les années 2000 et reposant en France sur l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN). Ils ne sont responsables de contenus que s’ils ont connaissance de leur caractère illicite et ne les ont pas retiré « promptement ». Mais alors que les soirées d’émeutes étaient toujours en cours dans les villes de France, le sénateur Patrick Chaize profitait de l’examen du projet de loi Espace Numérique pour proposer un amendement qui voulait modifier ce régime général et imposer aux plateformes le retrait en deux heures des contenus « incitant manifestement à la violence ».
Si cet amendement a finalement été retiré, ce n’était pas en raison de désaccords de fond. En effet, Jean-Noël Barrot a, dans la foulé de ce retrait, annoncé le lancement d’un « groupe de travail » interparlementaire pour réfléchir à une « évolution législative » de l’encadrement des réseaux sociaux. Sont envisagées pour l’instant des restrictions temporaires de fonctionnalités telles que la géolocalisation, des mesures de modération renforcées ou encore la levée de l’anonymat, éternelle marotte des parlementaires. Demande constante de la droite française depuis de nombreuses années, cette volonté de lier identité virtuelle et identité civile est cette fois-ci défendue par le député Renaissance Paul Midy. De quoi agiter le chiffon rouge de futures sanctions auprès de plateformes qui rechigneraient à en faire suffisamment.
L’impasse de la censure
Déjà voté au Sénat, le projet de loi « Espace Numérique » devrait être discuté à la rentrée à l’Assemblée. Outre plusieurs dispositions problématiques sur lesquelles nous reviendrons très prochainement, ce texte a comme objet initial de faire entrer dans le droit français le Digital Services Act (ou DSA). Ce règlement européen adopté en 2022 est censé renouveler le cadre juridique des acteurs de l’expression en ligne.
Contrairement à ce qu’affirmait avec aplomb Thierry Breton, commissaire européen en charge notamment du numérique, ce texte ne permettra en aucun cas d’« effacer dans l’instant » les vidéos de révoltes ni d’interdire d’exploitation les plateformes qui n’exécuteraient pas ces injonctions. Non, ce texte donne principalement des obligations ex ante aux très grosses plateformes, c’est-à-dire leur imposent des efforts sur leur fonctionnement général (transparence des algorithmes, coopération dans la modération avec des tiers certifiés, audits…) pour prévenir les risques systémiques liés à leur taille et leur influence sur la démocratie. M. Breton est ainsi prêt à tout pour faire le SAV du règlement qu’il a fait adopter l’année dernière, quitte à dire des choses fausses, faisant ainsi réagir plus de soixante associations sur ces propos, puis à rétropédaler en catastrophe en voyant le tollé que cette sortie a déclenché.
Cependant, si ce texte ne permet pas la censure immédiate rêvée par le commissaire européen français, il poursuit bien la dynamique existante de confier les clés de la liberté d’expression aux plateformes privées, quitte à les encadrer mollement. Le DSA légitime les logiques de censure extra-judiciaire, renforçant ainsi l’hégémonie des grandes plateformes qui ont développé des outils de reconnaissance et de censure automatisés de contenus.
Des contenus terroristes aux vidéos protégées par le droit d’auteur en passant par les opinions radicales, c’est tout un arsenal juridique européen qui existe aujourd’hui pour fonder la censure sur internet. En pratique, elle permet surtout de donner aux États qui façonnent ces législations des outils de contrôle de l’expression en ligne. On le voit en ce moment avec les vidéos d’émeutes, ces règles sont mobilisées pour contenir et maîtriser les contestations politiques ou problématiques. Le contrôle des moyens d’expression finit toujours aux mains de projets sécuritaires et anti-démocratiques. Face à ce triste constat, de la même manière que l’on se protège en manifestation ou dans nos échanges militants, il est nécessaire de repenser les pratiques numériques, afin de se protéger soi-même et les autres face au risque de détournement de nos publications à des fins répressives (suppression d’images, de vidéos ou de messages, flouter les visages…).
Enfin, cette obsession de la censure empêche surtout de se confronter aux véritables enjeux de liberté d’expression, qui se logent dans les modèles économiques et techniques de ces plateformes. À travers leurs algorithmes pensés pour des logiques financières, ces mécanismes favorisent la diffusion de publications violentes, discriminatoires ou complotistes, créant un tremplin rêvé pour l’extrême droite. Avec la régulation des plateformes à l’européenne qui ne passe pas par le questionnement de leur place prépondérante, celles-ci voient leur rôle et leur influence renforcé·es dans la société. Le modèle économique des réseaux sociaux commerciaux, qui repose sur la violation de la vie privée et la monétisation de contenus problématiques, n’est en effet jamais empêché, tout juste encadré.
Nous espérons que les débats autour du projet de loi Espace Numérique seront enfin l’occasion de discuter de modèles alternatifs et de penser la décentralisation comme véritable solution de la régulation de l’expression en ligne. Cet idéal n’est pas utopique mais existe bel et bien et grandit de jour en jour dans un écosystème fondé sur l’interopérabilité d’acteurs décentralisés, refusant les logiques de concentration des pouvoirs de censure et souhaitant remettre les utilisateurs au cœur des moyens de communications qu’ils utilisent.
";s:7:"dateiso";s:15:"20230728_115351";}s:15:"20230725_160035";a:7:{s:5:"title";s:77:"L’Assemblée adopte l’activation à distance des appareils électroniques";s:4:"link";s:109:"https://www.laquadrature.net/2023/07/25/lassemblee-adopte-lactivation-a-distance-des-appareils-electroniques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20900";s:7:"pubDate";s:31:"Tue, 25 Jul 2023 14:00:35 +0000";s:11:"description";s:257:"La semaine dernière, l’Assemblée nationale a adopté le projet de loi d’orientation et de programmation du ministère de la justice pour les années 2023-2027. Parmi de multiples dispositions, ce texte prévoit l’introduction dans le…";s:7:"content";s:7865:"
La semaine dernière, l’Assemblée nationale a adopté le projet de loi d’orientation et de programmation du ministère de la justice pour les années 2023-2027. Parmi de multiples dispositions, ce texte prévoit l’introduction dans le droit français la possibilité pour la police d’activer des appareils et objets électroniques à distance, que ce soit les fonctionnalités de géolocalisation, des micros ou des caméras.
Nous vous en parlions il y a quelques semaines, après avoir fait un tour au Sénat, le voila désormais voté par l’Assemblée. Ce projet de surveillance, défendu par le gouvernement comme une simple « évolution technologique » des mesures d’enquête, modifie en réalité profondément la nature même d’objets du quotidien pour accéder à l’intimité des personnes. Il transforme des appareils supposées passifs et contrôlés par leurs propriétaires en des auxiliaires de justice pour s’immiscer dans tous les recoins de nos espaces privés. Alors que la police était jusqu’à présent tenue d’une démarche active et matériellement contraignante pour surveiller quelqu’un, ces dispositions du projet de loi sur la justice permettront de transformer un objet tel qu’un smartphone en dispositif de surveillance, en le compromettant.
Sans trop de surprise, les discussions à l’Assemblée n’ont apporté que peu de changement. Pour l’activation à distance des appareils électroniques à des fins de géolocalisation, permettant d’obtenir l’emplacement de leurs propriétaires, les députés de la majorité – réunis avec la droite et l’extrême droite – ont ramené le texte à sa version initiale. Ainsi, cette mesure pourra être mise en œuvre sur des personnes poursuivies pour des délits et crimes punis de 5 ans d’emprisonnement seulement, alors que les sénateurs avaient rehaussé ce seuil à 10 ans. Pour l’activation du micro et de la caméra des objets connectés permettant de filmer ou d’écouter tout ce qui se passe à leurs alentours, aucune modification substantielle n’est à noter. Prévue pour la criminalité et la délinquance organisées, l’application future de cette technique extrêmement intrusive nous fait craindre le pire. Actuellement déjà, un grand nombre d’actions peuvent tomber dans le champ de la délinquance et la « criminalité organisée », comme par exemple la « dégradation en bande organisée » pour laquelle sont poursuivies les militant·es écologistes arrêtées pour avoir participé à l’action contre l’usine Lafarge.
Mais surtout, il est très probable que cette technique de compromission des appareils s’étende ou se banalise d’ici à quelques années. La dernière décennie, qui a bouleversé en profondeur la réglementation pénale et antiterroriste, démontre par l’exemple quel pourrait être le chemin d’une telle généralisation. En effet, les techniques spéciales d’enquête, particulièrement intrusives, étaient historiquement réservées aux enquêtes et affaires les plus graves, données au seul juge d’instruction. Ce n’est que depuis la réforme pénale de 2016 que ces possibilités ont été élargies aux officiers de police judiciaire et aux procureurs dans le cadre d’enquête de flagrance et préliminaire. Avec cette loi, le procureur pouvait alors ordonner des écoutes téléphoniques, des sonorisations de lieux, des poses de balise GPS, de la vidéosurveillance, des captations de données informatiques ou des perquisitions de nuit.
Cette extension était fortement critiquée au regard des pouvoirs inédits donnés au parquet, hiérarchiquement dépendant de l’exécutif. Le journal « Le Monde » parlait à l’époque de « la loi antiterroriste la plus sévère d’Europe » et s’inquiétait, comme nous aujourd’hui, du « glissement régulier des méthodes du renseignement vers l’antiterrorisme, celles de l’antiterrorisme vers le crime organisé, celles du crime organisé vers la délinquance ordinaire » et de conclure « les procédures d’exception finissent par dissoudre le principe même d’un droit commun ».
Ces prédictions se sont révélées exactes puisque dès 2018, le gouvernement a voulu élargir ces possibilités fraîchement données au procureur à l’ensemble des crimes dans le cadre d’une enquête en flagrance ou d’une enquête préliminaire, et non plus à la seule délinquance et à la criminalité en bande organisée. On ne pourrait donner meilleur exemple de fuite en avant sécuritaire, révélant la volonté de s’arroger toujours plus de pouvoirs dont on pouvait pourtant se passer auparavant. Néanmoins, les gardes fous institutionnels ont plutôt fonctionné à ce moment là : le Conseil constitutionnel a censuré cet appétit grandissant de prérogatives de surveillance. Celui-ci a ainsi estimé que la mesure était excessive et que le juge des libertés et de la détention (JLD), désigné pour autoriser et contrôler ces techniques, ne constituait pas une garantie suffisante. Pour le Conseil, puisque le JLD n’a pas accès à l’ensemble des procès-verbaux de l’enquête ni au déroulé des investigations, cela l’empêche d’assurer un contrôle satisfaisant de la nécessité et la proportionnalité des mesures de surveillance. Pourtant, alors que ces limites sont connues, c’est ce même JLD qui a été choisi dans le PJL Justice 2023-2027 pour contrôler les nouvelles techniques d’activation à distance des objets connectés (hors information judiciaire).
Toutefois, rien ne permet de croire à un coup d’arrêt similaire contre ces nouvelles mesures. À l’heure où l’antiterrorisme est mobilisé pour réprimer des militant·es politiques, ce renforcement des pouvoirs policiers ne fait que souligner les dérives autoritaires du gouvernement. Cette volonté de faire tomber les barrières qui empêchent l’État d’accéder à l’intimité des citoyens rejoint aussi l’offensive actuelle contre le chiffrement des conversations, que nous avons documentée à travers l’instruction de l’affaire dite du « 8 décembre ».
Le projet de loi sera prochainement transmis à une commission mixte paritaire qui tranchera les derniers arbitrages. Les équilibres politiques actuels font qu’il n’y a quasiment aucune chance que les parlementaires reculent et fassent retirer ces mesures de surveillance. Pourtant, si ces dernières sont votées, elles offriront une possibilité de contrôle de masse à faible coût et feront basculer le rapport que peuvent avoir les citoyens à la technologie en transformant radicalement la nature des objets qui nous entourent.
";s:7:"dateiso";s:15:"20230725_160035";}s:15:"20230711_155152";a:7:{s:5:"title";s:74:"En visite aux « nuits de l’AN2V », le lobby de la vidéosurveillance";s:4:"link";s:102:"https://www.laquadrature.net/2023/07/11/en-visite-aux-nuits-de-lan2v-le-lobby-de-la-videosurveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20862";s:7:"pubDate";s:31:"Tue, 11 Jul 2023 13:51:52 +0000";s:11:"description";s:231:"Tribune de Félix Tréguer, membre de La Quadrature du Net, initialement publiée sur le site lundimatin.
Il a fallu débourser 180€ et s’arracher à la torpeur de ce début d’été pour gagner le droit de s’attabler…";s:7:"content";s:30208:"
Tribune de Félix Tréguer, membre de La Quadrature du Net, initialement publiée sur le site lundimatin.
Il a fallu débourser 180€ et s’arracher à la torpeur de ce début d’été pour gagner le droit de s’attabler incognito au beau milieu du « milieu » français de la vidéosurveillance policière. L’AN2V, ou association nationale de la vidéoprotection, tenait l’une de ses « nuits de l’AN2V » à Paris le 27 juin dernier. Événement biennal, les « nuits » sont le moment le plus people de cette association de fabricants, de distributeurs, d’intégrateurs, bref de marchands des milliers de caméras de surveillance installées à grands frais dans nos villes et villages.
Ambiance
J’arrive vers 19 heures au musée des arts forains à Paris, à quelques centaines de mètres du ministère de l’Économie. Près de trois cent participants s’amoncellent dans la grande salle à l’entrée. L’ambiance est feutrée, les décors chatoyants et dorés. De vieux jeux de foire sont disposés aux quatre coins de la pièce, avec des animateurs et animatrices censées amuser la galerie. C’est l’heure de l’apéro et le champagne est servi sur des nappes blanches. Neuf individus sur dix sont des hommes, blancs eux-aussi. La quasi-totalité des quelques personnes non-blanches présentes ce soir sont des hôtes et des hôtesses, au vestiaire ou au service. Malheureusement rien de très étonnant dans ce lieu d’entre-soi élitaire.
Tandis que je m’exfiltre à l’extérieur pour respirer un peu, trois hommes s’assoient non loin de moi. Deux représentants de la société Videtics vendent leur soupe à un homme plus âgé qui semble être un donneur d’ordre : analyse de densité de foule, analyse de trafic et de trajectoire des individus dans l’espace urbain, ils vantent les mérites de leur solution et de l’expérimentation prochaine à Marseille du suivi de foules dans le cadre du consortium Serenity soutenu par BPIfrance. De là, en moins d’un quart d’heure, je vois passer Guillaume Cazenave, PDG de la start-up Two-I, spécialisée dans l’Intelligence Artificielle (IA) appliquée à la vidéosurveillance, mais aussi Élisabeth Sellos-Cartel, chargée de la vidéosurveillance au ministère de l’Intérieur. Quelques jours plus tôt, elle animait une réunion de l’AN2V pour éclairer ses membres quant au travail ministériel sur les futurs décrets d’application de l’article 7 de la loi« Jeux Olympiques » (JO) 2024, qui légalise à titre expérimental l’usage de la vidéosurveillance algorithmique – c’est le gros sujet du moment. De retour à l’intérieur, je vois passer les badges de représentants d’entreprises chinoises comme Hikvision et Dahua, lesquelles se partageraient plus de la moitié du parc français de vidéosurveillance. Des acteurs centraux et pourtant sur la défensive, on le verra. Puis à quelques mètres de là, je vois passer la personnalité politique clé pour l’ensemble du secteur de la vidéosurveillance : Philippe Latombe, ancien cadre au Crédit agricole et depuis 2017 député Modem de Vendée.
Philippe Latombe, député guest-star
Quoique que largement inconnu du grand public, le député Latombe est ce soir la guest-star. Aujourd’hui dans la majorité macroniste, membre de la commission des Lois à l’Assemblée nationale, il s’était présenté aux élections régionales de 2015 sur la liste d’extrême-droite de Debout la France, le parti de Nicolas Dupont-Aignan. Et en tant qu’élu de la majorité en 2021, il n’a pas hésité à propager une fake news sur des supposées « prières de rue musulmanes » à Challans. Pour le reste, il semble s’être employé à bâtir l’image d’un centriste raisonnable et d’ardent défenseur de la vie privée. Il a ainsi voté contre le passe sanitaire en 2020 et cosigné une tribune appelant à un moratoire sur la reconnaissance faciale. Cela a probablement aidé à ce que la présidente de l’Assemblée, Yaël Braun-Privet, le nomme au collège de la CNIL en août 2022.
Son jeu trouble avec l’industrie de la surveillance révèle pourtant son insatiable fascination pour la Technopolice, et le place dans une effarante position de conflit d’intérêt. Il y a quelques mois déjà, lors du salon professionnel ExpoProtection, le lobbyiste Sébastien Garnault, initiateur de la plateforme d’influence CyberTaskForce, le présentait en introduction d’un débat sur la vidéosurveillance comme « un interlocuteur de choix (…), un ardent défenseur de l’excellence française, donc clairement un coéquipier ». Cet hiver, Latombe a joué un rôle clé dans les débats sur l’article 7 de la loi JO 2024. Et il est entre autres choses co-auteur d’un rapport d’information sur « les images de sécurité » publié en avril dernier. Tout en jurant qu’« aucun compromis ne doit être fait concernant la protection des libertés fondamentales », ce rapport appelait à étendre très largement le recours à la vidéosurveillance et à la reconnaissance faciale. C’est de ce document dont l’AN2V a décidé qu’il serait beaucoup question ce soir.
20 heures sonnent. Quelqu’un prend le micro pour demander à ces « messieurs » de passer à table, oubliant les quelques femmes présentes ce soir – la non-mixité masculine est ainsi assumée. Le maître de cérémonie, Dominique Legrand, président de l’AN2V, lobbyiste en chef de la vidéosurveillance à la gouaille insatiable, fait son entrée en scène. À l’aise dans son rôle de MC, il convoque Philippe Latombe sur l’estrade et l’avertit d’emblée : « Ce soir, j’ai envie de vous challenger ». Latombe est prêt, chaud-bouillant même, d’autant plus que, en tant que héraut politique du secteur, il se sait au-dessus de tout reproche. Le petit jeu de questions/réponses qui s’amorce est parti pour durer près de trois longs quarts d’heure. Il va consister pour le lobbyiste à reprendre les recommandations les plus cruciales du rapport parlementaire dont Latombe est co-auteur pour demander à ce dernier de noter, sur une échelle de 0 à 20, la probabilité qu’elles soient bientôt inscrites dans les politiques publiques. Exemple : Va-t-on assister à une refonte totale des « dispositifs de captation d’images dans l’espace public » pour « rationaliser » le cadre juridique fixé par le code de la sécurité intérieure ? 10 sur 20 répond Latombe : « Cela finira par arriver mais il faudra sans doute des années au ministère de l’Intérieur pour conduire ce gros travail légistique ».
Viennent ensuite les recommandations n° 3, 4 et 5 du rapport, puis les n° 8, 9, 11, 14, 15 et 16. Durant l’échange, Dominique Legrand doit s’interrompre une dizaine de fois pour demander le silence : « le bruit de fond est trop important, vous n’écoutez pas ! » C’est que, dans l’auditoire, on sirote le kir le ventre vide et les discussions s’animent. On préfère apparemment laisser Legrand faire son numéro en papotant entre pairs dans une atmosphère détendue, dont il faut bien avouer qu’elle fait un peu mauvais genre. Latombe, beau joueur, ne voudrait surtout pas déranger. Il lâche un « c’est pas grave » et invite à poursuivre.
Recommandation 20 sur l’interopérabilité des systèmes de vidéoprotection et d’IA mis en œuvre dans le cadre de l’expérimentation ouverte par la loi JO. Legrand surjoue la satisfaction : « ça, ça nous convient parfaitement ». Recommandation n° 22 sur des marchés publics réservés aux acteurs français et européens au nom de la souveraineté numérique. Latombe s’enthousiasme : « C’est un sujet qui est en train de prendre partout au sein de l’hémicycle, de la France insoumise au Rassemblement national ». Quant au fait d’avoir co-signé, de façon inédite pour la majorité, un amendement sur ce sujet avec l’extrême droite dans le cadre de la loi JO : « Je l’assume c’est pas un souci ». Chassez le naturel extrême-droitier et il revient au galop. Il faut dire qu’outre le fait que le Rassemblement national aide à faire passer près de la moitié des textes de la majorité macroniste, le souverainisme économique est de bon ton dans un climat de rivalités géopolitiques croissantes. Quoiqu’ils aient eu gain de cause avec l’échec de cet amendement, les représentants des entreprises chinoises présents ce soir doivent trouver ces appels au souverainisme peu ragoutants. Et en même temps, l’incurable dépendance des Français aux technologies de l’Empire du milieu leur paraît sans doute un peu pathétique.
Fabrique de l’acceptabilité sociale de la surveillance
On arrive aux recommandations n° 29, 30 et 31 qui portent sur la reconnaissance faciale et biométrique dans l’espace public, un sujet qui fait l’objet d’une récente proposition de loi de la droite et du centre adoptée au Sénat. Reprochant à ses collègues sénateurs de vouloir aller trop vite en besogne, Latombe détaille la philosophie qui guide son approche, à ses yeux la plus capable de porter ses fruits : la stratégie des petits pas, aussi connue sous le nom de « fable de la grenouille » :
« Avec la reconnaissance faciale, on touche à un tabou absolu, on touche au truc qui fait que ça fait hurler tout le monde. Ce que nous avons proposé dans le rapport, et je pense que c’est la vraie bonne façon de faire les choses : si on y va d’un coup d’un seul, un peu comme les sénateurs veulent le faire, ça va tellement crisper que ça passera pas. Il faut y aller en touchant les choses du bout du doigt et en y allant dans des cas très particuliers et très bien protégés, très bien balisés. C’est pour ça qu’on a proposé avec Philippe Gosselin d’utiliser la reconnaissance faciale en direct, avec le flux live, pour trois cas très particuliers : crise terroriste (il faut retrouver les terroristes, il faut pas qu’on se pose de question pour l’utiliser) ; la finalité « bande organisée » (le braquage de fourgon ou d’une bijouterie avec des gens qui sortent de la bijouterie et sont prêts à tirer sur n’importe qui, il faut savoir où ils sont pour intervenir le plus rapidement possible […]) ; et sur l’alerte-enlèvement ([…] pour récupérer l’enfant le plus vite possible […]). Il s’agit de cas emblématiques pour lesquels nos concitoyens savent bien qu’il y a un risque et qu’il faut mettre en place tous les moyens pour contrer ce risque. Ça serait une faute [de ne pas utiliser la reconnaissance faciale]. Si on a des outils pour le faire, utilisons-les, et après on verra bien si ça marche pas. On verra. »
Legrand fait le mec prudent : « Très bien, ça tombe sous le sens, on comprend bien qu’il faut cadrer tout ça, ça peut pas tourner H24 sur l’ensemble du territoire ». Les businessmen de la vidéosurveillance sont des gens raisonnables, c’est l’un des leitmotivs de la soirée.
On poursuit avec une série de recommandations (n° 32, 33 et 35) portant sur les commissions départementales de vidéoprotection et les comités d’éthique, alibis commodes pour faire croire à l’existence de garde-fous mais tombés en déshérence ces dernières années du fait de leur manque de pouvoir et de leur inutilité. Là encore, le député insiste – et l’AN2V approuve : il faut les relancer, il en va de « l’acceptabilité sociale » de la vidéosurveillance.
« La première idée, explique Latombe, c’est de se dire que pour que ce soit accepté par la population, il faut mettre un certain nombre de garde-fous. C’est la CNIL, c’est des choses comme ça, ou le recours au droit que les personnes peuvent avoir pour accéder à leur images […]. Ça permet de mettre du contrôle citoyen sur les choses sans nuire à l’efficacité. Avec les caméras augmentées, où il y a des biais, le regard citoyen [symbolisé par les comités] permet d’apaiser les craintes, d’être sûr qu’il y a un contrôle citoyen qui permet aux habitants de se tranquilliser […]. C’est pas forcément quelque chose qui coûte très cher, c’est quelque chose qui s’organise et qui doit se réunir au moins une fois par trimestre, de faire un rapport et de challenger les effectifs communal (sic). »
Le patron de l’AN2V écoute avec le regard satisfait du maître à qui l’élève récite une leçon parfaitement apprise. Vient enfin la recommandation 36, qui propose de consacrer la CNIL en tant que « chef de file » de la régulation des systèmes d’IA. C’est alors que le député confirme ce que l’on constate depuis des années : plutôt que le gendarme des données personnelles, la CNIL est désormais une agence dédiée à l’accompagnement de l’innovation.
« Beaucoup de monde voit la CNIL comme un empêcheur de tourner en rond. Pour le voir un peu de l’intérieur depuis l’été dernier, il y a quand même une volonté d’ouverture de la CNIL sur ces sujets. Et d’ailleurs, quand on regarde les différents décrets, et même le texte JO [sur la VSA] et même sur le texte « douanes » sur les LAPI [lecture automatique de plaques d’immatriculation], la CNIL a vraiment ouvert ses chakras, en se disant qu’elle ne pouvait plus être ce gendarme strict et qu’il fallait qu’elle intègre les réalités sociales et technologiques et économiques. Il n’en reste pas moins que dans la loi JO, il a fallu rassurer les citoyens sur le fait que les algorithmes sont expertisés avant d’être déployés. Il y a eu un grand débat au sein du gouvernement sur ce sujet, il a été arbitré par le ministère de l’Intérieur face à Bercy qui voulait absolument que ce soit l’Arcep, réputée plus proche des milieux économiques. Il n’empêche que la CNIL est aujourd’hui en grande mutation sur le sujet [de l’IA…]. Mais on ne peut pas confier ces sujets-là à la CNIL sans lui ouvrir complètement ses chakras, et la meilleure façon d’ouvrir ses chakras, c’est d’abord de renforcer son collège en y mettant peut être un peu moins de juristes issus du Conseil d’État, qui sont majoritaires, en y mettant des personnes qualifiées issues du monde technologique, universitaire, et qui ont un capacité à comprendre ce que sont les technos […] ».
Les membres actuels du collège de la CNIL, qui d’ailleurs incluent déjà des universitaires et spécialistes de l’informatique, apprécieront. Quant au fait que la CNIL soit un « gendarme strict », il s’agit d’une grosse exagération compte tenu du laisser-faire de l’autorité dans de très nombreux dossiers. Mais reconnaissons à Latombe une chose : c’est encore pire depuis quelques mois.
« Comment on fait la bascule »
Quoi qu’enorgueilli de son bilan en tant que relais politique du lobby de la vidéosurveillance, il y a un point sur lequel Philippe Latombe tient à faire son mea culpa : le retard pris dans le calendrier réglementaire dans le déploiement de la vidéosurveillance algorithmique (apparemment, 6 mois de retard sur le calendrier prévu). Les décrets d’application de la loi JO ne sont certes toujours pas parus, mais il en aurait vu passer certains à la CNIL et il assure que tout sera prêt pour septembre. Enfin, conformément au souhait exprimé dans son rapport, une proposition de loi devrait être déposée d’ici la fin d’année avec son collègue Philippe Gosselin (LR) pour donner corps à leurs recommandations. Bref, le député a toutes les raisons d’inviter l’industrie de la surveillance à l’optimisme :
« Sur tous ces sujets, je pense qu’il faut que vous soyez rassurés. L’ensemble des sujets commence à infuser partout. Et pas que simplement dans la sphère politique avec le Sénat et l’Assemblée. Je sens que les élus sur l’ensemble du territoire sont conscients des évolutions technologiques et qu’ils ne peuvent pas rester à l’écart. La vraie question ensuite est de [savoir] comment on fait la bascule. Je pense que la bascule elle se fera pas d’un coup d’un seul parce que si on l’impose par la loi d’un coup d’un seul, on aura des blocages et ça marchera pas. Il faut qu’on arrive à adapter les choses pour que nos concitoyens se rendent compte que ça les aide au quotidien. Et si on y arrive, et si les maires peuvent être là pour aider à pousser ce sujet-là, à ce moment on pourra faire avancer les choses. Mais on voit que c’est un sujet qui porte, on voit que c’est un sujet qui avance partout. Y’en a qui sont plus en avance que d’autres – par exemple les douanes sur les LAPI. Il faudra qu’on revoit la manière dont on peut élargir l’utilisation des drones malgré la réserve du Conseil constitutionnel [qui interdit leur usage par les polices municipales]. Il faut avancer petit bout par petit bout, ça se fera pas en un claquement de doigt, mais on va y arriver. Quant à l’Intelligence Artificielle, c’est une vraie révolution, et il faut que vous l’intégriez sur tous les domaines qui pourront être utilisés ».
Message reçu dans l’assistance. Le patron de l’AN2V est d’accord. Fier même : tout ce petit cirque a montré à ses ouailles qu’il faisait bien son boulot : « il faut apprécier chaque marche engagée, on voit beaucoup de choses avancer », insiste-t-il.
Au confessionnal de l’AN2V
Il est bientôt 21 heures. C’est le moment que l’AN2V a choisi pour nous surprendre. Après avoir remercié Latombe et l’avoir invité à s’asseoir à sa table, Dominique Legrand invite sur scène Alain Chouraqui, directeur de recherche émérite au CNRS et auteur du Vertige identitaire, un ouvrage paru en 2022 et sous-titré : « Tirer les leçons de l’expérience collective : comment peut basculer une démocratie ? ». Là encore, il sera donc question de bascule.
Proche de la LICRA, Alain Chouraqui est aussi président de la Fondation du camp des Milles, la structure qui gère le mémorial de ce camp d’internement situé près de Aix en Provence créé en 1939 pour y détenir des étrangers et des résistants anti-fascistes et qui, a l’été 1942, a servi de camp de déportation des juifs présents en zone non-occupée. On s’interroge : que peut-il bien faire ici ? Dominique Legrand tente de résumer la démarche : « À l’AN2V, on est pas là pour vendre que des caméras comme le disent très souvent ceux qui ne nous aiment pas, on est là pour réfléchir et de temps en temps lever le nez du guidon ». C’est en tout cas l’image qu’il veut donner à travers les nuits de l’AN2V.
Chouraqui commence donc son exposé, parle du travail de mémoire auquel il participe. Le ton de l’orateur est solennel, l’écoute de l’auditoire plus respectueuse. Chouraqui explique notamment que, dans le cadre d’un projet de recherche comparatif, lui et ses collègues politistes et historiens ont proposé un modèle en trois étapes des dérives autoritaires, génocidaires et fascistes. La France en serait aujourd’hui à la deuxième étape. L’espace d’un instant, il a réussi à casser la bonne ambiance. Dans un sac en papier disposé sur chacune des tables, on trouve son livre. Je l’ouvre au hasard et tombe sur la page 71. J’y lis le paragraphe suivant :
« Les ‘‘progrès techniques’’ offrent aux passions humaines une puissance telle qu’il peut en perdre la maîtrise en des ‘‘embardées monstrueuses’’ dont la Shoah est le paradigme puisqu’elle doit son ‘‘efficacité’’ extrême aux outils techniques et bureaucratiques les plus modernes mis au service du pire. Il suffit de se demander ce que les nazis auraient pu faire avec des outils informatiques et des manipulations génétiques. »
Par politesse, Chouraqui ne livrera ce soir aucune analyse quant au core business des membres de l’AN2V, à savoir la vente d’engins de surveillance qui participent à armer le génocide culturel des Ouïghours en Chine, la colonisation de la Palestine, et tant d’autres atteintes aux droits humains à travers le monde. Mais ce silence un peu hypocrite n’efface pas tout à fait l’incongruité de sa présence à cette soirée. Après son discours, le dîner peut enfin commencer. J’embraye la discussion avec mon voisin de table, dont le métier est, sans surprise, de vendre des caméras de surveillance et les technologies connexes. Il a trouvé l’intervention « passionnante » :
« C’est bien qu’ils l’aient invité, m’explique-t-il. On est des acteurs dans le business et c’est bien de se poser la question de l’impact des techniques qu’on met en place. Est-ce qu’on participe au Big Brother, au Big Data ? Dans un contexte de crise climatique et des migrations qu’il provoque, est-ce que nos instruments ne vont pas participer à faire du tri, à faire des choix dans les individus ? »
Il le dit à sa manière, vaguement inspirée par ce qu’il a retenu du choc des civilisations. Mais on sent que ces questionnements sont sincères. Tout vendeur de vidéosurveillance, pour peu qu’il n’assume pas pleinement ses penchants autoritaires et soit prêt à s’interroger – ce qui n’est certainement pas le cas de chaque personne dans l’assistance ce soir –, doit bien avoir occasionnellement ce genre de cas de conscience. Il sait qu’il flirte non seulement avec l’illégal, mais aussi avec l’amoral, ayant plus ou moins conscience qu’il contribue chaque jour à construire le monde pété que devront habiter ses enfants.
Je reste perplexe face à cet apparent paradoxe : invoquant la caution morale d’un personnage comme Chouraqui, l’AN2V sensibilise ses membres à la dérive autoritaire du pays, ce alors qu’elle est régulièrement pointée du doigt pour sa promotion de la surveillance numérique de l’espace public urbain. Comment l’expliquer ? Outre l’évident capital symbolique engrangé par l’association via la présence de l’intellectuel (« on réfléchit, on lève le nez du guidon »), le spectacle auquel j’ai assisté ce soir invite à faire l’hypothèse suivante : cette séquence sur l’autoritarisme produit la même chose chez les acteurs de la vidéosurveillance (à commencer par Legrand lui-même) que ce que la stratégie des petits pas et des garde-fous inefficaces produit sur la population : une forme de désinhibition vis-à-vis du potentiel totalitaire de cette technologie. Car la leçon d’histoire offerte par Chouraqui aura probablement permis à tout ce petit monde de se rassurer en se disant qu’il reste dans le camp du « Bien », celui de la démocratie, et ainsi de se dissocier de l’image funeste que leur renvoient leurs adversaires « droits-de-l’hommistes » (« ceux qui ne nous aiment pas », comme le résume Legrand de manière presque touchante). Ils peuvent d’autant mieux le faire que ce soir, ni Chouraqui, ni moi, ni personne d’autre n’aura pris la peine d’expliciter le lien entre technologies de surveillance et pratiques autoritaires. Ce lien est dans toutes les têtes et pourtant, il reste à l’état de non-dit.
Au fond, les nuits de l’AN2V sont un peu comme un confessionnal où les acteurs de la Technopolice sont venus ressasser leurs péchés pour mieux laver leur mauvaise conscience, un moment étrange où l’aveu implicite permet d’entretenir le déni. Faute secrètement avouée, à moitié pardonnée. Après ce bref moment de catharsis et de contrition silencieuse, chacun pourra s’en retourner à sa routine consistant à maximiser les profits liés à l’expansion des marchés de la surveillance. Plutôt qu’un paradoxe, et n’en déplaise à Charouqui, le gargarisme de démocratie auquel j’ai assisté ce soir révélerait donc l’un des mécanismes par lesquels les régimes libéraux contemporains « basculent », à savoir la déculpabilisation des élites et la production d’une irresponsabilité collective par la mise en scène des valeurs démocratiques. Des représentants commerciaux aux donneurs d’ordre administratifs en passant par les parlementaires, les hauts-fonctionnaires ou les ministres, nombreux sont ceux qui, en participant à ces événements rituels, se font croire qu’ils croient encore en la démocratie. Peut-être même se convainquent-ils ainsi qu’ils peuvent faire ce qu’ils font, c’est-à-dire déployer des technologies toujours plus sophistiquées de contrôle social, tout en agissant en son nom. Tandis que l’extrême droite s’affirme de manière toujours plus décomplexée, ces processus grâce auxquels les élites libérales gèrent la dissonance cognitive induite par leur complicité objective avec la spirale autoritaire en cours forment l’un des rouages les plus efficaces du fascisme qui vient.
";s:7:"dateiso";s:15:"20230711_155152";}s:15:"20230704_115307";a:7:{s:5:"title";s:64:"Veesion, la start-up illégale qui surveille les supermarchés ";s:4:"link";s:100:"https://www.laquadrature.net/2023/07/04/veesion-la-start-up-illegale-qui-surveille-les-supermarches/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20847";s:7:"pubDate";s:31:"Tue, 04 Jul 2023 09:53:07 +0000";s:11:"description";s:222:"Nous en parlions déjà il y a deux ans : au-delà de la surveillance de nos rues, la surveillance biométrique se déploie aussi dans nos supermarchés pour tenter de détecter les vols en rayons des magasins.…";s:7:"content";s:8479:"
Nous en parlions déjà il y a deux ans : au-delà de la surveillance de nos rues, la surveillance biométrique se déploie aussi dans nos supermarchés pour tenter de détecter les vols en rayons des magasins. À la tête de ce business, la start-up française Veesion dont tout le monde, même le gouvernement, s’accorde sur l’illégalité du logiciel mais qui continue à récolter des fonds et des clients en profitant de la détresse sociale
La surveillance biométrique de l’espace public ne cesse de s’accroître. Dernier exemple en date : la loi sur les Jeux Olympiques de 2024 qui vient légaliser officiellement la surveillance algorithmique dans l’espace public pour certains événements sportifs, récréatifs et culturels (on en parlait ici). En parallèle, des start-up cherchent à se faire de l’argent sur la surveillance d’autres espaces, notamment les supermarchés. L’idée est la suivante : utiliser des algorithmiques de surveillance biométrique sur les caméras déjà déployées pour détecter des vols dans les grandes surfaces et alerter directement les agents de sécurité.
L’une des entreprises les plus en vue sur le sujet, c’est Veesion, une start-up française dont on parlait déjà il y a deux ans (ici) et qui vient de faire l’objet d’un article de Streetpress. L’article vient rappeler ce que LQDN dénonce depuis plusieurs années : le logiciel déjà déployé dans des centaines de magasins est illégal, non seulement selon l’avis de la CNIL, mais aussi, selon nos informations, pour le gouvernement.
Le business illégal de la détresse sociale
Nous avions déjà souligné plusieurs aspects hautement problématiques de l’entreprise. En premier lieu, un billet publié par son créateur, soulignant que la crise économique créée par la pandémie allait provoquer une augmentation des vols, ce qui rendait nécessaire pour les magasins de s’équiper de son logiciel. Ce billet avait été retiré aussitôt notre premier article publié.
D’autres déclarations de Veesion continuent pourtant de soutenir cette idée. Ici, c’est pour rappeler que l’inflation des prix, en particulier sur les prix des aliments, alimenteraient le vol à l’étalage, ce qui rend encore une fois nécessaire l’achat de son logiciel de surveillance. Un business s’affichant donc sans gêne comme fondé sur la détresse sociale.
Au-delà du discours marketing sordide, le dispositif est clairement illégal. Il s’agit bien ici de données biométriques, c’est-à-dire de données personnelles relatives notamment à des caractéristiques « physiques ou « comportementales » (au sens de l’article 4, par. 14 du RGPD) traitées pour « identifier une personne physique de manière unique » (ici, repérer une personne en train de voler à cause de gestes « suspects » afin de l’appréhender individuellement, et pour cela analyser le comportement de l’ensemble des client·es d’un magasin).
Un tel traitement est par principe interdit par l’article 9 du RGPD, et légal seulement de manière exceptionnelle et sous conditions strictes. Aucune de ces conditions n’est applicable au dispositif de Veesion.
La Quadrature du Net n’est d’ailleurs pas la seule à souligner l’illégalité du système. La CNIL le redit clairement (à sa façon) dans l’article de Streetpress quand elle souligne que les caméras de Veesion « devraient être encadrées par un texte » . Or ce texte n’existe pas. Elle avait exprimé le même malaise au Monde il y a quelques mois, quand son directeur technique reconnaissait que cette technologie était dans un « flou juridique » .
Veesion est d’ailleurs tout à fait au courant de cette illégalité. Cela ressort explicitement de sa réponse à une consultation de la CNIL obtenu par LQDN où Veesion s’alarme de l’interprétation du RGPD par la CNIL qui pourrait menacer « 500 emplois en France » .
Plus surprenant, le gouvernement a lui aussi reconnu l’illégalité du dispositif. Selon nos informations, dans le cadre d’une réunion avec des professionnels du secteur, une personne représentant le ministère de l’Intérieur a explicitement reconnu que la vidéosurveillance algorithmique dans les supermarchés était interdite.
La Technopolice rapporte toujours autant d’argent
Tout cela ne semble pas gêner l’entreprise. Sur leur site , ils annoncent équiper plus de 2500 commerçants, dans 25 pays. Et selon les informations de Streetpress, les clients en France sont notamment Leclerc, Carrefour, G20, Système U, Biocoop, Kiabi ou encore la Fnac. Des enseignes régulièrement fréquentées donc par plusieurs milliers de personnes chaque jour.
Autre point : les financements affluent. En mars, la start-up a levé plus de 10 millions d’euros auprès de multiples fonds d’investissement. Sur le site Welcome to the Jungle, la start-up annonce plus de 100 salariés et plus de 5 millions de chiffre d’affaires.
La question que cela pose est la même que celle que nous rappelons sur ce type de sujets depuis 3 ans : que fait la CNIL ? Pourquoi n’a-t-elle pas fait la moindre communication explicite sur ce sujet ? Nous avions fait il y a deux ans une demande de documents administratifs à cette dernière, elle nous avait répondu qu’il s’agissait d’un dossier en cours d’analyse et qu’elle ne pouvait donc pas nous transmettre les documents demandés. Rien depuis.
Une telle inaction a des conséquences lourdes : outre la surveillance illégale imposée sur plusieurs milliers de personnes, la CNIL vient ici normaliser le non-respect du RGPD et faciliter la création d’une industrie de la Technopolice en laissant les investissements affluer.
Comment encore considérer la CNIL comme une autorité de « protection » de nos libertés quand la communication qui en émane sur ce sujet est qu’elle veut « fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe » ?
Surveillance illégale, détresse sociale, financement massif… Toutes les Technopolices se ressemblent, qu’elles soient en supermarché ou sur notre espace public. Mais pour une fois que tout le monde est d’accord sur l’illégalité d’une de ses représentantes, espérons que Veesion soit arrêtée au plus vite.
";s:7:"dateiso";s:15:"20230704_115307";}s:15:"20230615_162018";a:7:{s:5:"title";s:146:"Tribune : « Attachés aux libertés fondamentales dans l’espace numérique, nous défendons le droit au chiffrement de nos communications »";s:4:"link";s:168:"https://www.laquadrature.net/2023/06/15/tribune-attaches-aux-libertes-fondamentales-dans-lespace-numerique-nous-defendons-le-droit-au-chiffrement-de-nos-communications/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20750";s:7:"pubDate";s:31:"Thu, 15 Jun 2023 14:20:18 +0000";s:11:"description";s:237:"
Cette tribune a été rédigée suite à la publication de notre article sur la criminalisation des pratiques numériques des inculpé·es de l’affaire du 8 décembre. Cette tribune a été signée par plus de 130 personnes…";s:7:"content";s:8385:"
Cette tribune a été rédigée suite à la publication de notre article sur la criminalisation des pratiques numériques des inculpé·es de l’affaire du 8 décembre. Cette tribune a été signée par plus de 130 personnes et organisations et publiée hier sur le site du journal Le Monde. La liste complète des signataires est disponible ici.
Chiffrer ses communications est une pratique banale qui permet qu’une correspondance ne soit lue par personne d’autre que son destinataire légitime. Le droit au chiffrement est le prolongement de notre droit à la vie privée, protégé par l’article 8 de la Convention européenne des droits de l’homme, qui garantit à chacun le « droit au respect de sa vie privée et familiale, de son domicile et de sa correspondance ».
Toute personne qui souhaite protéger sa vie privée peut chiffrer ses communications. Cela concerne aussi bien des militants, des défenseurs des droits humains, des journalistes, des avocats, des médecins… que de simples parents ou amis. Dans le monde entier, le chiffrement est utilisé pour enquêter sur la corruption, s’organiser contre des régimes autoritaires ou participer à des transformations sociales historiques. Le chiffrement des communications a été popularisé par des applications comme WhatsApp ou Signal.
En 2022, ce sont ainsi plus de deux milliards de personnes qui chiffrent quotidiennement leurs communications pour une raison simple : protéger sa vie privée nous renforce toutes et tous. Pourtant, le droit au chiffrement est actuellement attaqué par les pouvoirs policiers, judiciaires et législatifs en France, mais aussi dans l’Union européenne, au Royaume-Uni et aux Etats-Unis. En tant que société, nous devons choisir. Acceptons-nous un futur dans lequel nos communications privées peuvent être interceptées à tout moment et chaque personne considérée comme suspecte ?
Le chiffrement des communications utilisé comme « preuve » d’un comportement clandestin… donc terroriste
La Quadrature du Net a récemment révélé des informations relatives à l’affaire dite du « 8 décembre » (2020) dans laquelle neuf personnes de l’« ultragauche » – dont l’une avait précédemment rejoint la lutte contre l’organisation Etat islamique aux côtés des combattants kurdes des Unités de protection du peuple (YPG) – ont été arrêtées par la DGSI et le RAID. Sept ont été mises en examen pour « association de malfaiteurs terroristes », et leur procès est prévu pour octobre 2023. Ces éléments démontrent, de la part de la police française, une volonté sans précédent de criminaliser l’usage des technologies de protection de la vie privée.
Le chiffrement des communications est alors utilisé comme « preuve » d’un comportement clandestin… donc terroriste ! Des pratiques de sécurité numérique parfaitement légales et responsables – dont le chiffrement des communications qui est pourtant soutenu, et recommandé, par de nombreuses institutions, comme les Nations unies, la Commission nationale de l’informatique et des libertés (CNIL), l’Agence nationale de la sécurité des systèmes d’information (Anssi), l’Agence européenne pour la cybersécurité (Enisa) ou la Commission européenne – sont criminalisées à des fins de mise en scène d’un « groupuscule clandestin » vivant dans « le culte du secret ».
Outre l’usage de messageries chiffrées sont aussi incriminées des pratiques telles que le recours à des services comme Proton Mail pour chiffrer ses e-mails, l’utilisation d’outils permettant de protéger la confidentialité de sa navigation sur Internet (VPN, Tor, Tails), de se protéger contre la surveillance des Gafam, le simple chiffrement d’ordinateurs personnels ou encore l’organisation de formations à la protection numérique (chiffro-fêtes).
Rejet de l’amalgame entre protection des données et terrorisme
Par la criminalisation du chiffrement et de pratiques répandues de sécurité informatique, la police française vise à construire un récit selon lequel les sept personnes mises en examen vivraient « dans la clandestinité ». En l’absence d’un projet terroriste prouvé et avéré, cette prétendue « clandestinité » devient une preuve de l’existence cachée d’un projet inconnu.
Nous, journalistes, activistes, fournisseurs de services tech ou simples citoyens attentifs à la protection des données à l’ère numérique, sommes profondément révoltés de voir qu’un tel amalgame entre la protection basique des données et le terrorisme puisse être alimenté par les services de renseignement et la justice antiterroriste française.
Nous sommes scandalisé·es que des mesures nécessaires à la protection des données personnelles et de la vie privée soient désignées comme des indices d’« actions conspiratives » de personne vivant supposément dans le « culte du secret ».
Nous dénonçons le fait qu’une formation classique et bienveillante au numérique, portant sur Tails, un système d’exploitation grand public développé pour la protection de la vie privée et la lutte contre la censure, puisse constituer un des « faits matériels » caractérisant « la participation à un groupement formé […] en vue de la préparation d’actes de terrorisme ».
Sous prétexte de terrorisme, le système judiciaire français incrimine des pratiques basiques de sécurité. Mais l’exemple français ne représente malheureusement pas l’unique tentative d’affaiblir le droit au chiffrement. A Bruxelles, la Commission européenne a proposé en 2022 le règlement Child Sexual Abuse Regulation (CSAR). Au nom de la lutte contre la pédopornographie, ce texte veut obliger les fournisseurs de messageries chiffrées à donner accès à chacun de nos messages pour les vérifier.
Pour un numérique émancipateur, libre et décentralisé
De nombreuses voix se sont élevées contre cette proposition, parmi lesquelles celles de cent trente organisations internationales. Elles dénoncent notamment l’absence de considération pour la mise en place d’autres moyens qui permettraient de lutter contre ces graves infractions de manière moins liberticide. De récentes fuites ont d’autre part révélé que des pays comme l’Espagne veulent purement et simplement interdire le chiffrement de bout en bout.
En Grande-Bretagne, le projet de loi Online Safety Bill et, aux Etat-Unis, le projet EARN IT s’ajoutent à cette inquiétante guerre contre le chiffrement. Attachés à promouvoir et défendre les libertés fondamentales dans l’espace numérique, nous défendons le droit au chiffrement et continuerons à utiliser et à créer des outils protégeant la vie privée.
Nous refusons que les services de renseignement, les juges ou les fonctionnaires de police puissent criminaliser nos activités au motif qu’elles seraient « suspectes ». Nous continuerons de nous battre pour un numérique émancipateur, libre et décentralisé afin de bâtir une société plus digne pour toutes et tous. Le combat pour le chiffrement est un combat pour un futur juste et équitable.
";s:7:"dateiso";s:15:"20230615_162018";}s:15:"20230605_091225";a:7:{s:5:"title";s:99:"Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste";s:4:"link";s:134:"https://www.laquadrature.net/2023/06/05/affaire-du-8-decembre-le-chiffrement-des-communications-assimile-a-un-comportement-terroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20640";s:7:"pubDate";s:31:"Mon, 05 Jun 2023 07:12:25 +0000";s:11:"description";s:251:"
Cet article a été rédigé sur la base d’informations relatives à l’affaire dite du “8 décembre”1Pour un résumé de l’affaire du 8 décembre voir notamment les témoignages disponibles dans cet article de la Revue Z,…";s:7:"content";s:113800:"
Cet article a été rédigé sur la base d’informations relatives à l’affaire dite du “8 décembre”1Pour un résumé de l’affaire du 8 décembre voir notamment les témoignages disponibles dans cet article de la Revue Z, cet article de Lundi matin, les articles des comités de soutien suivants (iciici et ici) et la page Wikipedia ici. dans laquelle 7 personnes ont été mises en examen pour « association de malfaiteurs terroristes » en décembre 2020. Leur procès est prévu pour octobre 2023. Ce sera le premier procès antiterroriste visant « l’ultragauche » depuis le fiasco de l’affaire Tarnac2L’affaire de Tarnac est un fiasco judiciaire de l’antiterrorisme français. Les inculpé·es ont tous et toutes été relaxé·es après dix années d’instruction. C’est la dernière affaire antiterroriste visant les mouvements de gauche en France..
L’accusation de terrorisme est rejetée avec force par les inculpé·es. Ces dernier·es dénoncent un procès politique, une instruction à charge et une absence de preuves. Ils et elles pointent en particulier des propos decontextualisés et l’utilisation à charge de faits anodins (pratiques sportives, numériques, lectures et musiques écoutées…)3Voir cette lettre ouverte au juge d’instruction, cette lettre de Libre Flot au moment de commencer sa grève de la faim, cette compilation de textes publiés en soutien aux inculpé·es ici, l’émission de Radio Pikez disponible ici et celle-ci de Radio Parleur, un article du Monde Diplomatique d’avril 2021 disponible ici et les articles publiés sur les sites des comités de soutien ici et ici.. De son côté la police reconnaît qu’à la fin de l’instruction – et dix mois de surveillance intensive – aucun « projet précis » n’a été identifié4Voir notamment cet article du monde..
L’État vient d’être condamné pour le maintien à l’isolement du principal inculpé pendant 16 mois et dont il n’a été libéré qu’après une grève de la faim de 37 jours. Une seconde plainte, en attente de jugement, a été déposée contre les fouilles à nu illégales et répétées qu’une inculpée a subies en détention provisoire5Sur les recours déposés par Camille et LibreFlot, voir le communiqué de presse ici. Sur la condamnation de l’État sur le maintien illégal à l’isolement de LibreFlot, voir l’article de Reporterre disponible ici et de Ouest-France disponible ici. Sur ses conditions de vie à l’isolement et sa grève de la faim, voir notamment cette compilation d’écrits de LibreFlot et le témoignage joint au communiqué de presse évoqué ci-avant..
De nombreuses personnalités, médias et collectifs leur ont apporté leur soutien6Voir la tribune de soutien signée plusieurs collectifs et intellectuelles féministes ici, la tribune de soutien du collectif des combattantes et combattants francophones du Rojava ici et la tribune de soutien signée par plusieurs médias et personnalités disponible ici..
C’est dans ce contexte que nous avons été alerté du fait que, parmi les faits reprochés (pour un aperçu global de l’affaire, voir les références en notes de bas de page7Pour un résumé de l’affaire du 8 décembre voir notamment les témoignages disponibles dans cet article de la Revue Z, cet article de Lundi matin, les articles des comités de soutien suivants (iciici et ici) et la page Wikipedia ici.), les pratiques numériques des inculpé·es, au premier rang desquelles l’utilisation de messageries chiffrées grand public, sont instrumentalisées comme autant de « preuves » d’une soi-disant « clandestinité » qui ne peut s’expliquer que par l’existence d’un projet terroriste.
Nous avons choisi de le dénoncer.
« Tous les membres contactés adoptaient un comportement clandestin, avec une sécurité accrue des moyens de communications (applications cryptées, système d’exploitation Tails, protocole TOR permettant de naviguer de manière anonyme sur internet et wifi public). »
DGSI
« L’ensemble des membres de ce groupe se montraient particulièrement méfiants, ne communiquaient entre eux que par des applications cryptées, en particulier Signal, et procédaient au cryptage de leurs supports informatiques […]. »
Juge d’instruction
Ces deux phrases sont emblématiques de l’attaque menée contre les combats historiques de La Quadrature du Net dans l’affaire du 8 décembre que sont le droit au chiffrement8Pour rappel, aujourd’hui le chiffrement est partout. Sur Internet, il est utilisé de manière transparente pour assurer la confidentialité de nos données médicales, coordonnées bancaires et du contenu des pages que nous consultons. Il protège par ailleurs une part croissante de nos communications à travers l’essor des messageries chiffrées comme WhatsApp ou Signal et équipe la quasi-totalité des ordinateurs et téléphones portables vendus aujourd’hui pour nous protéger en cas de perte ou de vol. des communications9Le droit au chiffrement des communications, et en particulier le chiffrement de bout en bout, c’est-à-dire des systèmes de communications « où seules les personnes qui communiquent peuvent lire les messages échangés » dont l’objectif est de « résister à toute tentative de surveillance ou de falsification », est régulièrement attaqué par les États au motif qu’il favoriserait la radicalisation politique et constituerait un obstacle majeur à la lutte contre le terrorisme. Récemment, on peut citer un article de Nextinpact décrivant l’appel en avril dernier des services de polices internationaux à Meta (Facebook) pour que Messenger n’intègre pas le chiffrement de bout-en-bout et disponible ici, le projet de loi américain EARN IT, les discussions européennes autour du CSAR ou britannique « Online Safety Bill », deux projets qui, par nature, représentent la fin du chiffrement de bout en bout en forçant les fournisseurs de messageries chiffrées à accéder à tout échange pour les vérifier. Une tribune a été publiée le 4 mai dernier, journée de la liberté de la presse, par une quarantaine d’organisations dénonçant ces différents projets. En 2016 et 2017, de nombreuses voix ont réagi aux velléités françaises et allemandes de limiter le chiffrement de bout en bout. À ce sujet, voir notamment cet article de La Quadrature, mais aussi les réponses de l’Agence européenne pour la cybersécurité, de la CNIL et du Conseil National du Numérique ou encore de l’Agence national pour la sécurité des systèmes d’information ici., la lutte contre l’exploitation des données personnelles par les GAFAM10Google, Amazon, Facebook, Apple, Microsoft., le droit à l’intimité et la vie privée ainsi que la diffusion et l’appropriation des connaissances en informatique11Parmi les dernières actions de La Quadrature pour le droit au chiffrement et le respect de la vie privée sur Internet, voir notamment notre intervention au Conseil constitutionel contre l’obligation de donner ses codes de déchiffrement en 2018 ici, contre le réglement de censure terroriste adopté en 2021 ici, nos prises de positions suite aux attaques étatiques contre le chiffrement de bout-en-bout en 2016/2017 (ici, ici et ici), ou encore notre plainte collective contre les GAFAM déposée en 2018. Voir aussi nos prises de positions lors du projet de loi Terrorisme en 2014 ici et la loi renseignement en 2015 ici..
Mêlant fantasmes, mauvaise foi et incompétence technique, les éléments qui nous ont été communiqués révèlent qu’un récit policier est construit autour des (bonnes) pratiques numériques des inculpé·es à des fins de mise en scène d’un « groupuscule clandestin » et « conspiratif ».
Voici quelques-unes des habitudes numériques qui sont, dans cette affaire, instrumentalisées comme autant de « preuves » de l’existence d’un projet criminel12La criminalisation des pratiques numériques est discutée dans cet article de CQFD par Camille, une inculpée du 8 décembre.:
– l’utilisation d’applications comme Signal, WhatsApp, Wire, Silence ou ProtonMail pour chiffrer ses communications ;
– le recours à des outils permettant de protéger sa vie privée sur Internet comme un VPN, Tor ou Tails ;
– le fait de se protéger contre l’exploitation de nos données personnelles par les GAFAM via des services comme /e/OS, LineageOS, F-Droid ;
– le chiffrement de supports numériques ;
– l’organisation et la participation à des sessions de formation à l’hygiène numérique ;
– la simple détention de documentation technique.
Alors que le numérique a démultiplié les capacités de surveillance étatiques13La surveillance généralisée via les outils numériques a notamment été révélée par Snowden en 2013). Concernant les enquêtes policières, le discours selon lequel le chiffrement serait un obstacle à leur avancée est pour le moins incomplet. La généralisation du recours au chiffrement ne peut être analysée qu’en prenant en compte le cadre historique de la numérisation de nos sociétés. Cette numérisation s’est accompagnée d’une accumulation phénoménale de données sur chacun·e, et dans une large partie accessibles à la police. Ainsi, le chiffrement ne fait que rétablir un équilibre dans la défense du droit à la vie privée à l’ère numérique. Dans une étude commanditée par le ministère néerlandais de la justice et de la sécurité publiée en 2023 et disponible ici, des policiers expliquent clairement ce point : « Nous avions l’habitude de chercher une aiguille dans une botte de foin et maintenant nous avons une botte de foin d’aiguilles. En d’autres termes, on cherchait des preuves pour une infraction pénale dans le cadre d’une affaire et, aujourd’hui, la police dispose d’un très grand nombre de preuves pour des infractions pénales pour lesquelles des affaires n’ont pas encore été recherchées ». D’autre part, d’autres techniques peuvent être utilisées pour contourner le chiffrement comme l’expliquait l’Observatoire des libertés et du Numérique en 2017 ici et la magistrate Laurence Blisson dans l’article « Petits vices et grandes vertus du chiffrement » publié dans la revue Délibérée en 2019 et disponible ici., nous dénonçons le fait que les technologies qui permettent à chacun·e de rétablir un équilibre politique plus que jamais fragilisé soient associées à un comportement criminel à des fins de scénarisation policière.
Le chiffrement des communications assimilé à un signe de clandestinité
Loin d’être un aspect secondaire de l’affaire, le lien supposé entre pratiques numériques et terrorisme apparaît dans la note de renseignements à l’origine de toute cette affaire.
Dans ce document, par lequel la DGSI demande l’ouverture d’une enquête préliminaire, on peut lire : « Tous les membres contactés adoptaient un comportement clandestin, avec une sécurité accrue des moyens de communications (applications cryptées, système d’exploitation Tails, protocole TOR permettant de naviguer de manière anonyme sur internet et wifi public). »
Cette phrase apparaîtra des dizaines de fois dans le dossier. Écrite par la DGSI, elle sera reprise sans aucun recul par les magistrat·es, au premier titre desquels le juge d’instruction mais aussi les magistrat·es de la chambre de l’instruction et les juges des libertés et de la détention.
Durant la phase d’enquête, l’amalgame entre chiffrement et clandestinité est mobilisé pour justifier le déploiement de moyens de surveillance hautement intrusifs comme la sonorisation de lieux privés. La DGSI les juge nécessaires pour surveiller des « individus méfiants à l’égard du téléphone » qui « utilisent des applications cryptées pour communiquer ».
Après leurs arrestations, les mis·es en examen sont systématiquement questionné·es sur leur utilisation des outils de chiffrement et sommé·es de se justifier : « Utilisez-vous des messageries cryptées (WhatsApp, Signal, Telegram, ProtonMail) ? », « Pour vos données personnelles, utilisez-vous un système de chiffrement ? », « Pourquoi utilisez-vous ce genre d’applications de cryptage et d’anonymisation sur internet ? ». Le lien supposé entre chiffrement et criminalité est clair: « Avez-vous fait des choses illicites par le passé qui nécessitaient d’utiliser ces chiffrements et protections ? », « Cherchez-vous à dissimuler vos activités ou avoir une meilleure sécurité ? ». Au total, on dénombre plus de 150 questions liées aux pratiques numériques.
Et preuve de l’existence d’« actions conspiratives »
À la fin de l’instruction, l’association entre chiffrement et clandestinité est reprise dans les deux principaux documents la clôturant : le réquisitoire du Parquet national antiterroriste (PNAT) et l’ordonnance de renvoi écrite par le juge d’instruction.
Le PNAT consacrera un chapitre entier aux « moyens sécurisés de communication et de navigation » au sein d’une partie intitulée… « Les actions conspiratives ». Sur plus de quatre pages le PNAT fait le bilan des « preuves » de l’utilisation par les inculpé·es de messageries chiffrées et autres mesures de protection de la vie privée. L’application Signal est particulièrement visée.
Citons simplement cette phrase : « Les protagonistes du dossier se caractérisaient tous par leur culte du secret et l’obsession d’une discrétion tant dans leurs échanges, que dans leurs navigations sur internet. L’application cryptée signal était utilisée par l’ensemble des mis en examen, dont certains communiquaient exclusivement [surligné dans le texte] par ce biais. ».
Le juge d’instruction suivra sans sourciller en se livrant à un inventaire exhaustif des outils de chiffrement qu’ont « reconnu » – il utilisera abondamment le champ lexical de l’aveu – utiliser chaque mis·e en examen : « Il reconnaissait devant les enquêteurs utiliser l’application Signal », « X ne contestait pas utiliser l’application cryptée Signal », « Il reconnaissait aussi utiliser les applications Tails et Tor », « Il utilisait le réseau Tor […] permettant d’accéder à des sites illicites ».
Criminalisation des connaissances en informatique
Au-delà du chiffrement des communications, ce sont aussi les connaissances en informatique qui sont incriminées dans cette affaire : elles sont systématiquement assimilées à un facteur de « dangerosité ».
La note de la DGSI, évoquée ci-dessus, précise ainsi que parmi les « profils » des membres du groupe disposant des « compétences nécessaires à la conduite d’actions violentes » se trouve une personne qui posséderait de « solides compétences en informatique et en communications cryptées ». Cette personne et ses proches seront, après son arrestation, longuement interrogé·es à ce sujet.
Alors que ses connaissances s’avéreront finalement éloignées de ce qu’avançait la DGSI – elle n’est ni informaticienne ni versé·e dans l’art de la cryptographie – le juge d’instruction n’hésitera pas à inscrire que cette personne a « installé le système d’exploitation Linux sur ses ordinateurs avec un système de chiffrement ». Soit un simple clic sur « oui » quand cette question lui a été posée lors de l’installation.
La simple détention de documentation informatique est elle aussi retenue comme un élément à charge. Parmi les documents saisis suite aux arrestations, et longuement commentés, se trouvent des notes manuscrites relatives à l’installation d’un système d’exploitation grand public pour mobile dégooglisé (/e/OS) et mentionnant diverses applications de protection de la vie privée (GrapheneOS, LineageOS, Signal, Silence, Jitsi, OnionShare, F-Droid, Tor, RiseupVPN, Orbot, uBlock Origin…).
Dans le procès-verbal où ces documents sont analysés, un·e agent·e de la DGSI écrit que « ces éléments confirment [une] volonté de vivre dans la clandestinité. ». Le PNAT suivra avec la formule suivante : « Ces écrits constituaient un véritable guide permettant d’utiliser son téléphone de manière anonyme, confirmant la volonté de X de s’inscrire dans la clandestinité, de dissimuler ses activités […]. ».
Ailleurs, la DGSI écrira que « […] la présence de documents liés au cryptage des données informatiques ou mobiles [dans un scellé] » matérialisent « une volonté de communiquer par des moyens clandestins. ».
Et de leur transmission
L’incrimination des compétences informatiques se double d’une attaque sur la transmission de ces dernières. Une partie entière du réquisitoire du PNAT, intitulée « La formation aux moyens de communication et de navigation sécurisée », s’attache à criminaliser les formations à l’hygiène numérique, aussi appelées « Chiffrofêtes » ou « Cryptoparties ».
Ces pratiques collectives et répandues – que La Quadrature a souvent organisées ou relayées – contribuent à la diffusion des connaissances sur les enjeux de vie privée, de sécurisation des données personnelles, des logiciels libres et servent à la réappropriation de savoirs informatiques par toutes et tous.
Qu’est-il donc reproché à ce sujet dans cette affaire ? Un atelier de présentation de l’outil Tails, système d’exploitation grand public prisé des journalistes et des défenseurs·ses des libertés publiques. Pour le PNAT c’est lors de cette formation que « X les a dotés de logiciels sécurisés et les a initiés à l’utilisation de moyens de communication et de navigation internet cryptés, afin de leur garantir l’anonymat et l’impunité ». Le lien fait entre droit à la vie privée et impunité, corollaire du fantasme policier d’une transparence totale des citoyen·nes, a le mérite d’être clair.
Le PNAT ajoutera: « X ne se contentait pas d’utiliser ces applications [de protection de la vie privée], il apprenait à ses proches à le faire ». Phrase qui sera reprise, mot pour mot, par le juge d’instruction.
Pire, ce dernier ira jusqu’à retenir cette formation comme un des « faits matériels » caractérisant « la participation à un groupement formé […] en vue de la préparation d’actes de terrorisme », tant pour la personne l’ayant organisé – « en les formant aux moyens de communication et de navigation internet sécurisés » – que pour celles et ceux l’ayant suivi – « en suivant des formations de communication et de navigation internet sécurisés ».
De son côté, la DGSI demandera systématiquement aux proches des mis·es en examen si ces dernier·es leur avaient recommandé l’utilisation d’outils de chiffrement : « Vous ont-ils suggéré de communiquer ensemble par messageries cryptées ? », « C’est lui qui vous a demandé de procéder à l’installation de SIGNAL ? ».
Une réponse inspirera particulièrement le PNAT qui écrira : « Il avait convaincu sa mère d’utiliser des modes de communication non interceptables comme l’application Signal. »
« Êtes-vous anti-GAFA? »
Même la relation à la technologie et en particulier aux GAFAM – contre lesquels nous sommes mobilisés depuis de nombreuses années – est considérée comme un signe de radicalisation. Parmi les questions posées aux mis·es en examen, on peut lire : « Etes-vous anti GAFA ? », « Que pensez-vous des GAFA ? » ou encore « Eprouvez-vous une certaine réserve vis-à-vis des technologies de communication ? ».
Ces questions sont à rapprocher d’une note de la DGSI intitulée « La mouvance ultra gauche » selon laquelle ses « membres » feraient preuve « d’une grand culture du secret […] et une certaine réserve vis-à-vis de la technologie ».
C’est à ce titre que le système d’exploitation pour mobile dégooglisé et grand public /e/OS retient particulièrement l’attention de la DGSI. Un SMS intercepté le mentionnant sera longuement commenté. Le PNAT indiquera à son sujet qu’un·e inculpé·e s’est renseigné·e à propos d’un « nouveau système d’exploitation nommé /e/ […] garantissant à ses utilisateurs une intimité et une confidentialité totale ».
En plus d’être malhonnête – ne pas avoir de services Google n’implique en rien une soi-disante « confidentialité totale » – ce type d’information surprend dans une enquête antiterroriste.
Une instrumentalisation signe d’incompétence technique ?
Comment est-il possible qu’un tel discours ait pu trouver sa place dans un dossier antiterroriste ? Et ce sans qu’aucun des magistrat·es impliqué·es, en premier lieu le juge d’instruction et les juges des libertés et de la détention, ne rappelle que ces pratiques sont parfaitement légales et nécessaires à l’exercice de nos droits fondamentaux ? Les différentes approximations et erreurs dans les analyses techniques laissent penser que le manque de compétences en informatique a sûrement facilité l’adhésion générale à ce récit.
À commencer par celles de la DGSI elle-même, dont les rapports des deux centres d’analyses techniques se contredisent sur… le modèle du téléphone personnel du principal inculpé.
Quant aux notions relatives au fonctionnement de Tor et Tails, bien qu’au centre des accusations de « clandestinité », elles semblent bien vagues.
Un·e agent·e de la DGSI écrira par exemple, semblant confondre les deux : « Thor [sic] permet de se connecter à Internet et d’utiliser des outils réputés de chiffrement de communications et des données. Toutes les données sont stockées dans la mémoire RAM de l’ordinateur et sont donc supprimées à l’extinction de la machine ». Ne serait-ce pas plutôt à Tails que cette personne fait allusion?
Quant au juge d’instruction, il citera des procès verbaux de scellés relatifs à des clés Tails, qui ne fonctionnent pas sur mobile, comme autant de preuves de connaissances relatives à des « techniques complexes pour reconfigurer son téléphone afin de le rendre anonyme ». Il ajoutera par ailleurs, tout comme le PNAT, que Tor permet de « naviguer anonymement sur internet grâce au wifi public » – comme s’il pensait qu’un wifi public était nécessaire à son utilisation.
La DGSI, quant à elle, demandera en garde à vue les « identifiants et mots de passe pour Tor » – qui n’existent pas – et écrira que l’application « Orbot », ou « Orboot » pour le PNAT, serait « un serveur ‘proxy’ TOR qui permet d’anonymiser la connexion à ce réseau ». Ce qui n’a pas de sens. Si Orbot permet bien de rediriger le trafic d’un téléphone via Tor, il ne masque en rien l’utilisation faite de Tor14La connexion à Tor peut être masquée via l’utilisation de pont. Voir ici..
Les renseignements intérieurs confondent aussi Tails avec le logiciel installé sur ce système pour chiffrer les disques durs – appelé LUKS – lorsqu’elle demande: « Utilisez vous le système de cryptage “Tails” ou “Luks” pour vos supports numériques ? ». S’il est vrai que Tails utilise LUKS pour chiffrer les disques durs, Tails est un système d’exploitation – tout comme Ubuntu ou Windows – et non un « système de cryptage ». Mentionnons au passage les nombreuses questions portant sur « les logiciels cryptés (Tor, Tails) ». Si Tor et Tails ont bien recours à des méthodes chiffrement, parler de « logiciel crypté » dans ce contexte n’a pas de sens.
Notons aussi l’utilisation systématique du terme « cryptage », au lieu de « chiffrement ». Si cet abus de langage – tel que qualifié par la DGSI sur son site – est commun, il trahit l’amateurisme ayant conduit à criminaliser les principes fondamentaux de la protection des données personnelles dans cette affaire.
Que dire enfin des remarques récurrentes du juge d’instruction et du PNAT quant au fait que les inculpé·es chiffrent leurs supports numériques et utilisent la messagerie Signal ?
Savent-ils que la quasi-totalité des ordinateurs et téléphones vendus aujourd’hui sont chiffrés par défaut15Pour le chiffrement sur Windows, voir la page Wikipedia de Bitlocker et la documentation de Microsoft. Pour le chiffrement sur Android, voir la documentation officielle et l’article de Wire ici. Pour Apple, voir leur documentation ici.? Les leurs aussi donc – sans quoi cela constituerait d’ailleurs une violation du règlement européen sur la protection des données personnelles16Voir le guide pratique du RGPD publié par la CNIL et disponible ici. Il y est écrit : « Le règlement général sur la protection des données (RGPD) précise que la protection des données personnelles nécessite de prendre les “mesures techniques et organisationnelles appropriées afin de garantir un niveau de sécurité adapté au risque”. Cette exigence s’impose aussi bien au responsable du traitement de données personnelles qu’aux sous-traitants impliqués (article 32 du RGPD) »..
Quant à Signal, accuseraient-ils de clandestinité la Commission Européenne qui a, en 2020, recommandé son utilisation à son personnel17Voir l’article de Politico disponible ici.? Et rangeraient-ils du côté des terroristes le rapporteur des nations Unies qui rappelait en 2015 l’importance du chiffrement pour les droits fondamentaux18Voir le rapport du rapporteur des Nations Unies, David Kaye, sur la protection de la liberté d’expression et d’opinion et disponible ici. Voir aussi les prises de position de l’Agence national pour la sécurité des systèmes d’information ici, de la Commission nationale de l’informatique et des libertés, et du Conseil National du Numérique ici ou de l’Agence européenne pour la cybersécurité ici, et le document de l’Observatoire des libertés et du numérique signé notamment par la Ligue des droits de l’Homme, le Syndicat de la magistrature, Amnesty International et le Syndicat des avocats de France ici. ? Voire l’ANSSI et la CNIL qui, en plus de recommander le chiffrement des supports numériques osent même… mettre en ligne de la documentation technique pour le faire19Voir le guide de l’hygiène numérique de l’ANSSI préconisant le chiffrement de ses disques durs et disponible ici. Voir aussi la page chiffrement de la CNIL ici et son guide de chiffrement des données ici. ?
En somme, nous ne pouvons que les inviter à se rendre, plutôt que de les criminaliser, aux fameuses « Chiffrofêtes » où les bases des bonnes pratiques numériques leur seront expliquées.
Ou nécessité d’un récit policier ?
Si un tel niveau d’incompétence technique peut permettre de comprendre comment a pu se développer un fantasme autour des pratiques numériques des personnes inculpé·es, cela ne peut expliquer pourquoi elles forment le socle du récit de « clandestinité » de la DGSI.
Or, dès le début de l’enquête, la DGSI détient une quantité d’informations considérables sur les futur·es mis·es en examen. À l’ère numérique, elle réquisitionne les données détenues par les administrations (Caf, Pôle Emploi, Ursaff, Assurance-Maladie…), consulte les fichiers administratifs (permis de conduire, immatriculation, SCA, AGRIPPA), les fichiers de police (notamment le TAJ) et analyse les relevés téléphoniques (fadettes). Des réquisitions sont envoyées à de nombreuses entreprises (Blablacar, Air France, Paypal, Western Union…) et le détail des comptes bancaires est minutieusement analysé20Mentionnons les données détenues par les administrations (Assurance maladie, Pôle emploi, les Caisses d’allocations familiales, les URSSAF, les impôts), les fichiers administratifs (permis de conduire, immatriculation, SCA, AGRIPPA), les fichiers de police (notamment le TAJ), les relevés téléphoniques (fadettes). Les réquisitions effectuées par la DGSI auprès des administrations et des entreprises varient selon les inculpé·es. De manière générale, sont contactés Pôle Emploi, la CAF, l’Assurance Maladie, les banques et les opérateurs de téléphonie..
À ceci s’ajoutent les informations recueillies via les mesures de surveillances ayant été autorisées – comptant parmi les plus intrusives que le droit permette tel la sonorisation de lieux privés, les écoutes téléphoniques, la géolocalisation en temps réel via des balises gps ou le suivi des téléphones, les IMSI catcher – et bien sûr les nombreuses filatures dont font l’objet les « cibles ».
Mais, alors que la moindre interception téléphonique évoquant l’utilisation de Signal, WhatsApp, Silence ou Protonmail fait l’objet d’un procès-verbal – assorti d’un commentaire venant signifier la « volonté de dissimulation » ou les « précautions » témoignant d’un « comportement méfiant » – comment expliquer que la DGSI ne trouve rien de plus sérieux permettant de valider sa thèse parmi la mine d’informations qu’elle détient ?
La DGSI se heurterait-elle aux limites de son amalgame entre pratiques numériques et clandestinité ? Car, de fait, les inculpé·es ont une vie sociale, sont déclarées auprès des administrations sociales, ont des comptes bancaires, une famille, des ami·es, prennent l’avion en leur nom, certain·es travaillent, ont des relations amoureuses…
En somme, les inculpé·es ont une vie « normale » et utilisent Signal. Tout comme les plus de deux milliards d’utilisateurs et utilisatrices de messageries chiffrées dans le monde21En 2020, WhatsApp annonçait compter plus de deux milliards d’utilisateurs et utilisatrices. À ceci s’ajoutent celles et ceux d’autres applications de messageries chiffrées comme Signal, Silence, Wire… Voir cet article du Monde.. Et les membres de la Commission européenne…
Chiffrement et alibi policier
La mise en avant du chiffrement offre un dernier avantage de choix au récit policier. Elle sert d’alibi pour expliquer l’absence de preuves quant à l’existence d’un soi-disant projet terroriste. Le récit policier devient alors : ces preuves existent, mais elles ne peuvent pas être déchiffrées.
Ainsi le juge d’instruction écrira que si les écoutes téléphoniques n’ont fourni que « quelques renseignements utiles », ceci s’explique par « l’usage minimaliste de ces lignes » au profit d’« applications cryptées, en particulier Signal ». Ce faisant, il ignore au passage que les analyses des lignes téléphoniques des personnes inculpées indiquent une utilisation intensive de SMS et d’appels classiques pour la quasi-totalité d’entre elles.
Ce discours est aussi appliqué à l’analyse des scellés numériques dont l’exploitation n’amène pas les preuves tant espérées. Suite aux perquisitions, la DGSI a pourtant accès à tout ou partie de six des sept téléphones personnels des inculp·ées, à cinq comptes Signal, à la majorité des supports numériques saisis ainsi qu’aux comptes mails et réseaux sociaux de quatre des mis·es en examen. Soit en tout et pour tout des centaines de gigaoctets de données personnelles, de conversations, de documents. Des vies entières mises à nu, des intimités violées pour être offertes aux agent·es des services de renseignements.
Mais rien n’y fait. Les magistrat·es s’attacheront à expliquer que le fait que trois inculpé·es refusent de fournir leurs codes de déchiffrement – dont deux ont malgré tout vu leurs téléphones personnels exploités grâce à des techniques avancées – entrave « le déroulement des investigations » et empêche « de caractériser certains faits ». Le PNAT ira jusqu’à regretter que le refus de communiquer les codes de déchiffrement empêche l’exploitation… d’un téléphone cassé et d’un téléphone non chiffré. Après avoir tant dénoncé le complotisme et la « paranoïa » des inculpé·es, ce type de raisonnement laisse perplexe22Cette affaire ne fait par ailleurs que confirmer notre opposition, portée devant le Conseil constitutionel en 2018, à l’obligation de fournir ses codes de déchiffrement et dont nous rappellions récemment l’utilisation massive pour les personnes placées en gardes à vue. En plus d’être particulièrement attentatoire à la vie privée et au droit de ne pas s’auto-incriminer, cette obligation a, dans cette affaire, été utilisée comme un moyen de pression au maintien des mesures de détention provisoire et même mise en avant pour justifier le refus d’accès au dossier d’instruction à un·e des inculpé·es. A ce sujet voir notre article revenant sur l’utilisation de cette mesure lors des gardes à vue ici et notre article présentant la question prioritaire de ponstitutionalité posée par La Quadrature à ce sujet en 2018..
Antiterrorisme, chiffrement et justice préventive
Il n’est pas possible de comprendre l’importance donnée à l’association de pratiques numériques à une soi-disant clandestinité sans prendre en compte le basculement de la lutte antiterroriste « d’une logique répressive à des fins préventives »23Pauline Le Monnier de Gouville, « De la répression à la prévention. Réflexion sur la politique criminelle antiterroriste », Les cahiers de la Justice, 2017. Disponible ici. dont le délit « d’association de malfaiteurs terroristes en vue de » (AMT) est emblématique24Voir l’article de la magistrate Laurence Buisson « Risques et périls de l’association de malfaiteurs terroriste » publié en 2017 dans la revue Délibérée et disponible ici.. Les professeur·es Julie Alix et Oliver Cahn25Julie Alix et Olivier Cahn, « Mutations de l’antiterrorisme et émergence d’un droit répressif de la sécurité nationale », Revue de science criminelle et de droit pénal comparé, 2017. Disponible ici. évoquent une « métamorphose du système répressif » d’un droit dont l’objectif est devenu de « faire face, non plus à une criminalité, mais à une menace ».
Ce glissement vers une justice préventive « renforce l’importance des éléments recueillis par les services de renseignements »26Pauline Le Monnier de Gouville, « De la répression à la prévention. Réflexion sur la politique criminelle antiterroriste », Les cahiers de la Justice, 2017. Disponible ici. qui se retrouvent peu à peu libres de définir qui représente une menace « selon leurs propres critères de la dangerosité »27Julie Alix et Olivier Cahn, « Mutations de l’antiterrorisme et émergence d’un droit répressif de la sécurité nationale », Revue de science criminelle et de droit pénal comparé, 2017. Disponible ici..
Remplacer la preuve par le soupçon, c’est donc substituer le récit policier aux faits. Et ouvrir la voie à la criminalisation d’un nombre toujours plus grands de comportements « ineptes, innocents en eux-mêmes »28Intervention devant le Conseil constitutionnel sur le délit d’« Entreprise individuelle terroriste » en 2017. Une rediffusion est disponible ici. pour reprendre les mots de François Sureau. Ce que critiquait déjà, en 1999, la Fédération internationale des droits humains qui écrivait que « n’importe quel type de “preuve”, même insignifiante, se voit accorder une certaine importance »29Fédération Internationale des Droits Humains, Rapport « La porte ouverte à l’arbitraire », 1999. Voir aussi le rapport de Human Rights Watch de 2008 intitulé « La justice court-circuitée. Les lois et procédure antiterroristes en France » et disponible ici. Voir aussi l’entretien dans Lundi matin avec une personne revenant du Rojava, citée ici, revenant sur la criminalisation de la parole..
Et c’est exactement ce qu’il se passe ici. Des habitudes numériques répandues et anodines sont utilisées à charge dans le seul but de créer une atmosphère complotiste supposée trahir des intentions criminelles, aussi mystérieuses soient-elles. Atmosphère dont tout laisse à penser qu’elle est, justement, d’autant plus nécessaire au récit policier que les contours des intentions sont inconnus.
À ce titre, il est particulièrement frappant de constater que, si la clandestinité est ici caractérisée par le fait que les inculpé·es feraient une utilisation « avancée » des outils technologiques, elle était, dans l’affaire Tarnac, caractérisée par le fait… de ne posséder aucun téléphone portable30Voir le rapport de la DCPJ du 15 novembre 2008 et disponible ici et les chapitres « Benjamin R. » et « Mathieu B. », pages 109 et 143 du livre Tarnac, Magasin Général de David Dufresne (édition de poche).. Pile je gagne, face tu perds31Voir notamment l’archive du site des comités de soutien aux inculpé·es de Tarnac ici, une tribune de soutien publiée en 2008 ici et cette interview de Julien Coupat. Voir aussi le livre de David Dufresne Tarnac, Magasin Général..
Toutes et tous terroristes
À l’heure de conclure cet article, l’humeur est bien noire. Comment ne pas être indigné·e par la manière dont sont instrumentalisées les pratiques numériques des inculpé·es dans cette affaire ?
Face au fantasme d’un État exigeant de toute personne une transparence totale au risque de se voir désignée comme « suspecte », nous réaffirmons le droit à la vie privée, à l’intimité et à la protection de nos données personnelles. Le chiffrement est, et restera, un élément essentiel pour nos libertés publiques à l’ère numérique.
Soyons clair: cette affaire est un test pour le ministère de l’intérieur. Quoi de plus pratique que de pouvoir justifier la surveillance et la répression de militant·es parce qu’ils et elles utilisent WhatsApp ou Signal?
Auditionné par le Sénat suite à la répression de Sainte-Soline, Gérald Darmanin implorait ainsi le législateur de changer la loi afin qu’il soit possible de hacker les portables des manifestant·es qui utilisent « Signal, WhatsApp, Telegram » en des termes sans équivoque: « Donnez-nous pour la violence des extrêmes les mêmes moyens que le terrorisme ».
Pour se justifier, il avançait qu’il existe « une paranoia avancée très forte dans les milieux d’ultragauche […] qui utilisent des messageries cryptées » ce qui s’expliquerait par une « culture du clandestin ». Un véritable copier-coller de l’argumentaire policier développé dans l’affaire du 8 décembre. Affaire qu’il citera par ailleurs – au mépris de toute présomption d’innocence – comme l’exemple d’un « attentat déjoué » de « l’ultragauche »32Son audition est disponible ici. Voir à partir de 10:53:50 et 10:55:20 pour les moyens de l’antiterrorisme et à 10:20:19 pour la référence à l’affaire du 8 décembre. Voir aussi sur BFM ici Gérald Darmanin utiliser l’affaire du 8 décembre pour dénoncer la « menace d’ultragauche ». pour appuyer son discours visant à criminaliser les militant·es écologistes.
Voici comment la criminalisation des pratiques numériques s’inscrit dans la stratégie gouvernementale de répression de toute contestation sociale. Défendre le droit au chiffrement, c’est donc s’opposer aux dérives autoritaires d’un pouvoir cherchant à étendre, sans fin, les prérogatives de la lutte « antiterroriste » via la désignation d’un nombre toujours plus grand d’ennemis intérieurs33Voir notamment les livres L’ennemi intérieur. La généalogie coloniale et militaire de l’ordre sécuritaire dans la France contemporaine de Mathieu Rigouste et Répression. L’État face aux contestations politiques de Vanessa Codaccioni..
Après la répression des personnes musulmanes, des « écoterroristes », des « terroristes intellectuels », voici venu la figure des terroristes armé·es de messageries chiffrées. Devant une telle situation, la seule question qui reste semble être : « Et toi, quel·le terroriste es-tu ? ».
Pour un résumé de l’affaire du 8 décembre voir notamment les témoignages disponibles dans cet article de la Revue Z, cet article de Lundi matin, les articles des comités de soutien suivants (iciici et ici) et la page Wikipedia ici.
L’affaire de Tarnac est un fiasco judiciaire de l’antiterrorisme français. Les inculpé·es ont tous et toutes été relaxé·es après dix années d’instruction. C’est la dernière affaire antiterroriste visant les mouvements de gauche en France.
Voir cette lettre ouverte au juge d’instruction, cette lettre de Libre Flot au moment de commencer sa grève de la faim, cette compilation de textes publiés en soutien aux inculpé·es ici, l’émission de Radio Pikez disponible ici et celle-ci de Radio Parleur, un article du Monde Diplomatique d’avril 2021 disponible ici et les articles publiés sur les sites des comités de soutien ici et ici.
Sur les recours déposés par Camille et LibreFlot, voir le communiqué de presse ici. Sur la condamnation de l’État sur le maintien illégal à l’isolement de LibreFlot, voir l’article de Reporterre disponible ici et de Ouest-France disponible ici. Sur ses conditions de vie à l’isolement et sa grève de la faim, voir notamment cette compilation d’écrits de LibreFlot et le témoignage joint au communiqué de presse évoqué ci-avant.
Voir la tribune de soutien signée plusieurs collectifs et intellectuelles féministes ici, la tribune de soutien du collectif des combattantes et combattants francophones du Rojava ici et la tribune de soutien signée par plusieurs médias et personnalités disponible ici.
Pour rappel, aujourd’hui le chiffrement est partout. Sur Internet, il est utilisé de manière transparente pour assurer la confidentialité de nos données médicales, coordonnées bancaires et du contenu des pages que nous consultons. Il protège par ailleurs une part croissante de nos communications à travers l’essor des messageries chiffrées comme WhatsApp ou Signal et équipe la quasi-totalité des ordinateurs et téléphones portables vendus aujourd’hui pour nous protéger en cas de perte ou de vol.
Le droit au chiffrement des communications, et en particulier le chiffrement de bout en bout, c’est-à-dire des systèmes de communications « où seules les personnes qui communiquent peuvent lire les messages échangés » dont l’objectif est de « résister à toute tentative de surveillance ou de falsification », est régulièrement attaqué par les États au motif qu’il favoriserait la radicalisation politique et constituerait un obstacle majeur à la lutte contre le terrorisme. Récemment, on peut citer un article de Nextinpact décrivant l’appel en avril dernier des services de polices internationaux à Meta (Facebook) pour que Messenger n’intègre pas le chiffrement de bout-en-bout et disponible ici, le projet de loi américain EARN IT, les discussions européennes autour du CSAR ou britannique « Online Safety Bill », deux projets qui, par nature, représentent la fin du chiffrement de bout en bout en forçant les fournisseurs de messageries chiffrées à accéder à tout échange pour les vérifier. Une tribune a été publiée le 4 mai dernier, journée de la liberté de la presse, par une quarantaine d’organisations dénonçant ces différents projets. En 2016 et 2017, de nombreuses voix ont réagi aux velléités françaises et allemandes de limiter le chiffrement de bout en bout. À ce sujet, voir notamment cet article de La Quadrature, mais aussi les réponses de l’Agence européenne pour la cybersécurité, de la CNIL et du Conseil National du Numérique ou encore de l’Agence national pour la sécurité des systèmes d’information ici.
Parmi les dernières actions de La Quadrature pour le droit au chiffrement et le respect de la vie privée sur Internet, voir notamment notre intervention au Conseil constitutionel contre l’obligation de donner ses codes de déchiffrement en 2018 ici, contre le réglement de censure terroriste adopté en 2021 ici, nos prises de positions suite aux attaques étatiques contre le chiffrement de bout-en-bout en 2016/2017 (ici, ici et ici), ou encore notre plainte collective contre les GAFAM déposée en 2018. Voir aussi nos prises de positions lors du projet de loi Terrorisme en 2014 ici et la loi renseignement en 2015 ici.
La surveillance généralisée via les outils numériques a notamment été révélée par Snowden en 2013). Concernant les enquêtes policières, le discours selon lequel le chiffrement serait un obstacle à leur avancée est pour le moins incomplet. La généralisation du recours au chiffrement ne peut être analysée qu’en prenant en compte le cadre historique de la numérisation de nos sociétés. Cette numérisation s’est accompagnée d’une accumulation phénoménale de données sur chacun·e, et dans une large partie accessibles à la police. Ainsi, le chiffrement ne fait que rétablir un équilibre dans la défense du droit à la vie privée à l’ère numérique. Dans une étude commanditée par le ministère néerlandais de la justice et de la sécurité publiée en 2023 et disponible ici, des policiers expliquent clairement ce point : « Nous avions l’habitude de chercher une aiguille dans une botte de foin et maintenant nous avons une botte de foin d’aiguilles. En d’autres termes, on cherchait des preuves pour une infraction pénale dans le cadre d’une affaire et, aujourd’hui, la police dispose d’un très grand nombre de preuves pour des infractions pénales pour lesquelles des affaires n’ont pas encore été recherchées ». D’autre part, d’autres techniques peuvent être utilisées pour contourner le chiffrement comme l’expliquait l’Observatoire des libertés et du Numérique en 2017 ici et la magistrate Laurence Blisson dans l’article « Petits vices et grandes vertus du chiffrement » publié dans la revue Délibérée en 2019 et disponible ici.
Voir le guide pratique du RGPD publié par la CNIL et disponible ici. Il y est écrit : « Le règlement général sur la protection des données (RGPD) précise que la protection des données personnelles nécessite de prendre les “mesures techniques et organisationnelles appropriées afin de garantir un niveau de sécurité adapté au risque”. Cette exigence s’impose aussi bien au responsable du traitement de données personnelles qu’aux sous-traitants impliqués (article 32 du RGPD) ».
Voir le rapport du rapporteur des Nations Unies, David Kaye, sur la protection de la liberté d’expression et d’opinion et disponible ici. Voir aussi les prises de position de l’Agence national pour la sécurité des systèmes d’information ici, de la Commission nationale de l’informatique et des libertés, et du Conseil National du Numérique ici ou de l’Agence européenne pour la cybersécurité ici, et le document de l’Observatoire des libertés et du numérique signé notamment par la Ligue des droits de l’Homme, le Syndicat de la magistrature, Amnesty International et le Syndicat des avocats de France ici.
Voir le guide de l’hygiène numérique de l’ANSSI préconisant le chiffrement de ses disques durs et disponible ici. Voir aussi la page chiffrement de la CNIL ici et son guide de chiffrement des données ici.
Mentionnons les données détenues par les administrations (Assurance maladie, Pôle emploi, les Caisses d’allocations familiales, les URSSAF, les impôts), les fichiers administratifs (permis de conduire, immatriculation, SCA, AGRIPPA), les fichiers de police (notamment le TAJ), les relevés téléphoniques (fadettes). Les réquisitions effectuées par la DGSI auprès des administrations et des entreprises varient selon les inculpé·es. De manière générale, sont contactés Pôle Emploi, la CAF, l’Assurance Maladie, les banques et les opérateurs de téléphonie.
En 2020, WhatsApp annonçait compter plus de deux milliards d’utilisateurs et utilisatrices. À ceci s’ajoutent celles et ceux d’autres applications de messageries chiffrées comme Signal, Silence, Wire… Voir cet article du Monde.
Cette affaire ne fait par ailleurs que confirmer notre opposition, portée devant le Conseil constitutionel en 2018, à l’obligation de fournir ses codes de déchiffrement et dont nous rappellions récemment l’utilisation massive pour les personnes placées en gardes à vue. En plus d’être particulièrement attentatoire à la vie privée et au droit de ne pas s’auto-incriminer, cette obligation a, dans cette affaire, été utilisée comme un moyen de pression au maintien des mesures de détention provisoire et même mise en avant pour justifier le refus d’accès au dossier d’instruction à un·e des inculpé·es. A ce sujet voir notre article revenant sur l’utilisation de cette mesure lors des gardes à vue ici et notre article présentant la question prioritaire de ponstitutionalité posée par La Quadrature à ce sujet en 2018.
Pauline Le Monnier de Gouville, « De la répression à la prévention. Réflexion sur la politique criminelle antiterroriste », Les cahiers de la Justice, 2017. Disponible ici.
Voir l’article de la magistrate Laurence Buisson « Risques et périls de l’association de malfaiteurs terroriste » publié en 2017 dans la revue Délibérée et disponible ici.
Julie Alix et Olivier Cahn, « Mutations de l’antiterrorisme et émergence d’un droit répressif de la sécurité nationale », Revue de science criminelle et de droit pénal comparé, 2017. Disponible ici.
Fédération Internationale des Droits Humains, Rapport « La porte ouverte à l’arbitraire », 1999. Voir aussi le rapport de Human Rights Watch de 2008 intitulé « La justice court-circuitée. Les lois et procédure antiterroristes en France » et disponible ici. Voir aussi l’entretien dans Lundi matin avec une personne revenant du Rojava, citée ici, revenant sur la criminalisation de la parole.
Voir le rapport de la DCPJ du 15 novembre 2008 et disponible ici et les chapitres « Benjamin R. » et « Mathieu B. », pages 109 et 143 du livre Tarnac, Magasin Général de David Dufresne (édition de poche).
Voir notamment l’archive du site des comités de soutien aux inculpé·es de Tarnac ici, une tribune de soutien publiée en 2008 ici et cette interview de Julien Coupat. Voir aussi le livre de David Dufresne Tarnac, Magasin Général.
Son audition est disponible ici. Voir à partir de 10:53:50 et 10:55:20 pour les moyens de l’antiterrorisme et à 10:20:19 pour la référence à l’affaire du 8 décembre. Voir aussi sur BFM ici Gérald Darmanin utiliser l’affaire du 8 décembre pour dénoncer la « menace d’ultragauche ».
Voir notamment les livres L’ennemi intérieur. La généalogie coloniale et militaire de l’ordre sécuritaire dans la France contemporaine de Mathieu Rigouste et Répression. L’État face aux contestations politiques de Vanessa Codaccioni.
";s:7:"dateiso";s:15:"20230605_091225";}s:15:"20230531_153828";a:7:{s:5:"title";s:93:"Transformer les objets connectés en mouchards : la surenchère sécuritaire du gouvernement";s:4:"link";s:128:"https://www.laquadrature.net/2023/05/31/transformer-les-objets-connectes-en-mouchards-la-surenchere-securitaire-du-gouvernement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20620";s:7:"pubDate";s:31:"Wed, 31 May 2023 13:38:28 +0000";s:11:"description";s:249:"
Communiqué de l’Observatoire des Libertés et du Numérique, 31 mai 2023
Le projet de loi « Orientation et programmation du ministère de la Justice 2023-2027 » a commencé à être discuté au Sénat, et son article 3 fait…";s:7:"content";s:13150:"
Communiqué de l’Observatoire des Libertés et du Numérique, 31 mai 2023
Au milieu de dispositions qui visent à entériner pêle-mêle les interventions à distance des médecins en cas de prolongation de la garde à vue et des interprètes dès le début de la garde à vue, ou l’extension des possibilités des perquisitions de nuit à des crimes de droit commun, est créé un nouvel outil d’enquête permettant d’activer, à distance, les appareils électroniques d’une personne à son insu pour obtenir sa géolocalisation en temps réel ou capter des images et des sons. Art. 3 points 12° et 13° et 17° à 19°.
En clair, il s’agira par exemple pour les enquêteurs judiciaires de géolocaliser une voiture en temps réel à partir de son système informatique, d’écouter et enregistrer tout ce qui se dit autour du micro d’un téléphone même sans appel en cours, ou encore d’activer la caméra d’un ordinateur pour filmer ce qui est dans le champ de l’objectif, même si elle n’est pas allumée par son propriétaire. Techniquement, les policiers exploiteront les failles de sécurité de ces appareils (notamment, s’ils ne sont pas mis à jour en y accédant, ou à distance) pour installer un logiciel qui permet d’en prendre le contrôle et transformer vos outils, ceux de vos proches ou de différents lieux en mouchards.
La mesure prévue par l’article 3 est particulièrement problématique pour les téléphones portables et les ordinateurs tant leur place dans nos vies est conséquente. Mais le danger ne s’arrête pas là puisque son périmètre concerne en réalité tous les « appareils électroniques », c’est-à-dire tous les objets numériques disposant d’un micro, d’une caméra ou de capteurs de localisations. Cette mesure d’enquête pourrait ainsi permettre de :
« sonoriser » donc écouter des espaces à partir d’une télévision connectée, d’un babyphone, d’un assistant vocal (type Google Home), ou d’un micro intégré à une voiture ;
de retransmettre des images et des vidéos à partir de la caméra d’un ordinateur portable, d’un smartphone ou d’une caméra de sécurité à détection de mouvement ;
de récupérer la localisation d’une personne grâce au positionnement GPS d’une voiture, d’une trottinette connectée ou d’une montre connectée. De nombreux autres périphériques disposant de ces capteurs pourraient aussi être piratés.
Si ce texte était définitivement adopté, cela démultiplierait dangereusement les possibilités d’intrusion policière, en transformant tous nos outils informatiques en potentiels espions.
Il est, à cet égard, particulièrement inquiétant de voir consacrer le droit pour l’Etat d’utiliser les failles de sécurité des logiciels ou matériels utilisés plutôt que de s’attacher à les protéger en informant de l’existence de ces failles pour y apporter des remèdes.
Les services de police et de renseignement disposent pourtant déjà d’outils extrêmement intrusifs : installation de mouchards dans les domiciles ou les voitures (balise GPS, caméras de vidéosurveillance, micro de sonorisation), extraction des informations d’un ordinateur ou d’un téléphone par exemple et mise en oeuvre d’enregistreurs d’écran ou de frappes de clavier (keylogger). Ces possibilités très larges, particulièrement attentatoires à la vie privée, sont déjà détournées et utilisées pour surveiller des militant·es comme (dans la lutte du Carnet, dans l’opposition aux mégabassines, dans les lieux militants de Dijon, ou dans les photocopieuses de lieu anarchistes, etc.)
Alors que les révélations sur l’espionnage des téléphones par Pegasus continuent de faire scandale et que les possibilités des logiciels espions ont été condamnées par le Haut-Commissariat des Nations Unies aux droits de l’homme, le ministère de la Justice y voit a contrario un exemple à suivre. Il tente de légitimer ces dispositifs en assurant que seuls le crime organisé et le terrorisme seront visés via ces « techniques spéciales d’enquête ».
Si le projet de loi renvoie effectivement à des infractions considérées comme graves, cela n’est pas de nature à apaiser les inquiétudes légitimes. En effet, ces mêmes infractions graves ont déjà été utilisées pour poursuivre des actions militantes, que ce soit à l’encontre de personnes solidaires avec les migrants accusées d’aide à l’entrée de personnes en bande organisée, de militants écologistes, encore qualifiés récemment d’ « écoterroristes » ou encore de militants contre l’enfouissement de déchets nucléaires à Bure. Plus généralement, le spectre des infractions visées peut aussi dépasser l’imaginaire de la « grande criminalité », y sont inclus notamment : la production et la vente de stupéfiant quelque soit l’échelle, le proxénétisme dont la définition très large peut inclure la seule aide à une personne travailleuse du sexe, les vols en bande organisée…
Surtout, l’histoire nous a démontré qu’il existait en la matière un « effet cliquet » : une fois qu’un texte ou une expérimentation sécuritaire est adopté, il n’y a jamais de retour en arrière. À l’inverse, la création d’une mesure intrusive sert généralement de base aux extensions sécuritaires futures, en les légitimant par sa seule existence. Un exemple fréquent est d’étendre progressivement des dispositions initialement votées pour la répression d’un crime choquant à d’autres délits. Le fichage génétique (FNAEG) a ainsi été adopté à l’encontre des seuls auteurs d’infractions sexuelles, pour s’étendre à quasiment l’ensemble des délits : aujourd’hui, 10% de la population française de plus de 20 ans est directement fichée et plus d’un tiers indirectement.
Permettre de prendre le contrôle de tous les outils numériques à des fins d’espionnage policier ouvre la voie à des risques d’abus ou d’usages massifs extrêmement graves.
Au regard de la place croissante des outils numériques dans nos vies, accepter le principe même qu’ils soient transformés en auxiliaires de police sans que l’on ne soit au courant pose un problème grave dans nos sociétés. Il s’agit d’un pas de plus vers une dérive totalitaire qui s’accompagne au demeurant d’un risque élevé d’autocensure pour toutes les personnes qui auront – de plus en plus légitimement – peur d’être enregistrées par un assistant vocal, que leurs trajets soient pistés, et même que la police puisse accéder aux enregistrements de leurs vies – par exemple si elles ont le malheur de passer nues devant la caméra de leur téléphone ou de leur ordinateur.
Pour toutes ces raisons, l’article 3 de la LOPJ suscite de graves inquiétudes quant à l’atteinte aux droits et libertés fondamentales (droit à la sûreté, droit à la vie privée, au secret des correspondances, droit d’aller et venir librement). C’est pourquoi nous appelons l’ensemble des parlementaires à oeuvrer pour la suppression de ces dispositions de ce projet de loi et à faire rempart contre cette dérive sécuritaire.
";s:7:"dateiso";s:15:"20230531_153828";}s:15:"20230523_095034";a:7:{s:5:"title";s:62:"Drones : qui fera atterrir le ministère de l’Intérieur ?";s:4:"link";s:92:"https://www.laquadrature.net/2023/05/23/drones-qui-fera-atterrir-le-ministere-de-linterieur/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20590";s:7:"pubDate";s:31:"Tue, 23 May 2023 07:50:34 +0000";s:11:"description";s:245:"Mardi dernier, nous avons participé à une audience au Conseil d’État pour demander la suspension du décret autorisant la police nationale à déployer des drones sur le territoire. La décision devrait être rendue dans quelques…";s:7:"content";s:12247:"
Mardi dernier, nous avons participé à une audience au Conseil d’État pour demander la suspension du décret autorisant la police nationale à déployer des drones sur le territoire. La décision devrait être rendue dans quelques jours. D’un côté, associations et syndicats dénonçant une nouvelle dérive de surveillance et de militarisation de l’espace public ; de l’autre, un ministère de l’intérieur méprisant ouvertement les principes élémentaires des droits fondamentaux. Épaulé par le contexte sécuritaire, ce dernier se permet même de clamer tout haut ses fantasmes sécuritaires, entre dispositifs de marquage invisible et pilotes de drones à moto.
Nous en parlions ici : l’année dernière, après plusieurs revers pour le gouvernement, celui-ci a réussi à faire voter par le Parlement un texte légalisant l’usage des drones par la police nationale et la gendarmerie. En avril dernier, un décret – attendu depuis longtemps – a été publié par le ministère de l’intérieur. Il permet aux préfets de prendre des arrêtés pour autoriser la police à utiliser des drones pour des missions de surveillance.
Depuis la publication de ce décret, il est rare que quelques jours se passent sans qu’un arrêté vienne prévoir un nouveau déploiement. Manifestations, frontières, rodéos urbains, événements culturels, … Le Monde dénombrait la semaine dernière plus d’une cinquantaine d’usages en à peine un mois. Les drones ne sont d’ailleurs pas les seuls à être autorisés, la police peut également utiliser des caméras fixées sur des hélicoptères – on parle de « boules optroniques », capables d’identifier des individus à plus de 2km.
Pour contrer cette vague sécuritaire d’une rare intensité (parmi d’autres), les associations et organisations syndicales mènent une bataille sur le terrain, en procédures d’urgence directement contre les arrêtés devant les tribunaux administratifs, avec quelques succès mais beaucoup de défaites. En complément, c’est pour lutter en amont contre ce déploiement que l’Association de Défense des Libertés Constitutionnelles (Adelico) a attaqué directement le décret d’autorisation des drones en demandant la suspension en référé (c’est-à-dire une procédure d’urgence) de ce texte, en attendant une décision sur le fond pour son annulation. La Quadrature du Net est intervenue au soutien de cette procédure.
Des dispositifs de surveillance ni nécessaires ni proportionnés
L’audience dans cette affaire s’est déroulée mardi dernier. Comme toute audience de référé, les débats oraux se sont déroulés avec, d’un côté, une représentante du ministère de l’Intérieur (en l’occurence, la directrice des libertés publiques au ministère), et de l’autre les associations et syndicats parties ou intervenants au recours (c’est-à-dire l’Adelico, le Syndicat des avocats de France, le Syndicat de la magistrature et La Quadrature du Net). Entre les deux, le juge des référés, un conseiller d’État, qui décidera seul s’il convient oui ou non de suspendre le texte.
Pendant près de trois heures, les associations ont répété leurs inquiétudes sur la nouvelle atteinte que représente la surveillance par drones : une surveillance mobile, invisible, en capacité de surveiller d’un seul regard plusieurs centaines de milliers de personnes. L’intervention (une requête et une réplique) de LQDN se concentrait sur le principe de nécessité et de proportionnalité, au sens du droit de l’UE (ce même droit, pourtant protecteur dans le domaine de la surveillance, que le Conseil d’État refusait d’appliquer en 2021 en matière de surveillance d’Internet).
Le principe que nous invoquions pour démontrer l’illégalité de ce décret se résume en un mot : le ministère ne démontre à aucun moment la nécessité d’utiliser des drones pour remplir ses missions de protection de l’ordre public, en particulier par rapport à l’armada d’agents, de caméras et de véhicules qu’il a déjà à terre. Pire, les drones étant en capacité de récupérer des données sensibles (comme des opinions politiques lors de la surveillance de manifestations, même si les drones traitent d’autres types de données sensibles dans les autres contextes d’utilisation), le ministère doit prouver la nécessité absolue d’utiliser ce dispositif – ce qu’il ne fait à aucun moment.
Ces principes ont beau être inscrits explicitement dans le droit français et européen (et renforcés par des arrêts de la Cour de justice de l’Union européenne), la représentante du ministère les a balayé d’un revers de main pendant l’audience.
Le ministère clame haut et fort son mépris des droits fondamentaux
Monopolisant la parole et coupant celle des représentant.es des associations, la représentante du ministère de l’intérieur s’est contentée d’affirmer que cet outil leur était désormais bien utile car la police était devenue une « cible » qui « excite les manifestants ». Les débats ont ainsi révélé que l’objectif du ministère n’était pas seulement de protéger la population ou de suppléer à un manque d’effectif mais, particulièrement pendant les manifestations, de protéger la police des manifestant·es.
Le ministère a refusé toute considération sur les libertés, considérant qu’il s’agissait d’une innovation technologique sans gravité particulière par rapport à la vidéosurveillance, nécessaire par rapport au risque terroriste, et qu’on avait heureusement évolué par rapport « aux épées du Moyen-Âge ». Un tel raisonnement passe-partout lui permettra de justifier de toute invention technologique, peu importe les finalités et les conséquences sur nos libertés.
Autre point : le décret reconnaît que les drones pourront filmer l’intérieur des domiciles (ainsi que les entrées ou terrasses ou jardins). Alors qu’il s’agissait auparavant d’une limite infranchissable dans la surveillance, le ministère soutient au contraire qu’il se donne quarante-huit heures pour conserver ces images et les transmettre, si besoin, à l’autorité judiciaire.
Notons que ce mépris du ministère pour le droit n’est pas nouveau. Cela fait plus de 3 ans que nous menons des contentieux contre l’usage des drones par la police, et cela fait plus de 3 ans que le ministère enchaîne les contre-vérités et les approximations devant les juridictions. Il aura fallu deux décisions du Conseil d’État en 2020 et une sanction de la CNIL début 2021 pour les forcer à s’arrêter une première fois – avant que la loi ne vienne les légaliser. Et encore, déjà à l’époque le ministère de l’intérieur ne montrait que du mépris envers les institutions qui le contraignaient : en mai 2020, il inventait une doctrine d’emploi pour tenter d’échapper à la sanction ; à l’été 2020, la préfecture de police de Paris sortait de son chapeau un dispositif de floutage désactivable à souhait ; en 2021, la CNIL justifiait la sanction (décision la plus forte que la CNIL peut prendre) du ministère de l’intérieur par le fait que ce dernier avait annoncé qu’il ne respecterait pas une éventuelle mise en demeure ou avertissement.
La surveillance de l’espace public en surchauffe
Cette surchauffe se fait sur deux lignes parallèles. L’une d’entre elle concerne la multiplication et l’extension des moyens de captation. Caméras de vidéosurveillance fixes, caméras-piétons, caméras sur les véhicules, caméras dans les halls d’immeubles, hélicoptères de surveillance, drones de surveillance. Depuis 1995, cette extension est exponentielle. De l’autre côté, c’est l’utilisation des images captées qui est démultipliée : mutualisation des flux, vidéosurveillance augmentée, reconnaissance faciale…
Toujours plus inquiétant : les préfets et le ministère ne se satisfont déjà plus des drones. Dans les échanges lors de l’audience ou pendant la procédure écrite (comme l’a soulevé Mediapart), le ministère fait déjà part de ses velléités pour le futur : drones équipés de lampes puissantes, pilotes de drones à moto, et drones équipés de dispositifs de produits de marquage codés (spray ou billes tirées à partir de fusils à air comprimé permettant de marquer certains individus lors de manifestations). Où s’arrêtera le ministère de l’Intérieur ?
Nous espérons que le Conseil d’État mettra un coup d’arrêt à cette intensification sans précédent de la surveillance de l’espace public.
";s:7:"dateiso";s:15:"20230523_095034";}s:15:"20230512_114200";a:7:{s:5:"title";s:57:"EN GAV, t’es fiché·e – ÉPISODE 2 : les empreintes";s:4:"link";s:89:"https://www.laquadrature.net/2023/05/12/en-gav-tes-fiche%c2%b7e-episode-2-les-empreintes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20535";s:7:"pubDate";s:31:"Fri, 12 May 2023 09:42:00 +0000";s:11:"description";s:279:"Après avoir dressé le bilan des évolutions juridiques concernant l’accès aux téléphones en garde à vue, nous revenons dans ce nouveau volet sur l’inscription généralisée des personnes arrêtées au fichier automatisé des empreintes digitales –…";s:7:"content";s:15973:"
Après avoir dressé le bilan des évolutions juridiques concernant l’accès aux téléphones en garde à vue, nous revenons dans ce nouveau volet sur l’inscription généralisée des personnes arrêtées au fichier automatisé des empreintes digitales – ou FAED.
La prise d’empreintes relève d’un vieux et sombre rêve de la fin du XIXe siècle de classification, catégorisation et identification de la population criminelle d’après ses caractéristiques physiques. À l’époque du bertillonnage – du nom du criminologue qui a créé l’anthropométrie judiciaire -, les empreintes étaient relevées sur fiches cartonnées. Désormais, les justiciables se voient prendre leurs empreintes digitales et palmaires sur scanner, de gré ou de force.
Que dit la loi ?
Les empreintes digitales et palmaires font systématiquement l’objet d’un relevé signalétique par les policiers lors d’une garde à vue (GAV), puisque, en application de l’article 55-1 du code de procédure pénale, il suffit d’être suspecté d’un délit ou d’un crime pour y avoir droit. Dans ce cadre, la prise de la photographie fait également partie de la signalétique et est versée au fichier des antécédents judiciaires (TAJ) qui sert actuellement de tremplin à la reconnaissance faciale en France. Ce sera l’objet d’un prochain article.
Au 1er janvier 2020, 6,7 millions de personnes étaient enregistrées au FAED. Mais la police nationale annonce détenir seulement 6,5 millions de profils à la fin de l’année 2022. Peut-on croire les chiffres de la police et imaginer qu’un nettoyage des fichiers ait été effectué ? Difficile à imaginer : en septembre 2021, la CNIL sanctionnait le ministère de l’Intérieur après avoir constaté que des données non prévues par la loi y étaient conservées et que l’obligation d’effacement des données en cas d’absence de poursuites était peu respectée, tout comme la durée de conservation des données, qui excédait les limites légales.
De plus, une nouvelle disposition législative a certainement contribué à gonfler les chiffres : la loi du 24 janvier 2022, dite « sécurité intérieure », a en effet introduit la possibilité, en cas de refus de la personne gardée à vue, et s’il s’agit de l’unique moyen de l’identifier, de prendre ses empreintes sans son consentement, ou autrement dit, de force. Cette prise forcée d’empreintes concerne à la fois les adultes et les mineur·es (article 55-1 alinéa 5 du code de procédure pénale et article L413-17 du code de justice pénale des mineurs). Le Conseil constitutionnel a récemment précisé les conditions de cette prise forcée des empreintes dans sa décision n° 2022-1034 QPC du 10 février 2023.
Pour être légale, elle doit remplir l’ensemble de ces conditions : que la personne concernée soit suspectée d’avoir commis un délit puni d’au moins trois ans d’emprisonnement (cinq pour les mineurs), qu’aucun autre moyen ne permette de justifier de l’identité de la personne, avoir l’autorisation écrite du Procureur de la République, que l’avocat·e soit présent, et que la contrainte soit strictement nécessaire et proportionnée (en tenant compte, théoriquement, de la vulnérabilité de la personne ainsi que de la situation particulière du ou de la mineur·e). Aussi, le Conseil constitutionnel a finalement exclu l’audition libre1L’ audition libre est un régime plus léger que la garde à vue pour entendre une personne suspectée d’avoir commis une infraction. Celle-ci ne doit pas avoir été emmenée sous la contrainte, et peut quitter les lieux à tout instant. du champ des situations où la prise d’empreintes de force est autorisée, ne laissant cette opération possible « que » pendant les gardes à vue. La prise d’empreintes a enfin été modifiée par la LOPMI qui a discrètement donné une base juridique à la comparaison, au moment de leur inscription, des empreintes et des photographies avec les fichiers existants (pratique qui avait déjà cours). Pour rappel, ces données biométriques sont ensuite conservées au FAED entre 15 à 25 ans selon l’infraction (pour laquelle, à ce stade, la personne n’a même pas été encore jugée).
La France condamnée par la CEDH
La Cour européenne des droits de l’homme (CEDH) a considéré en 2013, dans l’arrêt M.K. contre France, que cette durée de conservation des empreintes digitales par l’État français était excessive et constituait une violation du droit au respect de la vie privée, alors même que la personne était uniquement suspectée d’avoir commis un délit et n’avait pas été condamnée. Cependant, les possibilités effectives de consultation, de rectification et d’effacement de ces données au FAED sont traditionnellement considérées comme des garanties suffisantes.
Malgré cette condamnation, cela n’a pas empêché la France de continuer son fichage massif des empreintes digitales. En 2019, elle a reconnu elle-même dans une déclaration publique la violation de l’article 8 de la Convention Européenne des Droits de l’Homme (droit à la vie privée) à l’occasion de la collecte des empreintes et de l’ADN de plusieurs personnes condamnées au pénal pour refus d’inscription au FAED ou à son fichier équivalent pour l’ADN, le FNAEG, alors que ces personnes avaient saisi la CEDH. Mais cette déclaration unilatérale, assortie d’indemnisations, a opportunément et malgré la volonté des requérant·es, mis fin aux recours devant la Cour européenne, qui ne jugera donc jamais cette affaire.
Un récent arrêt d’une autre Cour européenne, la Cour de justice de l’Union européenne (CJUE), pourrait mettre des bâtons dans les roues des politiques de fichage en France. Cette décision du 26 janvier 2023 porte sur le système bulgare de prise d’empreintes en garde à vue. Et le jugement de la Cour est très intéressant : il réaffirme que la collecte systématique de données biométriques est contraire au droit de l’Union, auquel la France est soumise.
En pratique : des violences au service du fichage
Cette nouvelle législation inquiétante sur la prise d’empreintes de force a, sans surprise, occasionné des dérives majeures. Dès les premiers mois après son entrée en vigueur, on pouvait lire le témoignage glaçant d’une personne frappée et tasée en garde à vue. Plus récemment, c’est notamment au cours des très nombreux placements en garde à vue dans le cadre des protestations contre la réforme des retraites que cette pratique a refait surface. Ainsi, la bâtonnière du barreau de Rennes, Catherine Glon, a suspendu les désignations d’avocat·es d’office pour ces procédures, refusant que la présence de l’avocat·e, nécessaire pour la prise d’empreintes sous contrainte, ne serve de caution à une disposition « profondément attentatoire aux libertés individuelles et à la vie privée ». La bâtonnière a été soutenue sans réserve par la conférence des bâtonnier·es qui a dénoncé le recours systématique à ce fichage forcé.
Dans les commissariats, la menace du recours à la force est couramment employée à l’encontre des personnes gardées à vue afin de leur faire accepter le fichage au FAED, y compris pour les personnes qui portent sur elles des papiers d’identité et sont donc censées échapper à la contrainte.
Mais au-delà des menaces et des intimidations, des violences physiques ont également été constatées, particulièrement à Paris. Hanna Rajbenbach, membre elle aussi du collectif d’avocat·es à l’origine du dépôt d’une centaine de plaintes concernant les GAV arbitraires en atteste : « Il y a des violences tout à fait illégitimes exercées : des personnes ont été par exemples tasées ou se sont retrouvées la tête écrasée au sol en vue de procéder au relevé de leurs empreintes digitales.» D’autres témoignages de manifestant·es à ce sujet ont été rapportés par RadioParleur dans une émission du 6 mars dernier. Ces violences font actuellement l’objet d’une saisine auprès du Défenseur des Droits, à l’initiative de plusieurs avocat·es qui pointent la responsabilité du parquet. Ainsi l’État est prêt à brutaliser, à taser et à faire usage de ce qui est somme toute une forme de torture sur des personnes en garde à vue pour s’assurer que celles-ci seront fichées.
Des procédures d’effacement existent : en cas de non-lieu, relaxe ou classement sans suite, cet effacement est en principe acquis (et doit d’ailleurs, en théorie, être effectué d’office par le responsable de traitement). Il est envisageable de le demander dans d’autres cas. La demande d’accès aux données s’effectue auprès du ministère de l’Intérieur et la demande de suppression auprès du procureur de la République. Si besoin, le guide « La folle volonté de tout contrôler » produit par la caisse de solidarité de Lyon propose des lettres types pour accompagner les demandes d’effacement (mise à jour à venir !).
Dans les tribunaux, les réquisitions des procureur·es ne s’embarrassent en tout cas souvent pas de pédagogie quant aux finalités de ce fichage systématique : au-delà des dispositions légales contraignantes, inscrire des personnes aux fichiers se justifie « par la nécessité d’alimentation du fichier ». CQFD.
L’ audition libre est un régime plus léger que la garde à vue pour entendre une personne suspectée d’avoir commis une infraction. Celle-ci ne doit pas avoir été emmenée sous la contrainte, et peut quitter les lieux à tout instant.
";s:7:"dateiso";s:15:"20230512_114200";}s:15:"20230510_143701";a:7:{s:5:"title";s:33:"Tout le monde déteste les drones";s:4:"link";s:73:"https://www.laquadrature.net/2023/05/10/tout-le-monde-deteste-les-drones/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20524";s:7:"pubDate";s:31:"Wed, 10 May 2023 12:37:01 +0000";s:11:"description";s:233:"Un an après la légalisation des drones par la loi de « sécurité Intérieure », le gouvernement a publié le 19 avril dernier le décret tant attendu par la police pour faire décoller ses appareils. Aux côtés…";s:7:"content";s:15184:"
Un an après la légalisation des drones par la loi de « sécurité Intérieure », le gouvernement a publié le 19 avril dernier le décret tant attendu par la police pour faire décoller ses appareils. Aux côtés d’autres associations, nous attaquons ce texte devant le Conseil d’État afin de dénoncer les atteintes aux libertés que portent en eux les drones et continuer de marteler le refus de ces dispositifs qui nourrissent un projet de surveillance de masse toujours plus décomplexé.
Une longue bataille
Rappelez vous, c’était pendant le confinement, en 2020. Les polices de France déployaient alors dans le ciel des drones pour contrôler les rues et ordonner aux personnes de rentrer chez elles. Avec la Ligue des droits de l’Homme, nous nous lancions dans un recours devant le Conseil d’État, qui a abouti à leur interdiction à Paris. Si cet épisode a marqué le début de la visibilité des drones aux yeux de tous·tes, ces engins de surveillance étaient en réalité loin d’être nouveaux. On en observait dès 2007 pour surveiller les banlieues, aux frontières mais aussi dès 2016 en manifestation, notamment dans la contestation contre la loi Travail. Provenant de l’industrie militaire en recherche de débouchés pour rentabiliser ses recherches 1Voir Cities under siege -The new military urbanism, Stephen Graham, accessible ici, les drones se sont petit à petit installés dans les pratiques policières, à coup d’appels d’offres astronomiques et de batailles juridiques.
En effet, les velléités répétées et affichées des autorités pour utiliser ces drones ont été entravées par un certain nombre d’embûches. Malgré la décision du Conseil d’État, la préfecture de police de Paris a continué ostensiblement à les déployer en manifestation au cours de l’année 2020. Pourtant, il n’existait aucun cadre juridique à ce moment-là, ce qui signifiait que toute captation d’images par ces drones était illégale. Nous sommes alors retourné contester leur légalité et avons obtenu une nouvelle victoire, suivie d’une sanction de la CNIL auprès du ministère de l’Intérieur.
Dans une impasse, le gouvernement a choisi la sortie facile : faire adopter une loi qui donnerait un cadre légal aux drones. En toute logique, il a choisi pour cela la loi Sécurité globale, proposition de loi issue de la majorité LaREM à l’objectif assumé de généralisation de la surveillance de l’espace public. Mais au moment où le gouvernement allait arriver à ses fins, le Conseil constitutionnel a mis un nouvel obstacle sur sa route en censurant l’article sur les drones, estimant le cadre trop large et les garanties trop minces. Ce n’est donc qu’après avoir revu sa copie que le gouvernement a finalement réussi à obtenir leur autorisation au travers de la loi « responsabilité pénale et sécurité intérieure », adoptée fin 2021 et dont nous parlions ici. Le nouveau chapitre qu’il crée dans le code de la sécurité intérieure autorise la police à recourir aux drones pour un éventail très large de situations : manifestations et rassemblements jugés comme « susceptibles d’entraîner des troubles graves à l’ordre public », aux abords de lieux ou bâtiments « particulièrement exposés à des risques de commission de certaines infractions » ou encore dans les transports ou aux frontières.
Un déploiement qui ne s’est pas fait attendre
Le décret d’application récemment publié était donc attendu depuis l’année dernière, en ce qu’il précise les conditions d’utilisation et lance ainsi formellement le top départ de la surveillance volante (ou « aéroportée » comme on dit dans le jargon militaro-policier). Dans le cadre d’une procédure de référé (c’est-à-dire une procédure d’urgence), l’Association de Défense des Libertés Constitutionnelles (ADELICO) a attaqué ce texte pour dénoncer la violation des droits qu’entraîne cette surveillance. Nous nous sommes joint·es à cette affaire en déposant vendredi dernier un mémoire en intervention, afin de compléter les arguments de l’ADELICO en soulevant également la violation du droit de l’Union européenne qu’entraîne l’utilisation disproportionnée de ces dispositifs (vous pouvez le lire ici).
Car ce décret ne fait qu’aggraver le cadre général extrêmement permissif des drones. En effet, la loi laisse les mains libres à la police pour décider elle-même quels évènements doivent être surveillés, avec en première ligne les manifestations. Ainsi, il revient au préfet de justifier seul de la nécessité de l’utilisation des drones et, dans le cadre de rassemblements, de démontrer notamment qu’il est « susceptible d’entraîner des troubles graves à l’ordre public » pour avoir recours à cette surveillance. Or, nous l’avons observé de près ces dernières semaines, l’inventivité des préfets est sans borne dès qu’il s’agit de construire des récits et de présupposer des risques à la sécurité afin d’interdire des manifestations ou des casseroles. Néanmoins, un premier recours victorieux a réussi à les clouer au sol à Rouen le 5 mai, le tribunal administratif jugeant leur emploi non nécessaire.La perspective de devoir systématiquement, à chaque fois qu’on voudra manifester, déposer un recours contre les arrêtés préfectoraux d’interdiction, a quelque chose d’épuisant et de décourageant par avance qui avantage évidemment la position du pouvoir et de l’ordre policier.
Empêcher la banalisation
L’arrivée des drones dans l’arsenal policier a de quoi inquiéter : ce dispositif de surveillance ultime, qui se déplace, suit et traque, arrive dans un contexte de très importante répression des mouvements sociaux. Les premières utilisations qui ont suivi la publication du décret démontrent la volonté des préfets de les utiliser à tout va et de les installer dans l’imaginaire collectif. Que ce soit à Mayotte, aux rassemblements des Soulèvements de la Terre dans le Tarn ou à Rouen, lors des manifestations du 1er mai ou pour la finale de la Coupe de France, dès que la foule se rassemble, les drones devraient être là pour surveiller. De façon attendue, ces drones seront également utilisés en priorité dans les quartiers populaires, comme à Nice où la préfecture a annoncé y avoir recours pour « lutter contre le trafic de drogues » avant que l’on apprenne dans dans l’arrêté concerné que cela serait pour une durée de trois mois ! Cette même préfecture des Alpes-Maritimes s’est également empressé de les faire autoriser pour surveiller la frontière franco-italienne. Comme pour les caméras et leurs algorithmes, le but est d’alimenter la croyance que la sécurité passera par la surveillance, sans chercher une quelconque solution alternative qui ne serait pas répressive.
De plus, le décret prévoit que les images captées par drone pourront être conservées sept jours notamment pour être utilisées lors d’enquêtes judiciaires. Nous craignons qu’à partir de ce moment-là les interdictions de recoupements avec des fichiers, prévues uniquement pour la police administrative, ne s’appliquent plus. Ces flux vidéo pourraient alors être utilisés pour faire de l’identification de personnes, notamment à travers le fichier TAJ qui permet aujourd’hui aux policiers d’avoir recours massivement à la reconnaissance faciale, en moyenne, 1600 fois par jours.
L’arrivée des drones s’inscrit dans une logique délibérée de banalisation toujours plus importante de la surveillance de l’espace public, un mois après l’adoption de la loi JO. Si l’opposition contre ces dispositifs est heureusement bien présente, ce nouveau texte affaiblit considérablement le niveau de protection des libertés. Leur défense est ainsi laissée aux associations et militant·es qui devront, pour chaque autorisation préfectorale, contester en urgence leur caractère abusif et infondé devant un juge.
L’audience de cette affaire aura lieu le 16 mai et nous espérons que le Conseil d’État prendra au sérieux les arguments avancés par les associations, à l’heure où la France a troqué sa place de pays défenseur des droits humains pour celle de leader européen de la surveillance.
Nous vous tiendrons au courant de la décision et de la suite combat contre les drones. Et si vous voulez nous aider dans cette lutte, n’hésitez pas à faire un don si vous le pouvez !
Mise à jour du 12 mai 2023 : en réponse à la défense du ministre de l’intérieur, nous venons d’envoyer un mémoire en réplique que vous trouverez ici.
Voir Cities under siege -The new military urbanism, Stephen Graham, accessible ici
";s:7:"dateiso";s:15:"20230510_143701";}s:15:"20230428_124105";a:7:{s:5:"title";s:27:"En GAV, t’es fiché·e !";s:4:"link";s:64:"https://www.laquadrature.net/2023/04/28/en-gav-tes-fiche%c2%b7e/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20482";s:7:"pubDate";s:31:"Fri, 28 Apr 2023 10:41:05 +0000";s:11:"description";s:276:"
ÉPISODE 1 : le smartphone
Le mouvement contre la réforme des retraites, qui n’en finit pas de ne pas finir, s’est heurté au maintien de l’ordre « à la française». Violences policières et placements massifs de personnes en…";s:7:"content";s:30479:"
ÉPISODE 1 : le smartphone
Le mouvement contre la réforme des retraites, qui n’en finit pas de ne pas finir, s’est heurté au maintien de l’ordre « à la française». Violences policières et placements massifs de personnes en garde à vue (GAV) ont suscité les inquiétudes du Conseil de l’ordre du barreau de Paris, de la Défenseure des Droits, et ont entrainé le dépôt d’une centaine de plaintes par un collectif d’avocat·es parisien·nes. Sans parler des inquiétudes internationales quant au respect du droit de manifester en France.
Un nombre croissant de personnes font l’expérience de la garde à vue et de son corollaire: la collecte massive d’un certain nombre de données personnelles. Code de téléphone, ADN, photographie et empreintes : un passage en GAV laisse des traces difficiles à effacer. Alors que le ministère de l’intérieur compte investir dans des capteurs nomades biométriques qui permettront, en vue des JO 2024, le relevé de photos et d’empreintes « en bord de route », nous revenons dans une série d’articles sur le fichage galopant en France, son cadre juridique et les pratiques policières en la matière, qui se développent parfois en toute illégalité.
Cet article, le premier de la série, revient sur les données collectées en GAV par la police sur nos téléphones portables.
Les témoignages de personnes placées en garde à vue relatent que, quasi systématiquement, la police exige la divulgation du code de déverrouillage de téléphone, sous peine d’être sanctionné·e ou de se voir confisquer son appareil. Pourtant, ce n’est pas ce que prévoit la loi, qui a connu plusieurs interprétations et est le plus souvent instrumentalisée pour faire pression sur les personnes arrêtées.
Que dit la loi ?
Les dispositions légales qui entourent la demande du code de déverrouillage d’un téléphone proviennent initialement de lois assez anciennes, adoptées dans la foulée du 11 septembre 20011loi n° 2001-1062 du 15 novembre 2001 relative à la sécurité quotidienne et prévues principalement dans le cadre de l’anti-terrorisme.
À l’origine, ce texte avait pour esprit de pénaliser le fait de ne pas remettre le mot de passe d’un appareil susceptible d’avoir facilité la commission d’un crime ou délit. On est alors dans les années 2000 et on parle de « convention secrète de déchiffrement » et de « moyen de cryptologie ». Le texte prévoit aussi une peine alourdie si la remise de cette clé aurait pu permettre d’éviter la commission dudit délit. Un petit air de Jack Bauer dans 24H Chrono : tous les moyens doivent être mis en œuvre pour récupérer des informations qui permettraient d’éviter un drame. La garde des Sceaux de l’époque précisait d’ailleurs que ce dispositif s’inscrivait dans la « lutte contre l’usage frauduleux de moyens de cryptologie qui interviennent dans la commission d’infractions particulièrement graves liées, on l’a vu, à des actes de terrorisme ou de grande criminalité ». 2Marylise Lebranchu, Sénat, séance du 17 octobre 2001, citée dans le commentaire autorisé de la décision du Conseil constitutionnel sur ces dispositions..
Alors que ces dispositions légales n’étaient quasiment pas mobilisées par les procureurs, elles sont remises au goût du jour en 2016 par la loi qui succède aux attentats de novembre 2015 en France et renforce la lutte contre la criminalité organisée et le terrorisme (loi n° 2016-731 du 3 juin 2016). C’est cette loi qui permet aujourd’hui à un officier de police judiciaire (OPJ) de solliciter le code de déverrouillage d’un téléphone lors d’une garde à vue. Elle pénalise donc le refus de remettre « la convention secrète de déchiffrement d’un moyen de cryptologie » lorsqu’un appareil est « susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit » (434-15-2 du code pénal).
La loi de 2016 ne fait en réalité qu’aggraver la peine pour non remise d’une convention de chiffrement, mais ne se prononce pas sur le périmètres des délits concernés. C’est d’ailleurs bien ce qui a permis aux parquets de détourner ce dispositif, présenté au départ pour la lutte contre le terrorisme, et de l’utiliser dans tout un tas de situations. En pratique, l’existence d’un simple « groupement en vue de la préparation » d’un délit, infraction introduite en 2010, punie d’un an de prison et très fréquemment utilisée pour justifier l’arrestation de manifestant·es, suffit désormais à ce que la police puisse demander à accéder au téléphone en GAV.
Ainsi, suivant un schéma désormais tristement connu, le champ des procédures d’exception justifiées par la lutte contre le terrorisme s’élargit et finit par concerner une grande partie de la population. On se souvient ainsi de la loi SILT de 2017 qui était venue intégrer certaines dispositions de l’état d’urgence dans le droit antiterroriste : perquisitions administratives, mesures individuelles de contrôle administratif et de surveillance (MICAS), fermeture de lieux de culte et instauration de périmètres de protection… Mais l’atteinte aux droits et libertés fondamentales inhérente à l’antiterrorisme a vite fait de s’étendre à d’autres situations: c’est sur cette notion de « périmètre de protection » que se basent actuellement de nombreux arrêtés préfectoraux pour interdire les manifestations à l’occasion de la visite d’un ministre ou du président.
L’état actuel de la loi aboutit donc à ce que presque n’importe qui, retenu en garde à vue, puisse se voir demander le code de son téléphone dès lors qu’existe le soupçon d’un lien potentiel entre cet appareil et une éventuelle commission d’infraction. Et si la personne refuse, elle commet une nouvelle infraction qui permet de la poursuivre indépendamment des premiers faits délictueux qui lui étaient reprochés.
Une jurisprudence défavorable
Ces différents textes ont donné lieu à plusieurs interprétations par les juges. Mais la jurisprudence n’a pas davantage protégé les droits des personnes et certaines décisions ont, au contraire, donné un nouveau tour de vis sécuritaire à la possibilité d’accéder au contenu des téléphones.
En 2018, le Conseil constitutionnel a été saisi d’une question prioritaire de constitutionnalité (QPC) et La Quadrature était intervenue au soutien dans cette affaire. Nous avions défendu la nécessaire censure de cette obligation de livrer ses clefs de chiffrement, au motif notamment que cette mesure est attentatoire au droit fondamental de chacun·e à ne pas s’auto-incriminer et au droit à la vie privée.
En vain, puisque le Conseil constitutionnel a considéré que le droit au silence et le droit ne pas s’auto-incriminer n’entraient pas en contradiction avec la pénalisation du refus de communiquer son code. Le tour de passe-passe du Conseil constitutionnel consistait à dire que le droit à ne pas s’auto-incriminer ne pouvait être atteint puisque les données étaient déjà entre les mains de la police au moment où la convention secrète de chiffrement est exigée, même si la police ne détenait qu’une forme illisible – car chiffrée – des données.
Quant à la définition de l’« autorité judiciaire » censée requérir la remise du code, la Cour de cassation a décidé en mars 2021 qu’un simple officier de police judiciaire était habilité, sous le contrôle du procureur, à le faire.3Pour mémoire, un OPJ est habilité à différents actes de procédure et d’enquête et décide notamment du placement en garde à vue : il se distingue en ce sens d’un agent de police judiciaire (APJ), qui lui n’a pas le droit de vous demander votre code de téléphone. Ce sont les OPJ qui mènent les gardes à vue, en relation avec le procureur et sous son autorité, leur qualité est notamment visible sur les procès verbaux des différents actes de la procédure. Concernant le code de téléphone, une simple réquisition de l’OPJ semble donc suffire d’après la Cour de cassation. Cette même Cour avait par contre estimé que le juge aurait dû vérifier que le téléphone du prévenu était bien équipé d’un moyen de cryptologie.
Un flou subsistait également quant à l’interprétation retenue par les tribunaux de ce qui constitue une « convention secrète de déchiffrement d’un moyen de cryptologie » : le code de déverrouillage d’un téléphone est-il réellement concerné par ces dispositions ? En effet, techniquement, le code de téléphone n’opère pas une mise en clair de données qui seraient chiffrées au préalable mais permet juste un accès au téléphone et à son contenu, qui peut n’avoir jamais été chiffré. Saisie de cette question, la Cour de cassation a rendu le 7 novembre 2022 une décision clairement défavorable en considérant qu’« une convention de déchiffrement s’entend de tout moyen logiciel ou de toute autre information permettant la mise au clair d’une donnée transformée par un moyen de cryptologie, que ce soit à l’occasion de son stockage ou de sa transmission ». Cette conception extensive empiète nécessairement sur le droit des personnes à la protection de leurs données personnelles.
Plusieurs cas de figure n’ont à notre connaissance pas encore été tranchés : qu’en est-il d’un oubli de code dans les conditions stressantes de la GAV ou d’une défaillance du système d’exploitation ?
Un espoir au niveau européen?
La Cour de justice de l’Union européenne (CJUE) est actuellement saisie d’une affaire concernant l’accès au téléphone d’une personne placée en garde à vue4Affaire C-548/21, Bezirkshauptmannschaft Landeck. Cette affaire concerne une tentative d’exploitation d’un téléphone sans l’accord de son détenteur. La CJUE doit donc dire si l’atteinte au droit à la vie privée et à la protection des données personnelles (droits fondamentaux respectivement protégés par les articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne) est proportionnelle à l’objectif poursuivi.
Malheureusement, l’avocat général, magistrat chargé de proposer à la Cour une décision, a estimé qu’un tel accès au téléphone devrait être relativement large et ne devrait pas être restreint aux faits de criminalité grave. La CJUE n’est pas obligée de suivre les conclusions de son avocat général, mais si elle le faisait elle mettrait gravement à mal les droits fondamentaux, en autorisant l’exploitation des téléphones peu importe la gravité des faits reprochés . Pire, l’avocat général montre une certaine naïveté lorsqu’il se contente de renvoyer à un contrôle au cas par cas de la nécessité d’exploiter un téléphone : on sait très bien que ces mécanismes de contrôles ne fonctionnent pas, par exemple en matière de vidéosurveillance où les préfets sont censés en théorie contrôler les autorisations alors qu’en pratique leur déploiement est massif.
Cette affaire est pourtant l’occasion pour la CJUE, en s’inspirant de sa jurisprudence sur les données de connexion, de poser un cadre exigeant, en limitant au strict nécessaire l’accès à des données qui, étant donné le rôle d’un téléphone aujourd’hui qui devient presque un avatar numérique, révèlent nécessairement l’intimité des personnes. Gageons qu’elle ne suivra pas son avocat général et qu’elle ne cédera pas aux appels des États membres à donner plus de pouvoirs à la police.
En pratique, atteintes à la vie privée et « confiscations sanctions » à Paris
En attendant, côté manifestant·es, le code de déverrouillage du téléphone est quasi systématiquement demandé lors des GAV et il n’est pas rare que les OPJ brandissent la menace d’une mise sous scellé de l’appareil pour une tentative d’exploitation qui mettra des mois ou n’aboutira jamais.
En pratique, de nombreux commissariats se sont vus doter ces dernières années de dispositifs d’aspiration des données d’un téléphone : Cellebrite, société informatique israélienne, a ainsi commercialisé des UFED (pour Universal Forensics Extraction Device, ou « kiosk »), petits dispositifs qui se branchent par USB sur un téléphone pour en copier le contenu. Cellebrite annonce que leur technologie est capable de contourner le chiffrement d’un téléphone. En pratique, on est bien loin du compte et ces kiosks semblent surtout utiles pour copier les données auxquelles le ou la propriétaire du téléphone a donné accès.
Ainsi, lorsqu’une personne déverrouille son téléphone, seront utilisées pour la procédure toutes les informations que les policiers pourront trouver : messages dans des applications de messagerie (du type Signal, Telegram, WhatsApp, Messenger, etc.), photos, vidéos, identifiants et contenus de réseaux sociaux, messages SMS, etc. Et la liste n’est pas exhaustive. Des photos et des extraits de conversations pourront alimenter un profil à charge, motiver des peines d’interdiction de manifester ou ouvrir la voie à des poursuites pour d’autres faits. On est déjà bien loin de l’enquête sur des faits de préparation ou de facilitation d’un délit grâce à un téléphone, tel que le prévoit la loi.
En effet, alors que l’exploitation d’un téléphone n’est en théorie possible que lorsqu’un faisceau d’indices montre qu’il aurait servi à commettre une infraction, en pratique cette condition n’est pas réellement respectée dans les commissariats : la présomption est généralisée et toute personne en GAV verra sont téléphone exploité sans qu’aucun indice ne démontre qu’il aurait servi à préparer ou commettre un délit. Coline Bouillon, avocate au barreau de Créteil ayant participé au dépôt de plainte collectif pour gardes à vue arbitraires, nous a confirmé cette pratique : « Le recours à ce procédé hautement intrusif est devenu monnaie courante, et ce même dans les cas où l’infraction poursuivie ne peut être établie par le contenu d’un téléphone. Bien souvent, les services de police font face à des dossiers vides qu’ils essaient de nourrir par l’exploitation du téléphone de la personne gardée à vue. » Elle pointe aussi l’objectif de renseignement inhérent à la demande de consultation du téléphone : « Cette infraction sert autant à condamner des militants qu’à nourrir des fichiers de police ». Les contacts contenus dans les téléphones pourraient ainsi servir à tracer des arborescences d’un milieu militant (le graphe social), toujours intéressantes pour le renseignement.
Dans le paysage français, le parquet de Paris semble particulièrement zélé. Actuellement, en cas de refus de communiquer les codes, deux procédures sont utilisées aux fins de confiscation des appareils : le classement pénal sous conditions, et l’avertissement pénal probatoire (le cousin éloigné du défunt « rappel à la loi ») par lesquels il est demandé aux personnes de « se déssaisir de leur téléphone au profit de l’Etat». Jusqu’à l’absurde, puisqu’un manifestant a récemment reçu un avertissement pénal probatoire pour avoir refusé de donner le code d’un téléphone… qu’il ne possédait pas.
Le procureur peut également demander à l’audience la confiscation du téléphone en cas de refus de communication du code de déverrouillage (voir ce compte-rendu d’audience du procès de Camille, libraire). Autant de confiscations à la limite du droit : à Paris, plusieurs personnes se sont par exemple vues saisir leur téléphone professionnel dans le cadre d’arrestations arbitraires. Coline Bouillon alerte sur ces « “confiscations sanctions” quasi systématiques » et souligne le fait que la justice décide parfois de poursuivre des personnes uniquement pour le refus de donner son code de téléphone, alors même que l’infraction initiale qui a justifié le placement en garde à vue est tombée.
Nous avons également recueilli le témoignage d’un manifestant qui, à l’occasion d’un piquet de grève d’éboueurs à Aubervilliers, le 31 mars dernier, a été obligé, de même que toutes les personnes présentes, à donner aux policiers, non seulement son identité, mais également accès à son téléphone portable pour que les fonctionnaires récupèrent le numéro IMEI (l’identifiant physique du téléphone, consultable en tapant *#06#). Ces pratiques hors de tout cadre légal suscitent de nombreuses questions : les données prélevées sont-elles stockées quelque part? Quel(s) fichier(s) contribuent-elles à enrichir? Qui y a accès? En 2019, déjà, Le Monde avait documenté une pratique similaire à l’occasion des mouvements de Gilets Jaunes, cette fois-ci par la prise en photo des cartes d’identité des manifestant·es.
Ces pratiques sont le reflet d’une politique pénale du parquet pour le moins agressive à l’encontre des personnes gardées à vue : à la privation de liberté qui s’apparente déjà à une sanction s’ajoute la confiscation du téléphone. Il s’agit clairement d’un dévoiement des textes existants, qui s’inscrit dans une politique générale plus large, à la fois de collecte de renseignements mais aussi de dissuasion des manifestant·es.
Cet état des lieux des pratiques policières et de la protection peu cohérente qui a été accordée par la jurisprudence n’est guère réjouissant. Face à ces pratiques abusives, la meilleure protection des données à ce jour semble encore de ne pas emmener son téléphone en manifestation. Des brochures et guides fleurissent également pour protéger au mieux ses données et informations en contexte militant et la legal team de Paris avait par exemple, en mai 2021, publié un article conséquent à ce sujet et proposé des conseils toujours pertinents. Enfin, certaines applications, comme Wasted ou Duress, permettent de configurer son téléphone pour effectuer un effacement de données en urgence, en activant une appli factice, en tapant un code spécifique ou simplement en réaction à la connexion d’un cable USB au téléphone alors qu’il est verrouillé.
Quoiqu’il en soit, la lutte pour la protection des données n’est pas terminée et le refus de dévoiler son code de téléphone est un choix qui se plaide dans les tribunaux.
Marylise Lebranchu, Sénat, séance du 17 octobre 2001, citée dans le commentaire autorisé de la décision du Conseil constitutionnel sur ces dispositions..
Pour mémoire, un OPJ est habilité à différents actes de procédure et d’enquête et décide notamment du placement en garde à vue : il se distingue en ce sens d’un agent de police judiciaire (APJ), qui lui n’a pas le droit de vous demander votre code de téléphone.
";s:7:"dateiso";s:15:"20230428_124105";}s:15:"20230424_140300";a:7:{s:5:"title";s:61:"Loi JO 2024 : Passage de flambeau au Conseil constitutionnel";s:4:"link";s:99:"https://www.laquadrature.net/2023/04/24/loi-jo-2024-passage-de-flambeau-au-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20468";s:7:"pubDate";s:31:"Mon, 24 Apr 2023 12:03:00 +0000";s:11:"description";s:235:" Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 24 avril 2023.
La loi sur les Jeux olympiques a été définitivement adoptée le 12 avril. Dans la foulée, des député·es de l’opposition ont…";s:7:"content";s:4841:"
Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 24 avril 2023.
La loi sur les Jeux olympiques a été définitivement adoptée le 12 avril. Dans la foulée, des député·es de l’opposition ont saisi le Conseil constitutionnel. L’Observatoire des Libertés et du Numérique (OLN) a adressé ses observations dans un mémoire (accessible ici), invitant le Conseil constitutionnel à censurer les articles portant sur la vidéosurveillance algorithmique (article 7), les scanners corporels (article 11) et l’infraction d’intrusion dans les stades (article 12).
Après avoir mené le combat contre la vidéosurveillance algorithmique (VSA) au Parlement, l’OLN a réitéré ses critiques auprès du Conseil constitutionnel contre cette technologie de surveillance de masse, introduites pour la première fois en Europe à travers cette loi. Les dangers que la VSA fait peser sur les libertés découlent directement de la conception et du fonctionnement des logiciels de détection des comportements.
Le mémoire débute par un exposé technique, qui se veut didactique, sur l’élaboration de systèmes algorithmiques. El est ensuite démontré que le recours à la VSA ne répond ni à la condition de nécessité ni à l’exigence de proportionnalité.
D’une part, le gouvernement n’est pas parvenu à prouver de façon concrète et tangible une quelconque utilité ou efficacité de la VSA pour prévenir la délinquance, la criminalité ou les situations supposément risquées. D’autre part, les atteintes aux droits sont trop importantes par rapport à l’objectif poursuivi, les prétendues garanties prévues étant illusoires : celles-ci dépendent toutes du bon vouloir de l’État tandis que l’opacité de la fabrication des algorithmes par le secteur privé n’est jamais remise en question.
Le flou des « évènements » censés être détectés par les algorithmes, qui ne sont jamais définis précisément dans la loi ni au cours des débats parlementaires, a été dénoncé. Ils ne seront précisés qu’ultérieurement par décret. La CNIL sera certes consultée mais son avis n’est pas contraignant. Surtout, il est difficile de compter sur cette institution tant elle s’est révélée défaillante sur le sujet notamment depuis qu’elle a perdu son rôle de contre-pouvoir.
Une décision récente de la Cour constitutionnelle allemande a jugé inconstitutionnels des logiciels de police prédictive. Elle a considéré un traitement algorithmique problématique en ce qu’il crée et révèle de nouvelles informations plus intrusives sur les personnes. Le Conseil Constitutionnel a été invité à s’en inspirer.
L’OLN a également soutenu l’inconstitutionnalité de l’article 11, qui met en place des scanners corporels attentatoires au droit à la vie privée, et de l’article 12, qui créé de nouvelles sanctions disproportionnées en cas d’intrusion dans des stades, et dont il est à craindre qu’elles visent principalement les actions militantes dans le prolongement d’autres dispositions législatives répressives.
Le Conseil constitutionnel a maintenant un mois pour se prononcer. Sa jurisprudence passée, validant les dernières lois sécuritaires (loi sécurité intérieure, loi transposant le règlement de censure terroriste, LOPMI) ne laisse rien augurer de bon. Quoi qu’il en soit, les associations et organisations parties prenantes de l’OLN continueront d’agir contre chacune des expérimentations de la VSA et de dénoncer cette escalade vers un État de surveillance de plus en plus généralisé.
Organisations signataires membres de l’OLN : Le CECIL, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).
";s:7:"dateiso";s:15:"20230424_140300";}s:15:"20230405_120044";a:7:{s:5:"title";s:92:"Vidéosurveillance biométrique : derrière l’adoption du texte, la victoire d’un lobby";s:4:"link";s:120:"https://www.laquadrature.net/2023/04/05/videosurveillance-biometrique-derriere-ladoption-du-texte-la-victoire-dun-lobby/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20439";s:7:"pubDate";s:31:"Wed, 05 Apr 2023 10:00:44 +0000";s:11:"description";s:255:"Derrière l’adoption la semaine dernière par l’Assemblée nationale du projet de loi sur les Jeux olympiques et son article 7 sur la vidéosurveillance biométrique, il y a aussi la victoire d’un lobby. Mêlant multinationales de…";s:7:"content";s:23313:"
Derrière l’adoption la semaine dernière par l’Assemblée nationale du projet de loi sur les Jeux olympiques et son article 7 sur la vidéosurveillance biométrique, il y a aussi la victoire d’un lobby. Mêlant multinationales de la sécurité, start-up de l’intelligence artificielle et décideurs publics adeptes de la répression, ce lobby avance ses pions pour récupérer les parts d’un marché estimé à plusieurs milliards d’euros, bien loin de toute notion de transparence et de débat public.
La semaine dernière, l’Assemblée nationale a adopté le projet de loi « relatif aux jeux Olympiques et Paralympiques de 2024 ». Déjà voté par le Sénat en janvier dernier, ce texte contient un article 7 qui autorise l’expérimentation de la vidéosurveillance automatisée sur le territoire français.
Comme l’a rappelé La Quadrature du Net, cet article entérine un changement d’échelle sans précédent dans les capacités de surveillance et de répression de l’État et de sa police. La vidéosurveillance automatisée (VSA) est un outil de surveillance biométrique qui, à travers des algorithmes couplés aux caméras de surveillance, détecte, analyse et classe nos corps et comportements dans l’espace public pour alerter les services de police et faciliter le suivi des personnes.
Après le déploiement ininterrompu des caméras de vidéosurveillance (dont le nombre exact n’est toujours pas connu), il s’agit d’une nouvelle étape dans la surveillance du territoire. Alors que la VSA est expérimentée depuis plusieurs années en toute illégalité, ce projet de loi sur les Jeux Olympiques vient la légaliser et donner le champ libre aux industriels pour perfectionner et installer dans la durée leurs outils d’algorithmisation de l’espace public.
Un marché à plusieurs milliards d’euros
Comme tout terrain d’influence des lobbies, la vidéosurveillance automatisée est avant tout un marché en pleine expansion. Si l’on en croit la CNIL, qui se base elle-même sur l’étude d’un cabinet américain, le marché représentait en 2020, au niveau mondial, plus de 11 milliards de dollars, avec une croissance de 7% par an (pour celui de la vidéosurveillance, c’est même 45 milliards en 2020 et 76 milliards estimés en 2025).
L’argent attirant l’argent, les grands groupes et les start-up du secteur enchaînent les levées de fonds, aussi bien auprès des acteurs publics que privés. Dernier exemple en date, la start-up XXII qui a levé il y a quelques semaines 22 millions d’euros pour sa solution de surveillance automatisée auprès de Bpifrance. En 2018, c’était Thales qui avait levé 18 millions d’euros pour sa solution de « Safe City » à Nice et à La Défense. Notons aussi Sensivic, qui développe de l’audiosurveillance automatisée, et qui a levé 1,6 million en juin dernier.
N’oublions pas les financements publics directs qui affluent dans le secteur de la vidéosurveillance et qui motivent d’autant plus les entreprises à se positionner sur le marché pour récolter le pactole. En 2022, ce sont 80 millions d’euros du fonds de prévention contre la délinquance qui ont été alloués principalement à la bien mal nommée vidéoprotection (une augmentation de 10 millions par rapport à l’année précédente).
Tant d’argent qui amène tout un écosystème à s’organiser le plus efficacement possible pour profiter du gâteau.
Lobby multiforme : multinationales, start-ups et associations
Ce lobby de la VSA est avant tout multiforme, c’est-à-dire porté par de multiples acteurs, aussi discrets que puissants, parmi lesquels se trouvent des multinationales bien connues telles que Thales, Safran, Idemia, IBM, Atos ainsi que de nombreuses start-up florissantes. Parmi les plus prometteuses, XXII, Two-I, Datakalab, Aquilae ou encore Sensivic.
La plupart sont enregistrés auprès de la Haute Autorité pour la transparence de la vie publique (HATVP), avec à chaque fois le nombre de « représentants d’intérêts » (lobbyistes), les dossiers ayant donné lieu à lobby et un montant moyen des dépenses de lobbying sur l’année. Thales par exemple déclare entre 400 et 500 000 euros de dépenses de lobbying en 2022, Idemia 10 000 euros. Notons que la start-up XXII déclare près de 200 000 euros de dépenses.
Si l’on additionne rapidement les chiffres des entreprises citées au premier paragraphe, on arrive, et alors même qu’il ne s’agit ici que d’un échantillon restreint des entreprises du secteur, à environ 1,4 million d’euros dépensés en lobbying sur une année (à noter bien évidemment que ces entreprises ne s’occupent pas uniquement de VSA et utilisent cet argent pour sûrement d’autres sujets – cela permet simplement de donner un ordre de grandeur).
Leur toile d’influence est d’ailleurs largement plus vaste et complexe. Chacune de ces entreprises, notamment sur le site de la HATVP, renvoie vers des mandants ou des associations qui sont elles-mêmes actives en matière de lobbying. Et sur le sujet de la vidéosurveillance, il y en a tellement que cela devient presque impossible à suivre. Toutes ces entreprises se regroupent dans des associations professionnelles – des lobbies – chargées de représenter leurs intérêts auprès des institutions, telles que le GICAT, l’Alliance pour la confiance numérique (ACN), la Secure Identity Alliance, le CIGREF, le FIEEC et l’AN2V, l’Association nationale de la vidéoprotection… Suivre les dépenses et les activités d’influence publique de chacune de ces entreprises, de leurs mandants (cabinets de conseils) et de leurs associations devient alors quasiment impossible.
Des noms pour la plupart inconnus du grand public, mais qui sont bel et biens intégrés dans les rouages du système et dotés d’une puissante force de frappe en matière d’influence.
Un lobby de l’intérieur
A tout cela, il faut encore ajouter la couche des responsables publics qui influencent l’appareil étatique de l’intérieur. Les entreprises n’ont pas toujours besoin de dépenser beaucoup d’énergie pour convaincre des décideurs qui semblent eux-mêmes déjà persuadés de la nécessité de transformer nos villes en un fantasme sécuritaire. La liste serait longue à faire mais on peut évoquer les principaux.
Le plus vocal est Christian Estrosi, le maire de Nice, aujourd’hui proche du pouvoir et qui ne cesse de se faire le promoteur de la vidéosurveillance automatisée. Depuis plusieurs années, il expérimente la VSA hors de tout cadre légal et insulte la CNIL dès que celle-ci ose, occasionnellement, lui faire des remontrances. Il n’est bien évidemment pas le seul.
Outre les ministres de l’Intérieur qui sont, par nature, les premiers à défendre les différentes lois sécuritaires (citons Gérarld Darmanin qui lors de l’examen de la loi sur les Jeux Olympiques a défendu la VSA avec passion), plusieurs députés se sont déjà fait les chantres de l’industrie : Jean-Michel Mis, ancien député de la majorité, qui a rédigé un rapport vantant la VSA et proche de l’industrie (voir son portrait ici), Didier Baichère, lui aussi ancien député de la majorité qui a multiplié les entretiens pour faire de la reconnaissance faciale « éthique », Philipe Latombe, député Modem en place qui a donné de sa personne à l’Assemblée pour la défense de la VSA. Citons enfin Marc-Philippe Daubresse, sénateur, qui, on le verra plus bas, a redoublé d’efforts pour convaincre ses collègues de la nécessité de déployer la VSA.
Il n’y a d’ailleurs pas que l’Intérieur. Le secrétariat d’Etat au numérique lui aussi a toujours été un allié de l’industrie de la VSA. Cédric O, ancien de Safran et ancien Secrétaire d’Etat, est allé jusqu’à dire que « expérimenter la reconnaissance faciale est une nécessité pour que nos industries progressent ». Qui retrouve-t-on d’ailleurs aujourd’hui au poste de directeur de cabinet de l’actuel Secrétaire ? Renaud Vedel, ancien préfet engagé sur la stratégie nationale pour l’IA, qui avait déjà prouvé son goût pour la surveillance biométrique.
Autant d’acteurs ou de proches de la majorité se sont fait remarquer pour leur énergie à expliquer l’intérêt et le formidable progrès que représente, selon eux, la surveillance de masse algorithmique. L’influence de ce lobby s’étend la Cour des Comptes qui, en 2023, déclarait sans aucune forme de retenue que « les innovations technologiques qui pourraient être déployées pour assurer une meilleure sécurité des Jeux et réduire les besoins doivent être arbitrées et financées sans délai ».
La stratégie d’influence des industriels est d’autant plus efficace qu’il ne s’agit pas de deux mondes, privé et public, distincts, mais d’un seul système où les uns et les autres s’échangent les postes et responsabilités.
Brassage public-privé
Cette influence passe en effet aussi par des techniques traditionnelles, comme le mécanisme ordinaire des portes tournantes, qui consiste à embaucher des personnes passées par le secteur public, afin de profiter de leur connaissance des rouages du système et de leur réseau personnel.
Quelques exemples. Chez Thales, la directrice des relations institutionnelles Isabelle Caputo a travaillé plusieurs années avant à l’Assemblée nationale. Olivier Andries, le Directeur général de Safran, a commencé sa carrière dans la fonction publique, au ministère de l’Industrie puis à la direction du Trésor, avant de devenir conseiller pour l’industrie dans le cabinet du ministre de l’Économie et des Finances. Toujours chez Safran, le directeur des affaires publiques, Fabien Menant, a quant à lui occupé des postes à la mairie de Paris, au ministère des Affaires étrangères, puis de la Défense.
N’oublions pas les start-up et les associations : François Mattens, lobbyiste pour XXII, est passé par le Sénat, le ministère de l’Intérieur et celui des Affaires étrangères et Axel Nicolas, actuel directeur des affaires publiques pour le GICAT, est un ancien de l’Assemblée nationale.
On pourrait continuer longtemps. Les acteurs du lobby ont en commun le même entremelêment d’expériences dans l’administration, dans le privé, au Parlement qui tendent à en faire une force compacte, qui partage les mêmes réseaux, le même carnet d’adresses – et qui multiplie les possibilités d’échanges occasionnels, discrets, loin des regards du public.
Tout ce monde se retrouve d’ailleurs bien officiellement au COFIS (pour « Comité de la filière industrielle de sécurité ») qui, selon sa page officielle, permet « un dialogue public-privé rénové« , c’est-à-dire, en plus clair, met en relations industriels de la sécurité et hauts fonctionnaires. La liste des participants à son comité de pilotage atteste de cette mixité public-privé. Nous avons cherché à en savoir plus sur ce fameux dialogue public-privé, en sollicitant les documents préparatoires à la signature du contrat stratégique pour la filière « Industries de Sécurité », conclu le 30 janvier 2020 par le gouvernement et le COFIS. Nous n’avons toujours obtenu aucune réponse malgré un avis positif de la Commission d’accès aux documents administratifs (CADA).
Rendez-vous discrets
Les rendez-vous avec les responsables publics se font souvent très discrètement, ce mélange entre public et privé empêchant une réelle publicité des liens entre industries de la sécurité et pouvoirs publics.
Ainsi, malgré l’obligation de les produire chaque année au registre de la HATVP, les déclarations d’activités de lobbying restent sommaires et imprécises, ne permettant pas de rendre compte de l’ampleur et de la portée de ces rencontres, d’autant qu’elles sont soumises au bon vouloir des entreprises.
Par exemple, on sait que des représentants de Thales ont rencontré un « Membre du Gouvernement ou membre de cabinet ministériel – Intérieur » (qui?) sur l’activité « Plan numérique du Gouvernement : Sensibiliser sur les enjeux industriels de l’identité numérique » entre le 1er janvier et le 31 décembre 2020 (quand?). On ne sait donc ni qui, ni quand, ni où, ni la forme de cette rencontre et ce qui en a résulté.
Assez peu d’activités de lobbying sont en réalité déclarées sur le sujet. Par exemple, Thales n’a déclaré que 5 activités tous domaines d’activités confondus en 2021, Idemia aucune, Safran seulement 2 en 2022…
Sans compter que ces déclarations ne prennent pas en compte le lobbying plus insidieux, indirect, qui s’exerce à travers la participation des entreprises aux travaux des think thanks, leurs liens dans les universités, l’organisation de conférences, au sein du COFIS ou aux multiples salons qui pullulent sur le sujet (le plus connu reste Milipol, auto-proclamé évènement mondial de la sécurité intérieure). À quoi il faut encore ajouter les activités des associations professionnelles qui regroupent ces mêmes entreprises.
Du côté des décideurs publics, on ne trouve pas plus d’information. L’agenda public du Ministre des armées, Sébastien Lecornu, annonce un seul rendez-vous avec Patrice Caine, le DG de Thales, le 8 juillet 2022, mais sans dévoiler les sujets discutés.
Le Sénat main dans la main avec les industriels de la VSA
La même alliance complaisante entre décideurs et industriels se remarque dans les rapports parlementaires faisant la promotion de la VSA. Et ils sont nombreux. En 2019, une note de l’OPECST étudie la reconnaissance faciale. En septembre 2021, c’est Jean-Michel Mis qui remet une note au Premier ministre sur le sujet. En mai 2022, c’est Marc Daubresse qui rend son rapport sur la surveillance biométrique sur lequel on reviendra plus bas. Et aujourd’hui, en 2023, la mission d’information de Latombe devrait rendre sous peu son rapport.
Ce sont aussi les modalités de rédaction de ces rapports qui interpellent. À l’occasion de l’examen de la loi JO au Sénat, un rapport général d’information sur la reconnaissance faciale et ses risques au regard de la protection des libertés individuelles a été rendu le 10 mai 2022.
Ont été auditionnés plusieurs entreprises et lobbies du secteur : IDEMIA, ID3 Technologies, Amazon France, Microsoft France, l’Alliance pour la confiance numérique, l’AFNOR et Meta et IBM ont livré des contributions écrites. Par contraste, seules trois associations de défense des libertés – dont la Quadrature du Net – ont été entendues.
Le plus choquant reste les rencontres privilégiées dont ont pu profiter les entreprises à l’occasion de l’élaboration de ce rapport. La mission d’information a organisé plusieurs déplacements de délégués entre février et avril 2022 pour participer à des événements professionnels dédiés à la promotion de la vidéosurveillance ou pour des démonstrations offertes par les industriels. Le jeudi 17 mars 2022 par exemple, la délégation s’est rendue à Nice et pu visiter le Centre de supervision de la Ville, assister à des présentations des travaux en matière de reconnaissance faciale de l’INRIA et du Sophia Antipolis Accenture Labs (un centre de recherche financé par l’entreprise Accenture) avant de participer à une table ronde d’entreprises qui développent des solutions utilisant la reconnaissance faciale. Une journée très productive pour le lobby de la surveillance.
Quelques jours plus tard, le 29 mars 2022, clou du spectacle au centre Thales de Meudon, où les sénateurs ont été invités à participer à différentes activités, présentations des produits Thales et démonstrations vantant l’efficacité de la VSA, une vitrine inestimable pour l’entreprise.
Au cours de ses 5 jours de déplacements entre la France et Londres, la délégation n’a en revanche assisté à aucun événement critique de la VSA. Une simple comparaison entre le temps passé à absorber les élements de langage des industriels de la sécurité et celui à écouter les critiques de la vidéosurveillance suffit à comprendre le caractère absurdement biaisé de cette mission parlementaire.
Il suffit de reprendre les comptes-rendus des débats du Sénat et de l’Assemblée pour voir les effets d’une telle proximité sur la manière dont la loi est examinée et adoptée.
Adoption du texte et victoire du lobby de la VSA
Il n’y a jamais eu de véritable « débat » ou « réflexion » sur la question de la vidéosurveillance biométrique en France. L’adoption de l’article 7 de la loi JO est avant tout l’aboutissement d’un travail d’influence de multinationales, de start-up et de décideurs publics qui veulent se faire une place sur les marchés de la sécurité.
La toute petite partie de ce travail d’influence qu’il nous est possible d’analyser, sur la base des déclarations partielles du registre de transparence de la HATVP, laisse deviner la force de frappe de ce lobby, que ce soit en matière d’argent ou de réseaux. C’est surtout l’entremêlement public-privé qui le caractérise, ce dont personne ne semble se cacher, comme s’il était naturel que les personnes au pouvoir, qui décident et votent sur le sujet, soient aussi proches des industriels qui vendent leurs produits.
Il est toujours effrayant de voir comment à force d’expérimentations illégales, de mirage financier et de déterminisme technologique, ce lobby a réussi à faire voter une loi lui donnant les mains libres dans l’expérimentation de ces technologies.
";s:7:"dateiso";s:15:"20230405_120044";}s:15:"20230330_113053";a:7:{s:5:"title";s:74:"« Le numérique nous insère dans une trame toujours plus resserrée »";s:4:"link";s:104:"https://www.laquadrature.net/2023/03/30/le-numerique-nous-insere-dans-une-trame-toujours-plus-resserree/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20415";s:7:"pubDate";s:31:"Thu, 30 Mar 2023 09:30:53 +0000";s:11:"description";s:241:"
Fin 2022, deux membres de La Quadrature ont répondu aux question de Ruptures, un collectif de militant.es grenoblois.es formé à l’automne 2021. L’entretien a été publié dans leur journal La nouvelle vague n°10, paru en…";s:7:"content";s:16485:"
Fin 2022, deux membres de La Quadrature ont répondu aux question de Ruptures, un collectif de militant.es grenoblois.es formé à l’automne 2021. L’entretien a été publié dans leur journal La nouvelle vague n°10, paru en mars 2023. Cet échange aborde les enjeux de la campagne Technopolice, le front plus large de la lutte contre les technologies numériques de contrôle, ainsi que certaines questions stratégiques. Nous le reproduisons ci-dessous.
Pouvez-vous nous expliquer ce qu’est la technopolice, et les moyens d’actions que vous vous êtes donnés ?
Technopolice est le nom de la campagne de recherche-action lancée par La Quadrature du Net en 2019. Elle désigne aussi ce contre quoi nous luttons dans cette campagne, à savoir le développement et l’adoption croissante par la police française de nouvelles technologies numériques dédiées à la surveillance de l’espace public : vidéosurveillance automatisée et microphones intelligents censés repérer des comportement suspects, police prédictive, drones… Depuis le départ, l’idée est de documenter la genèse et la mise en œuvre de déploiement de ces technologies, des laboratoires de recherches qui les mettent au point aux usages opérationnels en passant par les grands programmes budgétaires et les lois qui les financent ou en autorisent l’usage.
Nous tentons aussi d’offrir à des individus ou collectifs des analyses, guides, des espaces de discussion afin d’articuler les combats locaux à des mobilisations nationales ou européennes. Nous dénonçons des projets de loi et tentons de faire supprimer les dispositions les plus dangereuses ; nous allons devant les tribunaux pour démontrer l’illégalité de certains projets et y mettre un terme (par exemple, nous avons attaqué le couplage de l’intelligence artificielle et de la vidéosurveillance à Moirans) ; nous organisons des actions de sensibilisation, d’affichage public ou des projections de documentaires pour faire connaître notre combat et convaincre de nouvelles personnes d’y prendre part. Plus largement, notamment aux travers de nos interactions avec certains médias, nous cherchons à sensibiliser les gens à la prolifération de ces technologies de surveillance policière et à mettre en œuvre les moyens d’y résister collectivement.
État d’urgence, État d’urgence sanitaire, procédures parlementaires accélérées, 49.3, procédures dérogatoires au droit commun… Devant la multiplication de règles de droit à géométrie variable, la question se pose : peut-on encore croire en la justice ?
À La Quadrature du Net, nous avons commencé à développer l’action contentieuse en 2015, après avoir constaté que nos stratégies d’influence parlementaire achoppaient sur un consensus sécuritaire de plus en plus prégnant, à gauche comme à droite. Notre idée d’alors était que si le législateur était incapable de protéger les droits humains inscrits au sommet de la hiérarchie des normes juridiques, si « les droits de l’Homme et du citoyen » ne trouvaient plus aucune traduction tangible dans la fabrique de la loi, alors il fallait mobiliser le terrain judiciaire contre l’alliance entre un pouvoir exécutif dopé à l’exception et un Parlement trop enclin à lui concéder les pleins pouvoirs.
Nous savons que le champ juridique agit en grande partie comme un terrain de neutralisation des revendications politiques et de la contestation de l’ordre établi. Force est de constater que les usages contestataires du droit se heurtent à toutes sortes d’obstacles techniques – par exemple la lenteur des procédures – et au fait que le plus souvent, les magistrats – et c’est en particulier le cas du Conseil d’État devant qui se soldent nos contentieux contre le gouvernement – agissent comme des garants de l’État et de sa violence.
Mais de fait, il se trouve encore des juges pour tenir tête au pouvoir politique. Nous avons remporté quelques victoires, dont certaines non négligeables, à l’image de l’interdiction de la reconnaissance faciale à l’entrée des lycées de la Région Sud ou devant la Cour de justice de l’Union européenne dans le dossier de la conservation généralisée des données (les opérateurs de télécommunications sont censés conserver les métadonnées de la population – qui communique avec qui, à quelle heure, pendant combien de temps, depuis quel endroit). Et ces jurisprudences créent un univers de contraintes autour des bureaucraties d’État. Elles permettent aussi de donner de l’écho à nos luttes politiques.
Au final, l’action juridique est ambivalente. Il y a toujours le risque qu’une défaite vienne légitimer ce contre quoi on se bat. Mais, à condition d’être articulée à d’autres modes d’action, elle reste selon nous un outil symbolique fondamental. Car en dépit de toutes leurs limites et contradictions internes, les droits humains sont un héritage des luttes démocratiques des siècles passées. Nous sommes en tout cas d’avis qu’il importe de les faire vivre en ces heures sombres. Même lorsque nous perdons ou que nous obtenons des victoires temporaires ou cosmétiques, nos recours permettent de mettre en évidence les contradictions d’un régime représentatif qui s’enfonce dans le libéralisme autoritaire, de parler aux juges dans leur langage qui prétend à l’universel et de montrer dossier après dossier à quel point l’État de droit qu’ils prétendent incarner n’est pour l’essentiel qu’un mensonge, à quel point ils demeurent pour la plupart, comme l’écrivait Pierre Bourdieu, les « gardiens de l’hypocrisie collective ». Bref, lorsqu’il est bien manié et complété par d’autres moyens de lutte, le droit peut en réalité être un moyen de délégitimer le pouvoir et donc d’y résister.
Selon tous les indicateurs, les prochaines années vont être secouées de multiples crises (climatique, sanitaire, économique…), que Jérôme Baschet unifie sous le terme de « crise systémique du capitalisme ». Dans le contexte de nouvelles tensions géopolitiques entre grandes puissances (Russie vs Ukraine/Europe, Chine vs Taïwan/usa,…), avec toutes les entorses au droit que cela permet, et avec le développement de moyens technologiques toujours plus puissants, quelles évolutions du contrôle social envisagez‑vous pour les prochaines années ?
Nous n’avons évidemment pas de boule de cristal et il est reste très compliqué de faire des prédictions, à fortiori dans un environnement politique aussi tumultueux. Sans doute la crise sanitaire a-t-elle offert un bon aperçu de ces nouvelles formes de contrôle social qui vont continuer à se développer dans les prochaines années, ou revenir en force à l’aune des prochaines « crises ».
La reprise en main d’Internet risque de se poursuivre au rythme de sa place toujours plus importante dans l’infrastructure de nos sociétés de masse. Les quelques espaces alternatifs qu’une association comme La Quadrature du Net s’est donné pour objectif de défendre risquent de connaître une marginalité encore plus grande qu’aujourd’hui. Dans le même temps, les espaces « mainstreams » – fussent-ils la propriété de libertariens comme Elon Musk – continueront de s’insérer dans les politiques de contrôle étatiques. Ils seront les seuls à pouvoir surnager dans un océan de normes toujours plus drastiques en matière de censure, de surveillance ou de cybersécurité, tout en continuant de jouer un rôle dans les compétitions géopolitiques internationales. Ainsi, la censure extra-judiciaire d’Internet a beaucoup progressé ces dernières années, que ce soit au prétexte de lutter contre la propagande terroriste et les discours de haine que de combattre la désinformation scientifique, comme on l’a vu pendant la crise sanitaire. Les élites politiques prétendent s’armer contre la position dominante d’acteurs comme Google, Microsoft et consorts. La réalité, c’est que les dispositifs mis en place consacrent ces entreprises dans le rôle de points de contrôle sur lesquels peut s’appuyer la reprise en main d’Internet.
Il y a aussi l’automatisation croissante de l’ensemble des structures bureaucratiques qui nous administrent, de Parcousup à Linky en passant par les algorithmes de la CAF ou de Pôle Emploi. La déshumanisation bureaucratique va se poursuivre sous les oripeaux de la « transformation numérique » de l’État et du marché, cherchant à invisibiliser le déni de justice et la violence de classe liés à ces bureaucraties, le tout sous couvert d’efficacité. La 5G et la domotique s’inscrivent dans ce mouvement vers une capillarité croissante de l’infrastructure numérique, insérant nos existences dans la trame toujours plus resserrée d’administrations centralisées.
Et puis il y a les questions d’identité numérique. Les plans en la matière au niveau européen ou français permettront demain de confier à n’importe quelle personne munie d’un smartphone la mission de contrôler les allées et venues de la population, la capacité de les retracer dans le temps encore plus finement que ne le permettent les réseaux de télécommunications, de réguler l’accès à certains espaces ou services sans forcément en passer par la police, et ce à un coût extrêmement faible pour l’État puisque nous avons déjà financé l’essentiel de cette infrastructure en achetant nous-mêmes nos smartphones. Depuis le mois d’août 2021, les cartes d’identité délivrées en France embarquent un code en deux dimensions contenant les données d’état civil et l’adresse du domicile – des informations lisibles par n’importe qui – et une puce biométrique lisible pour l’instant pour les seuls usages « régaliens ». Quelques jours plus tard, la multinationale française de l’identité Idemia a été retenue par l’Agence nationale des titres sécurisés (ANTS) dans le cadre du programme interministériel France Identité Numérique. Le but de ce marché public est de permettre de contrôler l’identité d’une personne à l’aide d’un smartphone et de la nouvelle carte d’identité électronique. Ces évolutions préparent dans l’Hexagone la généralisation du « portefeuille d’identité numérique » européen prévue pour 2024, et promue par le commissaire européen Thierry Breton.
Ce qui se passe en Chine sur le plan du contrôle numérique nous concerne assez directement. En effet, derrière les stratégies de distinction des élites européennes, la modernisation à marche forcée de la société chinoise en lien avec l’édification d’un système techno-sécuritaire spectaculaire contribue à un véritable soft-power de l’Empire du milieu auprès des élites européennes. Comme le résume Junius Frey dans la préface française d’un livre du philosophe Yuk Hui, « la gouvernementalité chinoise sert d’ores et déjà de modèle aux formes occidentales d’exercice de la puissance ». Après, ici comme là-bas, on sent bien à quel point toutes ces tendances sont fragiles. Elles sont non seulement insoutenables au plan écologique – sauf à finir de mettre la planète à sac – et elles restent soumises à de multiples résistances.
Outre son impact en termes de contrôle social, il nous semble que la technologie a d’autres aspects négatifs : emprise totalitaire sur nos vies, aliénation (chacun rivé sur son écran à regarder des vidéos pour se divertir), dépendance de plus en plus accrue à l’énergie et aux matières premières… Pensez-vous que c’est simplement l’usage policier de la technologie qui est problématique ? Ou bien la technologie est-elle la manifestation de la démesure humaine à l’ère industrielle ? En d’autres termes : selon vous la technologie est-elle neutre ?
Bien sûr que non, la technologie n’est pas neutre : bien qu’elle soit plurielle et elle aussi soumise à des tendances contradictoires, elle est globalement produite – et elle tend généralement à reproduire – un système politique, économique et social à la fois écocide, capitaliste, raciste, patriarcal. Et oui, la technologie porte en elle la démesure d’un système technicien mis presque tout entier au service de l’édification de sociétés de masse inégalitaires, bureaucratisées et industrialisées.
Nous sommes parties prenantes d’un milieu militant qui a largement bercé dans les utopies fondatrices d’Internet, mais l’expérience politique collective qu’est La Quadrature du Net nous a permis de nous en départir. Même si nos moyens limités nous conduisent à mettre l’accent sur tel ou tel sujet selon les moments, notre action collective est loin de se réduire aux seuls sujets liés à la Technopolice, bien qu’ils soient sans doute les plus visibles ces temps-ci. Nous voyons évidemment plus loin que les usages policiers et nous sommes bien conscients de l’imbrication entre technologies numériques et les différentes formes de pouvoir qui régissent nos existences.
L’une des difficultés, une fois que l’on admet cette non-neutralité de la technique, c’est que le numérique est un fait social total et qu’il est très difficile aujourd’hui d’exister socialement ou politiquement sans en passer par lui. Ce qui pose la question de la place que l’on accorde aux usages alternatifs de l’informatique, des formes d’adoption minimale auxquelles nous consentons malgré tout, et la manière dont on peut les articuler à des stratégies d’évitement ou de contestation des infrastructures numériques existantes. Sur ces sujets notamment, il existe des positions et des pratiques diverses au sein de notre collectif. Nous tâchons de nous nourrir de cette diversité et des débats qu’elle suscite.
Que faire face à ce déferlement de contrôle ? Peut‑on revenir en arrière ? Quels moyens de résistance pensez‑vous efficaces ?
Revenir sur les lois sécuritaires et les régimes d’exception est bien évidemment possible, mais soyons lucides : le vent de l’histoire n’est pas favorable. Sur le plan de la matérialité technologique, revenir en arrière est impossible. Nous héritons quoiqu’il arrive de quantités d’infrastructures numériques qu’il faudra pour certaines maintenir – au moins un temps –, d’autres dont il faudra organiser le démantèlement immédiat, le tout en s’occupant de milieux saccagés dont nous devrons tâcher de tirer nos moyens d’existence.
Quant aux stratégies de résistance efficaces, notre sentiment personnel, c’est que même si certaines sont plus pertinentes que d’autres, il ne faut en rejeter aucune à priori. De l’entrisme au sabotage, toutes peuvent avoir leur efficacité dans un contexte donné. À chacun de décider ce qui lui incombe de faire, selon ses positions sociales et ses appétences, en essayant d’apprendre constamment de nos échecs et de nos erreurs ; d’être lucide, d’ajuster le diagnostic et de réviser nos tactiques avant de réessayer.
L’efficacité politique de nos luttes dépend sans doute pour beaucoup de notre capacité à articuler toutes ces différentes manières de faire, à nourrir un dialogue et des solidarités entre elles en faisant preuve de réflexivité, en les arrimant à un horizon commun de rupture avec le système existant pour faire percoler la radicalité. Même lorsque tout peut sembler perdu, rappelons-nous qu’à travers l’histoire, des pouvoirs en apparence inébranlables se sont avérés extrêmement fragiles. Des stratégies réfléchies et la contingence de l’histoire peuvent en venir à bout bien plus vite qu’il n’y paraît.
";s:7:"dateiso";s:15:"20230330_113053";}s:15:"20230323_131217";a:7:{s:5:"title";s:77:"La France, premier pays d’Europe à légaliser la surveillance biométrique";s:4:"link";s:111:"https://www.laquadrature.net/2023/03/23/la-france-premier-pays-deurope-a-legaliser-la-surveillance-biometrique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20395";s:7:"pubDate";s:31:"Thu, 23 Mar 2023 12:12:17 +0000";s:11:"description";s:251:"L’article 7 de la loi sur les Jeux olympiques a été adopté ce midi par l’Assemblée, actant l’entrée formelle de la vidéosurveillance algorithmique (VSA) dans le droit français, jusqu’en décembre 2024. À l’ombre du tumulte…";s:7:"content";s:9835:"
L’article 7 de la loi sur les Jeux olympiques a été adopté ce midi par l’Assemblée, actant l’entrée formelle de la vidéosurveillance algorithmique (VSA) dans le droit français, jusqu’en décembre 2024. À l’ombre du tumulte de la réforme des retraites, et grâce à une procédure comme d’habitude extrêmement rapide, le gouvernement a réussi à faire accepter une des technologies les plus dangereuses jamais déployées. Pour cela, il a usé de stratégies, de mensonges et de récits fictifs, pour que jamais ne soient sérieusement et concrètement discutés le fonctionnement technique de ces outils et leurs conséquences politiques et juridiques en termes de surveillance de masse. Grâce à une majorité totalement désinvestie et au soutien total de l’extrême droite, la VSA a donc pu être légalisée sur la base de mensonges sapant toujours un peu plus le jeu démocratique.
Le mensonge de la biométrie : le gouvernement a répété et inscrit dans la loi que la VSA ne relevait pas de la surveillance biométrique. C’est totalement faux. Cette technologie identifie, analyse, classe en permanence les corps, les attributs physiques, les gestes, les silhouettes, les démarches, qui sont incontestablement des données biométriques. Nous n’avons cessé de l’expliquer (voir notre note et notre video), de le rabâcher aux rapporteurs du Sénat et de l’Assemblée ainsi qu’aux députés, comme l’ont également fait 38 organisations internationales et une quarantaine d’eurodéputés qui ont récemment interpellé le gouvernement. Mais celui-ci a continué de s’enfoncer dans ce mensonge à la fois technique et juridique. Ainsi la France viole à nouveau le droit de l’Union européenne et consacre sa place de championne européenne de la surveillance.
Le mensonge de l’utilité : le gouvernement a utilisé les Jeux olympiques comme prétexte pour atteindre plus vite l’objectif, fixé depuis des années, de légaliser ces technologies, s’inscrivant par là dans la « tradition », observée partout ailleurs et consistant à instrumentaliser de façon très opportuniste les méga-évènements internationaux. Le gouvernement a réussi à faire croire à une nécessité, fabriquée de toute pièce, pour « repérer les colis suspects » ou « prévenir les mouvements de foule ». Ces évènements sont soudainement devenus la nouvelle priorité du ministère de l’Intérieur et des députés zélés, qui n’ont cessé de résumer la sécurité des JO à ces situations, rarement identifiées comme prioritaires en temps normal, et dont nous démontrions ici que la résolution dépend davantage de maîtrise humaine que de technologie. Ainsi, la VSA a été acceptée sur le seul fondement d’un mythe bien ancré selon lequel la technologie permettrait d’assurer magiquement la sécurité, sans qu’aucune évaluation ni démonstration de l’utilité ou de la proportionnalité de ces technologies très opaques n’ait jamais été honnêtement réalisée.
Le mensonge technique : l’application principale de la VSA consiste à identifier des comportements que la police aura préalablement définis comme « suspects ». Arbitraire et dangereux par essence, le fonctionnement de ces algorithmes n’a jamais été expliqué par le gouvernement : et pour cause, il n’est sans doute pas compris par la majorité des décideurs… Incompétence inexcusable ou volonté assumée de noyer le poisson, dans tous les cas, cela a ramené les débats parlementaires à un niveau extrêmement bas, qui n’est pas à la hauteur des enjeux gravissimes soulevés par ces technologies biométriques. Grâce à l’aide des rapporteurs Renaissance Guillaume Vuilletet et Sacha Houlié (le remplaçant) et de quelques députés, ce sont les rhétoriques de minimisation tirées des arguments de vente des entreprises de la VSA, les mensonges et les inepties techniques qui ont prédominé. Ce qui en ressort, c’est l’incapacité patente du Parlement à discuter de questions techniques, mais surtout la crainte légitime que la société doit avoir pour le futur, au vu de l’incompétence des représentants à appréhender les contours et les dangers des prochaines technologies qui émergeront.
À l’heure où les images de violences policières inondent les écrans, où la police, armée de matraques, assure le service après-vente de mesures impopulaires au possible, l’accentuation de la surveillance policière participe d’une stratégie politique visant à étouffer toute contestation.
Il faut dénoncer ces manœuvres permettant à l’État de détourner la réalité des prérogatives de surveillance qu’il s’arroge. Particulièrement dans un contexte où les mots sont sciemment déviés de leur sens, où l’on tente de nous convaincre que « la surveillance c’est la protection », que « la sécurité c’est la liberté », et que « la démocratie c’est le passage en force ». Il est nécessaire de visibiliser, de contrer ce faux jeu démocratique, et de remettre en cause sans relâche les pouvoirs exorbitants attribués à l’appareil policier français. Il n’est pas nécessaire d’évoquer une dystopie « à la chinoise » pour prendre la mesure des dangers. Mieux vaut regarder l’histoire française et le climat politique actuel, pour mesurer et comprendre la fuite en avant sécuritaire visible depuis vingt ans : toujours plus de caméras, de surveillance et de fichiers, dans une dépolitisation croissante des enjeux sociaux, et une perte de repères des décideurs politiques. Ainsi, les débats sur la loi JO ont principalement brillé par la perte de boussole politique des dirigeants qui semblent hermétiques à tout questionnement sur ces sujets.
Cette première légalisation de la vidéosurveillance automatisée est une victoire d’étape pour les industries sécuritaires françaises. Elles qui demandaient depuis des années à pouvoir tester leurs algorithmes sur les populations, pour les perfectionner et les vendre à l’international, les voilà servies. Bientôt Thales, XXII, Two-I et Neuroo pourront vendre leurs logiciels biométriques à d’autres États, tout comme Idemia a vendu sa technologie de reconnaissance faciale à la Chine. La startup XXII n’a même pas attendu le vote de la loi pour annoncer en fanfare qu’elle avait levé 22 millions d’euros pour devenir, selon ses mots « le leader européen » de la VSA.
Du côté des institutions censées préserver les libertés, comme la CNIL, on note une démission totale. Institution dotée de véritables capacités de contre-pouvoir pour mesurer les velléités étatiques de surveillance à sa création en 1978, la CNIL est devenue un service après-vente des mesures gouvernementales et s’applique méticuleusement à accompagner les entreprises à exercer une « bonne » surveillance afin de préserver les intérêts économiques de l’industrie en dépit de toute considération pour les droits et libertés collectives.
Cette première légalisation de la vidéosurveillance automatisée va nécessairement ouvrir la voie à toutes les autres technologies de surveillance biométrique : audiosurveillance algorithmique, reconnaissance faciale, suivi biométrique des personnes a posteriori…
Nous n’allons pas lâcher le combat, nous continuerons de dénoncer les mensonges du gouvernement, nous serons présents dès que la première expérimentation sera mise en œuvre pour documenter les abus inévitables auxquels conduisent ces technologies. Nous chercherons des moyens de les contester devant les tribunaux, et nous nous battrons pour que cette expérimentation ne conduise pas, comme c’est hélas probable, à leur pérennisation.
Et nous continuerons de refuser ces technologies et la Technopolice qu’elles incarnent, notamment en nous battant au niveau européen pour obtenir leur interdiction.
Alors si vous voulez nous aider dans cette lutte, gardez un œil sur ce qu’on pourra lancer dans les mois à venir, et si vous le pouvez n’hésitez pas à faire un don !
";s:7:"dateiso";s:15:"20230323_131217";}s:15:"20230321_152834";a:7:{s:5:"title";s:88:"Fiasco du Stade de France : la VSA ne masquera pas les échecs du maintien de l’ordre";s:4:"link";s:122:"https://www.laquadrature.net/2023/03/21/fiasco-du-stade-de-france-la-vsa-ne-masquera-pas-les-echecs-du-maintien-de-lordre/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20365";s:7:"pubDate";s:31:"Tue, 21 Mar 2023 14:28:34 +0000";s:11:"description";s:222:"Alors que la loi JO est actuellement débattue à l’Assemblée, que l’article 7 va être examiné ce soir ou demain en séance, que plus de 250 élu·es appellent à s’opposer à la VSA, tout comme…";s:7:"content";s:23540:"
Alors que la loi JO est actuellement débattue à l’Assemblée, que l’article 7 va être examiné ce soir ou demain en séance, que plus de 250 élu·es appellent à s’opposer à la VSA, tout comme 38 organisations internationales et les eurodéputés, le gouvernement continue de défendre dur comme fer cette technologie. Et pour cela, il monte en épingle des problèmes de sécurité avec des arguments fallacieux :
Dans un précédent article, nous revenions sur les stratégies d’acceptation des technologies biométriques utilisées par les industriels et les politiques. Nous avions listé quelques-unes de ces stratégies, comme la dépolitisation des mesures de surveillance, l’expérimentation pour faire croire à leur côté éphémère, la dialectique du progrès versus les réactionnaires qui refusent de tels dispositifs… Et l’une d’entre elles consiste à être opportuniste, c’est-à-dire à utiliser n’importe quel événement ou actualité médiatique pour justifier l’utilisation de la vidéosurveillance algorithmique, et même parfois la reconnaissance faciale.
Le fiasco du Stade de France est un de ces évènements. Durant les débats à l’Assemblée et au Sénat, le ministère de l’Intérieur, de même que les députés et sénateurs de la majorité, n’ont pas cessé de faire référence à la finale de la Ligue des champions comme exemple ultime de la nécessité pour la France de se doter en algorithmes d’analyse d’images afin de garantir la sécurité lors de grands événements comme les Jeux olympiques. En réalité, il s’agit plutôt d’instrumentaliser une catastrophe pour cacher un échec, le cas du Stade de France étant un parfait contre-exemple pour montrer que la technologie sécuritaire ne fonctionne visiblement pas.
Rappel des faits
Le 28 mai 2022 avait lieu la finale de la Ligue des champions de football, opposant les clubs de Liverpool et du Réal de Madrid. Mais suite à une conjonction d’événements, la soirée a viré au drame : le RER B en grève, les autorités décidant de placer un point de contrôle pour plusieurs milliers de personnes en amont, à la sortie d’un corridor sous l’autoroute, finalement enlevé en fin de journée pour risque de piétinement. Ensuite des temps d’attente interminables avant d’entrer dans le stade, sans aucune information ni indication, des supporters agressés, les grilles du stade de France fermées, des personnes qui s’agglutinent et enfin l’usage de gaz lacrymogène par la police par dessus tout ça. Finalement, le coup de sifflet sera donné avec plus de 30 minutes de retard. Cet article, qui reprend le rapport cinglant de l’UEFA (Union des associations européennes de football), livre des témoignages glaçants de supporters.
L’instrumentalisation de l’événement
Dans un rapport sénatorial chargé de faire la lumière sur les événements et publié en juillet 2022, les élus étrillaient le ministère de l’Intérieur et son chef, G. Darmanin, pour « dysfonctionnement » et « défaillances ». L’Intérieur est accusé : « Les premières déclarations ne correspondaient pas à la vérité », et sont pointées les « défaillances » de la préfecture de police de Paris. Défaillances reprises par le rapport de l’UEFA, qui, à l’aune de centaines de témoignages, analyse les failles de la gestion sécuritaire de la préfecture de police de Paris et de l’Intérieur.
Si la situation n’a pas débouché sur une catastrophe, le rapport de l’UEFA
estime notamment que c’est uniquement grâce au sang froid des supporters : « Mieux organisés et plus réactifs que les policiers et les gendarmes chargés de veiller à leur sécurité, ces fans de Liverpool ou de Madrid n’ont dû leur salut qu’à une solidarité sans faille et une capacité à se discipliner qui forcent l’admiration dans un contexte aussi résolument hostile à leur endroit. »
L’ensemble de ces rapports mettent donc clairement en lumière la responsabilité de la préfecture de police de Paris et du ministère de l’Intérieur dans l’échec de la gestion de cet événement. La colère ne faiblit pas pour les supporters de Liverpool, qui déplient lors d’un match en février dernier des banderoles qui accusent le ministre de l’Intérieur et la ministre des Sports d’être des « menteurs ».
Mais dès les jours suivant ce qui était déjà communément désigné comme le « fiasco du Stade de France », le maire de Nice, Christian Estrosi sautait sur l’occasion : « Nous sommes équipés, nous avons les logiciels, nous avons des start-ups et des grands industriels, y compris français comme Thalès, qui ont des systèmes très au point pour garantir les libertés individuelles, et que seules les personnes fichées puissent être détectées par l’intelligence artificielle ».
Du côté de l’Intérieur, après s’être embrouillé dans des pseudo-justifications de dizaines de milliers de faux billets imaginaires, G. Darmanin commence à réciter une fable : celle de la VSA et de sa nécessité afin d’éviter des violences comme celles ayant eu lieu au Stade de France. En janvier 2023 devant le Sénat , c’est la ministre des sports et jeux olympiques et paralympiques, Amélie Oudéa-Castéra (qui défend la loi avec le ministre de l’Intérieur) qui revient dessus lors de la présentation des dispositions de l’article 7 et se félicite de ne pas utiliser de reconnaissance faciale « En matière de sécurité, nous entendons enfin tirer tous les enseignements des événements survenus au Stade de France le 28 mai dernier ».
Et la vidéosurveillance algorithmique ne manque pas de soutien dans l’hémicycle, elle est plébiscitée par l’extrême-droite, qui reprend parfaitement l’argumentaire de la majorité :
Yoann Gillet (RN) : « L’organisation des Jeux olympiques et paralympiques rend cruciale cette question. Au vu des défaillances majeures constatées en mai 2022 au Stade de France, le groupe Rassemblement national réclame des actions concrètes et adaptées pour assurer la sécurité intérieure du pays. Le traitement algorithmique des images de vidéosurveillance, prévu à titre expérimental par l’article 7, est un outil indispensable pour identifier les risques qui pourraient menacer la sécurité des personnes pendant cette manifestation internationale ».
Le ministre de l’Intérieur utilise notamment un point, qu’on retrouve parmi une liste de plusieurs dizaines de recommandations dans le rapport sénatorial précédemment cité, à savoir celui qui préconise le recours à l’intelligence artificielle pour éviter d’autres situations comme celle du Stade de France. La petite histoire commence alors.
Lors des discussions sur la loi JO, le 24 janvier dernier, le sénateur Thomas Dossu, résume parfaitement l’absurdité de ce technosolutionnisme :
« Disons-le clairement, voir émerger cette recommandation dans ce rapport avait déjà un caractère saugrenu. En effet, l’intelligence artificielle aurait-elle permis d’éviter la défaillance dans l’orientation des supporters anglais ? L’intelligence artificielle aurait-elle déconseillé l’usage immodéré des gaz lacrymogènes sur des supporters pacifiques ? L’intelligence artificielle aurait-elle tiré, en amont, les conclusions d’une grève touchant l’une des deux lignes de RER qui menaient au Stade de France ? En d’autres termes, l’intelligence artificielle aurait-elle fait mieux que les intelligences combinées du ministre Darmanin et du préfet Lallement ? Aussi surprenant que cela puisse paraître, je ne le pense pas. »
Ainsi, on passe d’un événement où la responsabilité des forces de police françaises est mise en cause à la soi-disant nécessité d’une extension des pouvoirs de surveillance de cette même police, à travers l’ajout d’algorithmes aux caméras. Cette instrumentalisation de l’événement pour cacher un échec est bien pratique. À un peu plus d’un an des Jeux olympiques, le gouvernement français joue sa crédibilité : s’il est incapable de gérer une finale de Ligue des champions, comment pourrait-il accueillir un méga-évènement comme les JO ? Plutôt que d’avouer son échec, il jette de la poudre aux yeux en déviant sur la pseudo nécessité de la vidéosurveillance algorithmique.
Depuis le début des débats sur la loi JO, la prévention des « mouvements de foule » est alors mise en avant par la majorité comme l’usage principal de cette technologie. D’une part, cela invisibilise – à dessein- les applications bien plus dangereuses de la VSA. D’autre part, le gouvernement infuse de cette manière dans le débat une source d’insécurité fabriquée de toute pièce et qui n’avait jamais pris autant d’importance lors des autres évènements organisés en France.
La VSA aurait-elle pu être utile pour éviter le fiasco ?
Idée reçue : La VSA permettrait à la police d’être mieux organisée
Le fiasco du Stade de France est de toute évidence instrumentalisé pour promouvoir la VSA : mais celle-ci pourrait-elle quand même être efficace face à de tels événements ?
Le problème majeur de cette finale de la Ligue des champions n’a pas été le manque de technologie pour gérer la foule, mais bien la stratégie du maintien de l’ordre de l’Intérieur et de la préfecture, comme l’exposent les différents rapports précédemment cités, avec des erreurs de gestion de foule (contrôle des tickets dans des endroits trop étroits, ligne de RER en grève) couplées au gazage à tout-va des supporters. On voit mal comment la vidéosurveillance algorithmique aurait permis à l’évènement d’être mieux organisé ou à la police d’être moins violente…
Si la rengaine du technosolutionnisme presque magique, qui pourrait résoudre tous les problèmes, est régulièrement utilisée, elle laisse complètement dubitative dans ce cas-là. Le Stade de France compte 260 caméras de vidéosurveillance, pourtant celles-ci n’ont pas servi à grand-chose. Les bandes ont d’ailleurs étrangement été effacées au bout d’une semaine, personne n’ayant visiblement pensé à les réquisitionner : ni le tribunal, ni les sénateurs n’ont pu avoir accès aux images. En quoi l’ajout d’algorithmes aurait-il pu empêcher un tel événement ? Au contraire, le fiasco du Stade de France montre bien qu’une politique de sécurité répressive et inhumaine, dans laquelle les caméras et la VSA s’inscrivent largement et où la police est en partie à l’origine des mouvements de foule, n’aboutit qu’à la violence
Si l’Intérieur souhaite réellement éviter la reproduction de tels événements, il faudrait plutôt songer à changer la doctrine du maintien de l’ordre et s’enquérir de gestion humaine de l’espace : s’assurer d’avoir des couloirs assez grands, d’indiquer les guichets, d’avoir des agents multilingues pour orienter les supporters, d’informer en temps réel sur ce qui se passe, et de défaire les préjugés des forces de l’ordre sur le « hooliganisme anglais »…
Idée reçue : La VSA permettrait de détecter et prévenir des mouvements de foule
Pour éviter les mouvements de foules, les chercheurs dans le domaine pointent l’importance de l’organisation spatiale en amont, la nécessité de poster des humains pour orienter et aider les personnes présentes, le désengorgement des transports… Toutes solutions sans rapport avec la vidéosurveillance, qui ne peut clairement rien pour prévenir les mouvements de foule.
La concentration de milliers de personnes en un même endroit nécessite certes une préparation en amont, mais une fois la foule réunie, qu’est ce que la VSA pourrait repérer qui ne serait perceptible par des humains ? Et si un mouvement de foule se déclenche effectivement, la technologie biométrique ne peut ni porter secours ni réorienter les personnes pour diminuer la densité. On voit donc mal ce que la VSA apporterait sur le sujet. Rappelons également que chaque semaine depuis des décennies, des stades se remplissent et se vident en France. A notre connaissance, il n’a pas été documenté ou identifié de nouveaux problème majeurs de mouvements de foule qui nécessite de changer le savoir faire humain habituellement mis en œuvre dans ces lieux.
Que ce soit dans la prévention ou la résolution de tels mouvements, la technologie n’est pas une aide. Ici, c’est au contraire une stratégie afin d’orienter le débat et le dépolitiser. La vraie question est ailleurs : la VSA n’est pas un outil « neutre » d’aide à la décision, mais s’inscrit dans des stratégies de répression qui ont conduit à produire le fiasco du Stade de France.
Mouvement de foule à Séoul, 2022
Un autre exemple utilisé pour justifier la VSA par son fervent défenseur – encore et toujours – P. Latombe est celui du mouvement de foule meurtrier le soir d’Halloween à Séoul en octobre dernier. Encore une fois, c’est un mauvais exemple, la Corée du Sud et notamment la ville de Séoul utilisent déjà la vidéosurveillance algorithmique, ce qui n’a pas empêché 156 personnes de mourir et des centaines d’autres d’être blessées lors de ce dramatique évènement. Dans ce cas-là, il semble que la faute incombe une fois de plus à la police, trop peu nombreuse sur place et occupée à arrêter des personnes pour trafic de drogues (une centaine de policiers présents pour 100 000 personnes entassées dans un quartier de Séoul), mais aussi à l’ignorance des appels d’urgence de personnes sur place et de ceux des pompiers.
Les spécialistes des mouvements de foule pointent1Voir la vidéo d’un chercheur en mouvement de foule, Mehdi Moussaïd https://www.youtube.com/watch?v=hlnZA89hVwo l’aménagement de l’espace comme la donnée la plus importante pour éviter ces phénomènes (présence d’issues de secours, nombre et largeur de celles-ci), suivie par l’organisation en amont (communication avec la foule, orientation des flux, organisation des secours). La technologie n’a pas de place là-dedans. Encore une fois, filmer une catastrophe ne permet pas de la prévenir.
Conclusion :
La référence au fiasco du Stade de France pour justifier le recours à la vidéosurveillance algorithmique ne tient pas l’analyse une seconde. Il est donc clair qu’il s’agit davantage d’une tentative d’utiliser un choc émotionnel provoqué par une catastrophe et d’essayer de couvrir un échec organisationnel et de répression policière. Mais surtout, en imposant ce faux débat dans les discussions sur la VSA, le gouvernement parvient à étouffer les véritables enjeux liés aux dangers de ces technologies. Le sujet des mouvements de foule a monopolisé les discussions sur la loi JO en commission des lois, empêchant les députés de questionner en profondeur les usages bien plus problématiques de ces algorithmes. Ainsi, la définition de « comportement suspect » ou le suivi biométrique des personnes dans la rue n’ont quasiment pas été débattus alors qu’il s’agit d’applications existantes et dangereuses, promues et développées par les entreprises de VSA qui seront chargées des expérimentations.
La légalisation de la VSA ne permettra pas d’empêcher les fiascos tels que celui ayant eu lieu lors de la finale de la Ligue des champions, mais contribuera bien à augmenter les capacités de surveillance de l’État et la répression de la population. Il faut contrer les manœuvres du gouvernement et regarder en face la société de surveillance qu’il est en train de faire accepter. Refusons toutes et tous l’article 7 !
Voir la vidéo d’un chercheur en mouvement de foule, Mehdi Moussaïd https://www.youtube.com/watch?v=hlnZA89hVwo
";s:7:"dateiso";s:15:"20230321_152834";}s:15:"20230316_193839";a:7:{s:5:"title";s:47:"JO sécuritaires : le podium des incompétents";s:4:"link";s:83:"https://www.laquadrature.net/2023/03/16/jo-securitaires-le-podium-des-incompetents/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20350";s:7:"pubDate";s:31:"Thu, 16 Mar 2023 18:38:39 +0000";s:11:"description";s:228:"Le 8 mars dernier, les débats sur la loi relative aux Jeux Olympiques et Paralympiques de 2024 ont débuté en commission des lois à l’Assemblée nationale. Ce texte s’apprête, via son article 7, à amorcer…";s:7:"content";s:33302:"
Le 8 mars dernier, les débats sur la loi relative aux Jeux Olympiques et Paralympiques de 2024 ont débuté en commission des lois à l’Assemblée nationale. Ce texte s’apprête, via son article 7, à amorcer la légalisation de la surveillance biométrique, en commençant par la vidéosurveillance algorithmique (VSA). Cette technologie, basée sur des algorithmes d’intelligence artificielle, est très complexe. Pour nous assurer que les députés soient en mesure de mener ces débats, d’en comprendre les enjeux techniques ainsi que la dangerosité de l’usage de la biométrie, La Quadrature du Net a envoyé à l’ensemble des parlementaires une note fournie et a organisé des sessions d’appel aux députés.
Le résultat a été stupéfiant : à peine une semaine avant le vote en commission, aucun député n’était réellement informé sur le sujet. Ces derniers justifient leur manque d’investissement sur le sujet en pointant du doigt un agenda législatif très chargé. D’autres assument ne pas s’intéresser au sujet et suivre l’avis des responsables du dossier au sein de leur parti. Alors qu’il s’agit de la légalisation d’une des technologies les plus graves de la dernière décennie, de l’acceptation en creux d’une société de surveillance, les députés sont aux abonnés absents.
Sans surprise donc, le jour des débats en commission, très peu de députés ont pris la parole sur le sujet. À coté de celles et ceux de droite ou d’extrême droite ne jurant que par la sécurité et la protection qui seraient inhérentes à la VSA, les élus de la majorité ont été totalement silencieux et n’ont quasiment pas pris la parole (les groupes Horizons et Renaissance n’ont déposé que quelques amendements). Plus effrayant encore, les quelques députés censés être chargés du sujet ont fait étalage de connaissances très approximatives sur les technologies utilisées par la VSA et ont énoncé nombre d’absurdités avec une grande assurance.
Le champion de cette catégorie est sans aucun doute Philippe Latombe, député Modem, fraîchement nommé à la CNIL et autoproclamé spécialiste de la VSA, alors même que ses liens avec l’industrie sont plus que visibles. Ce dernier assumait en effet pousserpour la légalisation de VSA au salon Expo Protection en novembre 2022, durant lequel il a d’ailleurs été qualifié de « coéquipier » par Sébastien Garnault, représentant du lobby CyberTaskForce. Il a également rencontré le lobby de la vidéosurveillance AN2V dont le président Dominique Legrand regrette que l’impasse ait été faite, dans le texte de loi, sur « la détection des anomalies sonores […] telles qu’un coup de feu ou un bris de vitre. ». Qu’il se console, Philippe Latombe est là pour proposer un amendement sur la surveillance sonore !
De manière générale, le passage en revue des interventions des députés démontre leurs véritables intentions politiques pro-business sécuritaire, mais révèle qu’une fois de plus les parlementaires ne savent pas ce qu’ils votent.
Les jeux de données
Une des incohérences les plus grossières avancées en commission a été de laisser penser qu’en maîtrisant les données fournies aux systèmes d’IA pour apprendre à reconnaître les prétendus comportements « suspects », on pourrait empêcher toute mauvaise utilisation ou « biais » de ces algorithmes. Cette affirmation révèle une compréhension très lacunaire de l’impact de l’usage des données captées dans l’espace public.
• Le caractère « biaisé » de certains jeux de données
La question de la construction du jeu de données — sa représentativité en terme de diversité de genre, d’ethnie, d’âge, etc. — est devenue incontournable. Le cas du logiciel COMPAS, utilisé par certaines juridictions américaines et dont l’objectif était de détecter les possibilités de récidive en fonction des éléments d’un dossier policier, a popularisé les dérives de l’automatisation de la prise de décision. Le programme avait appris sur un jeu de données qui embarquait les décisions racistes du dispositif de police américain concerné, et avait déduit qu’une des caractéristiques principales liée à la récidive était la couleur de peau. On peut trouver d’autres exemples plus récents en parcourant la AI Incident Database.
Le problème est souvent présenté de cette manière : « Lorsque l’on recueille des données et que l’on recherche des corrélations entre elles, on peut aboutir à des résultats orientés si dans le jeu de données, une corrélation est surreprésentée ». On qualifie alors souvent de « biaisé » le jeu de données de départ et l’algorithme ainsi entraîné à partir de ces données. Cette qualification sous-entend qu’il serait possible d’avoir un algorithme neutre, fournissant une analyse objective de la réalité. En fait, si l’on reprend l’exemple de COMPAS, ce n’est pas un « biais », une erreur, qui a conduit à l’automatisation de décisions racistes de la part de l’algorithme, mais bel est bien le fait que les données réelles à partir desquelles on entraîne les machines sont des données produites par des humains et donc teintées d’opinions et portant en leur sein toutes les oppressions existant dans la société. Présenter le problème comme un « biais », c’est penser que le problème est technique alors qu’il s’agit d’un problème politique. C’est aussi reproduire le vain idéal d’une technique neutre, qui n’existe pas : toute technique est formatée par ses conditions de production, et par l’intention de ses auteurs.
La VSA, c’est la surveillance des espaces publics. Dans ces lieux il y a une surreprésentation des personnes précaires et marginalisées par rapport à la population globale, il y a aussi plus d’hommes, moins de personnes très jeunes ou très âgées. Cette surreprésentation se retrouve donc aussi dans les flux vidéo issus de la surveillance de ces espaces. Peut-on pour autant dire que les jeux de données issus de ces captations sont « biaisés » ? Non, cet état de fait n’est pas la conséquence d’une erreur de constitution d’un jeu de données mais bien de la décision politique, ciblée et discriminatoire, de vouloir renforcer la répression précisément dans ces espaces.
Plutôt que de confronter la réalité politique du choix des lieux d’implantation et des populations visées, les défenseurs du texte se cachent derrière des réponses techniques inopérantes relatives à de prétendus « biais ». Par exemple, Philippe Latombe explique :
«Le vrai souci sur l’IA c’est de s’assurer qu’il n’y a pas de biais. Il y a une façon assez simple qui est celle prévue par la CNIL notamment, c’est de dire « on vous donne des jeux de données, on sait exactement ce qu’il y a dans ces jeux de données, on sait ce qu’on doit attendre comme résultat positif mais aussi ce qu’il ne faut pas que nous ayons comme résultat négatif », et dans ces cas là on saura si le traitement est loyal ou pas loyal, s’il y a des biais ou s’il y a pas de biais.(…) Il faut des jeux de données standardisées.»
Pour résoudre ce soi-disant problème, il demande à ce que l’État fournisse lui-même des jeux de données aux entreprises, persuadé que cela permettrait de « pouvoir vérifier justement que les algorithmes n’ont pas de biais » et qu’avoir un laboratoire public [comme le NIST] permettrait de « prouver que l’algorithme il est loyal, il n’y a pas de biais, que les biais sont maîtrisés et qu’il n’y a pas de discrimination » (à écouter ici et là).
M. Latombe manie l’argument du recours à l’État comme figure d’autorité rassurante, faisant mine d’oublier que le droit à la sûreté individuelle est précisément censé protéger aussi contre l’arbitraire de l’État.
Il est rejoint sur ce point par le rapporteur Guillaume Vuilletet, qui explique que « le fait de fournir des données à un algorithme pour le nourrir, faire en sorte qu’il apprenne et qu’il évite les biais est consubstantiel de la démarche algorithmique ». Mais en réalité, cela signifie d’ouvrir l’accès aux images des caméras publiques à des entreprises privées pour qu’elles puissent utiliser les vidéos des personnes dans la rue, désignées cobayes involontaires, pour alimenter généreusement leurs logiciels. Une manne de données gratuites mises au profit d’entreprises privées.
La discrimination des populations imposée par la VSA n’est pas circonscrite à la seule sélection des jeux de données. En réalité, les conséquences les plus problématiques résultent davantage des fonctionnalités qui sont développées dans les logiciels et qui visent précisément les publics les plus vulnérables. Si le simple fait d’augmenter la répression dans les espaces publics est déjà discriminatoire, le fait que la VSA ait pour but de repérer les personnes allongées (personnes sans abri), les regroupements de personnes (personnes n’ayant accès qu’à des espaces publics pour se retrouver) tout en qualifiant ouvertement tous ces comportements de « suspects » est encore plus discriminatoire et problématique. Sans parler de l’atteinte potentielle aux droits fondamentaux de réunion, d’expression et de manifestation sur la voie publique. Cette question très inquiétante de la qualification des « comportements suspects » n’a cependant pas été développée lors des discussions en commission, alors qu’il s’agit d’un des problèmes majeurs de cette loi.
• Les usages possibles d’un jeu de données particulier
Plusieurs fois au cours des débats, les députés ont sous-entendu que les algorithmes n’étaient utiles que dans un cadre similaire à celui dans lequel ils ont été entraînés. Le rapporteur du texte, Guillaume Vuilletet lui-même, dit par exemple :
«La réalité c’est que c’est parfaitement borné. Les fournisseurs ne pourront pas revendre ailleurs ce qu’ils ont fait avec des cas d’usage. Ce que nous expérimentons ce sont des cas d’usage. Comme les JO ne reviendront pas à Paris avant un siècle, avant qu’on ait la configuration géographique et périmétrique du stade de France ou d’un autre site, ça ne veut rien dire.»
Le but est de minimiser le danger de la VSA et de prétendre que les algorithmes ne fonctionnent pas de manière générale mais seulement dans un contexte donné, parce que leur apprentissage s’est déroulé dans un contexte et pour un usage déterminé. Ceci est totalement faux. En réalité, les algorithmes entraînés sur les images des JO pourront tout à fait être utilisés à l’avenir pour surveiller les foules dans un contexte différent (une manifestation, par exemple). Encore pire, ces algorithmes développés par des entreprises privées utilisant la population comme cobaye pourront parfaitement être revendus, par la suite, à d’autres pays. Idémia, société française et leader du marché international de la reconnaissance faciale, pourra continuer à vendre ses algorithmes à la Chine.
On comprend qu’il importe peu que les données d’entraînement soient supprimées, ou propres à un contexte particulier : le résultat auquel elles ont permis d’aboutir sera conservé et pourra servir à une multitude d’applications qui peuvent être différentes du contexte premier de l’expérimentation.
Ce qui a de la valeur et qui sert à des usages futurs, ce sont la quantité de données utilisées et le modèle entraîné qui en résulte.
Est-ce par stratégie ou par méconnaissance que le rapporteur du texte affirme de telles absurdités ? Que ce soit l’une ou l’autre de ces explications, nous avons de grandes raisons de nous inquiéter de laisser l’avenir de la surveillance biométrique entre ses mains.
La fausse neutralité de l’automatisation
Ce qui ressort également des interventions des défenseurs de la VSA, c’est une croyance aveugle en la neutralité des outils techniques et en leur potentialité à résoudre facilement les problèmes politiques auxquels ces mêmes défenseurs seraient censés se confronter.
À entendre les députés, l’IA serait une forme de baguette magique statistique qui permettrait de révéler des corrélations invisibles pour l’humain et de détecter, comme par miracle, les signes précurseurs de mouvements de foule ou d’attentats terroristes. Cela relève du fantasme : toute la conception de l’algorithme est guidée du début à la fin par l’humain et implique un ensemble de prises de décisions techniques et politiques.
Outre le choix du jeu de données évoqué plus haut, dont on a vu qu’il influençait considérablement les décisions prises par l’algorithme, on trouve dans le processus d’élaboration d’un logiciel de VSA d’autres étapes qui orientent la décision finale et imposent à leurs concepteurs de faire des choix qui resteront inscrits dans le logiciel.
L’entraînement du modèle, c’est à dire le moment où les données sont fournies à l’algorithme pour qu’il établisse des corrélations et converge vers un état final satisfaisant, est également très important. On peut voir ce processus comme le calibrage de boutons à tourner : en fonction de la position des boutons, les différentes données de l’images sont pondérées différemment dans la décision d’activer, ou non, la détection. Ces boutons sont tournés de façon automatique par l’algorithme, mais le concepteur avance « à l’aveugle » : il favorise un résultat conforme à son attente, mais sans qu’il sache avec quels critères l’algorithme est arrivé à ce résultat. Si, pour rechercher une personne « suspecte », la combinaison finale de boutons tournés aboutit à ce que l’algorithme trouve plus efficace de repérer les personnes en survêtement, ou encore les personnes de telle couleur de peau, le concepteur ne saura même pas que c’est cette information qui est décisive pour l’algorithme. Il connaîtra juste la pondération que l’algorithme a faite et choisira d’opter pour cette configuration de paramètres car c’est celle-ci qui rend ce dernier le plus efficace.
Il y a donc trois moments décisifs dans la conception de l’algorithme qui vont orienter sa décision finale (et déclencher une intervention de la police) :
– Le choix de la finalité du logiciel de VSA : autrement dit, la définition du comportement suspect (point totalement évacué par les députés lors des débats),
– Le choix du jeu de données et la manière dont il est labellisé (on en parle juste au dessus),
– Et enfin cette étape de pondération d’usage de telle ou telle caractéristique (faite à l’aveugle, sans moyen de savoir si la donnée en question est sensible).
Difficile donc, quand on connaît le fonctionnement de cette technologie de prétendre qu’elle est neutre, tant son élaboration impose de faire des choix, des choix ayant des conséquences politiques importantes.
Ainsi, lorsque Philippe Gosselin (député LR, ex membre de la CNIL, et corapporteur avec Philippe Latombe d’une mission d’information sur la vidéosurveillance) dit : « L’algorithme n’est évidemment qu’un « outil » qui ne doit pas être confondu avec une « intrusion dans la vie privée » », il s’insère exactement dans ce discours visant à prétendre que les logiciels de VSA seraient « neutres ». Il escamote la question du pouvoir conféré à L’État et à la police par la technologie, et efface en quelques secondes les sombres traces de la surveillance dans l’Histoire moderne.
Fonctionnement des algorithmes
Tout au long des discussions, les députés ont tenté des explications techniques, parfois agrémentées de mots savants, sans que cela suffise à cacher leur manque de maîtrise du sujet. Voici notre podium.
Médaille de bronze
La médaille de bronze revient au multimédaillé et favori dans sa catégorie, Philippe Latombe, qui manipule les notions juridiques d’obligation de moyens et d’obligation de résultat sans que l’on comprenne vraiment où il veut en venir. Ce qu’on comprend surtout c’est qu’il estime impossible d’évaluer techniquement la VSA et qu’il faudrait absolument l’« expérimenter » pour garantir la sécurité lors des JO. Cela, sans jamais prévoir la manière dont on évaluera l’impact réel de telles technologies de surveillance de masse, alors même que l’on a jamais eu de retour sur les résultats sur les tests réalisés depuis des années sur la VSA. .
La vision assistée par ordinateur nécessite d’avoir recours au deep learning, ou « apprentissage profond », car les flux vidéo contiennent de grandes quantités de variables impliquant de très nombreux calculs. Une simple image HD compte plus de 2 millions de pixels : il n’est pas imaginable que toutes les dimensions que nécessite son analyse soit chapeautées par un humain.
Les calculs que nécessite l’analyse de telles images sont effectués dans différentes couches de réseaux de neurones. Chaque couche a un rôle précis et permet de pondérer l’algorithme pour lui faire adopter différents comportements. Certains algorithmes comportent de si nombreuses couches que leur fonctionnement est opaque, y compris pour les data scientists qui les manipulent, souvent à tâtons, sans pourvoir dire pourquoi tel réglage fonctionne mieux que tel autre : on se retrouve face à un divorce entre, d’un côté l’intention du programmeur et ses a priori, et de l’autre ce que la machine produit effectivement comme programme. Les ingénieurs ne peuvent avoir la main que sur la correction des erreurs du résultat (est-ce bien une personne qui court ?) et non sur la manière dont le résultat est obtenu (comment l’algorithme a déduit qu’il s’agissait d’une personne qui court).
Regarder les résultats d’un algorithme ne permet donc ni une vision claire de son fonctionnement et des décisions (aux conséquences politiques) qui l’ont conduit au résultat final, ni de savoir tout ce que l’IA n’a pas réussi à reconnaître.
Ainsi, quand Philippe Latombe bafouille « Dans le cas d’un système d’intelligence artificielle reposant sur un apprentissage, il est très compliqué de valider sur le plan technique la notion d’obligation de résultat. On valide éventuellement un logiciel ou un traitement algorithmique au départ, mais en fonction de l’apprentissage, ils peuvent évoluer. (…) il faut assumer le fait qu’il soit impossible de recourir à un algorithme s’il a évolué et ne répond plus entièrement aux conditions de départ. », pensant briller en mêlant jargon juridique et technique, il ne fait que démontrer qu’il n’est pas en mesure de mettre en place des garde-fous juridiques pour encadrer la surveillance biométrique (et pour cause, ce n’est pas possible tant le deep learning est une technologie opaque) ni même de garantir une quelconque efficacité. Bien essayé.
Médaille d’argent
À la deuxième place du podium, on trouve le rapporteur Guillaume Vuilletet qui, pour refuser l’ouverture et la transparence des algorithmes, explique : « S’il y a bien quelque chose qui peut servir aux terroristes c’est d’avoir le code et de comment le contourner (…) donner les codes des algorithmes, les rendre publics, c’est donner les outils à tous ceux qui voudraient pirater les algorithmes et voudraient les détourner. »
Car c’est bien connu : les terroristes, si facilement détectables avec une caméra et un bon logiciel, pourraient changer leur attitude pour laisser croire qu’ils ne sont pas terroristes. Car avant tout, le terroriste est fourbe.
Oui, c’est de l’ironie, mais c’est le député qui a commencé en nous prenant pour des buses.
Il n’est pas le seul, les députés ont à plusieurs reprises mentionné l’idée « d’ouvrir le code » pour dire à quel point il ne fallait surtout pas le faire.
Concernant les logiciels de VSA, il y a plusieurs choses qui peuvent être rendue accessibles :
– les données d’entraînement : en pratique, nombre de ces jeux de données sont déjà accessibles, sous des licences autorisant plus moins d’usages. Parmi eux, beaucoup sont utilisés de manières illégales et comportent, par exemple, des images récupérées sans consentement sur les réseaux sociaux.
– les algorithmes utilisés : il en existe de nombreux et eux aussi sont très fréquemment opensource
– le paramétrage de ces algorithmes : c’est la partie qui est développée par les entreprises de VSA et comme on l’a dit plus tôt qui détermine les décisions politiques.
Donc la question de la transparence des algorithmes n’est jamais posée correctement car elle est multiple. Surtout, cette problématique de l’ouverture du code efface la question de l’interdiction même de cette technologie. Plutôt que de chercher à rendre la surveillance biométrique plus transparente, autant se contenter de ne pas la légaliser.
Petite mention spéciale à Philippe Latombe, qui déclare « Donc ne commencez pas à dire « suspicion généralisée », ca va forcément être avec des biais, il faut ouvrir le code. Désolé mais vous demandez à Google d’ouvrir le code, le lendemain il vaudra plus rien, vous n’aurez pas les expertises pour pouvoir le faire. Y a des vrais sujets de praticité des choses.»
On comprend qu’il n’a aucune notion de ces éléments. Par exemple, Google n’a rien à perdre à rendre ses méthodes d’apprentissage publiques, elles sont déjà open sources pour la plupart (notamment la bibliothèque TensorFlow utilisée dans le monde entier) et la croyance que la mise à disposition d’un code lui enlève sa valeur est particulièrement datée. Les députés démontrent ainsi ne rien connaître à l’économie de l’opensource, qui est très importante dans le développement de l’intelligence artificielle (OpenAI, par exemple, a publié le modèle GPT2 qui est derrière ChatGPT) et n’abordent jamais le véritable sujet qui serait d’être plus transparent sur les pratiques policières pour lutter contre celles qui sont les plus discriminantes.
Médaille d’or
Enfin, la médaille d’or est attribuée à Philippe Latombe (encore lui, quel champion !), pour avoir expliqué – ici et là – que les traitements de la VSA ne sont que des « traitements vectoriels », car : « Les images sont transformées en vecteur et en points». Ainsi, la foule ne serait qu’une agrégation de points attribués à des personnes. Et pour les bagages abandonnés ? C’est très simple :
«On associe une personne que l’on transforme en un vecteur mathématique à un objet qui lui n’est pas un vecteur, et on voit si ça bouge et si il y a un écartement entre les deux. Cet écartement permet simplement d’éviter qu’il y ait un bagage abandonné sur le quai de la SNCF.»
On le connaît bien cet enfumage ! On vous en parlait il y a deux semaines lorsqu’on analysait les stratégies des entreprises pour donner à la VSA une image acceptable. À entendre les promoteurs de la VSA, on donne une définition mathématique des données biométriques et hop ! Magie ! Il n’y a plus de biométrie. « Ce n’est pas une image d’une personne, c’est juste une suite de nombres ! Et ça, ce n’est pas un micro, c’est un capteur de vibration de l’air ! ». Bientôt on aura droit à « Non ce n’est pas de l’ADN, c’est juste une macromolécule définie par une suite de bases nucléiques, rien de biométrique ! ».
Oui, une image est faite de pixels, qui restent des nombres, et oui on peut modéliser ce qui y est représenté avec des vecteurs. Une image avec des personnes majoritairement Noires, si on la modélise mathématiquement avec des vecteurs par exemple, « contiendra » l’information qu’une majorité des personnes sont Noires. Le prétendu « passage en vecteur » n’empêche absolument pas au programme de reconnaître une démarche, des vêtements ou une couleur de peau, de conserver cette information, de lui donner un poids et de prendre des décisions en fonction de ces variables. Au contraire, c’est grâce à ce traitement que l’on peut exploiter plus facilement les données biométriques.
Une fois encore, M. Latombe — par ignorance ou délibérément ? — tente de minimiser la qualification biométrique de cette surveillance, qui est pourtant indiscutable. La reconnaissance de comportements suspects implique nécessairement l’analyse du corps humain, de sa démarche, de ses attributs physiques et de ses mouvements, pour l’individualiser et le reconnaître. Il sera ainsi possible de reconnaître que telle personne présente sur telle zone est la même que celle visible sur une autre caméra, par exemple en raison de sa démarche. Le suivi et l’identification biométrique (c’est-à-dire la capacité à dire qu’il s’agit de la même personne d’après ses caractéristiques physiques, quand bien même on ne connaît pas son nom) sont explicitement rendus possibles par l’utilisation de cette nouvelle technologie, et c’est l’un des dangers prégnants qu’elle fait peser sur le droit à l’anonymat.
Malheureusement, comme un certain nombre de ses collègues, le député Thomas Rudigoz (Renaissance) prétend que « ce traitement algorithmique exclut tout traitement biométrique. Ce que l’on recherche c’est à identifier les mouvements de foule, les densifications de personne à un endroit particulier, identifier des zones interdites qui seraient occupées par telle ou telle personne, des colis suspects et aucunement une reconnaissance faciale ou biométrique ».
Nous l’avons déjà répété plusieurs fois : la VSA met en œuvre des traitements de données biométriques. Les associations européennes ont récemment alerté les députés sur ce point et il est totalement faux de prétendre l’inverse. L’industrie a usé de stratégies de communication pour modifier le sens de ce mot et le cantonner à la reconnaissance faciale (nous avons décortiqué cette manœuvre ici). Il est désolant de voir une grande partie des députés se laisser mener en bateau par cette rhétorique sans sourciller.
Conclusion
Les débats en commission des lois ont montré que les députés de la majorité ne maîtrisent ni les enjeux techniques ni les dangers politiques des technologies de vidéosurveillance automatisée. À aucun moment la question de la définition politique et morale de la notion de « comportement suspect » n’a été sérieusement abordée, ni les problématiques du rapport de la population à la sécurité dans l’espace public — qui passe par bien d’autres solutions que la surveillance et la répression. La croyance que la « protection » ne peut être atteinte que par l’installation de dispositifs de surveillance est tellement ancrée dans l’imaginaire des gouvernants qu’ils ne savent même plus déceler les pouvoirs à limiter et les abus à prévenir.
De nouveau la dépolitisation des questions collectives, voulue par le marché de la sécurité et alimentée par les politiques univoques de ces dernières décennies qui mettent systématiquement le sentiment d’insécurité au centre du débat public, a achevé d’enterrer tout débat constructif, les parlementaires ne faisant même plus semblant de maîtriser l’objet de leurs lois.
Les débats commencent lundi prochain en séance. Il est urgent de mettre les députés face à leurs contradictions pour les convaincre de voter contre cet article 7. Rendez-vous sur notre page de campagne pour voir comment les contacter et refuser ensemble la surveillance biométrique !
";s:7:"dateiso";s:15:"20230316_193839";}s:15:"20230307_114430";a:7:{s:5:"title";s:71:"38 organisations internationales contre la surveillance biométrique !";s:4:"link";s:108:"https://www.laquadrature.net/2023/03/07/38-organisations-internationales-contre-la-surveillance-biometrique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20321";s:7:"pubDate";s:31:"Tue, 07 Mar 2023 10:44:30 +0000";s:11:"description";s:277:" Hier, trente-huit organisations européennes et internationales, coordonnées par l’ECNL, ont dénoncé dans une lettre ouverte le projet du gouvernement français de légaliser la vidéosurveillance algorithmique en France. Nous les remercions de leur soutien à…";s:7:"content";s:26508:"
Hier, trente-huit organisations européennes et internationales, coordonnées par l’ECNL, ont dénoncé dans une lettre ouverte le projet du gouvernement français de légaliser la vidéosurveillance algorithmique en France. Nous les remercions de leur soutien à notre campagne et republions leur lettre ci-dessous.
Ces associations alertent l’Assemblée nationale sur le fait qu’il s’agirait de la première légalisation de la surveillance biométrique en Europe, qui confirmerait la position de la France comme fer de lance de la surveillance dans l’Union européenne. Cela n’est pas si étonnant quand on se souvient que le Conseil d’État avait courant 2021 écarté le droit de l’UE pour valider les pratiques de surveillance de la police et des services de renseignement, et que plus récemment la France s’est positionnée dans les négociations du règlement sur l’intelligence artificielle pour qu’il y ait le moins de restrictions possibles à l’usage de la surveillance biométrique.
Les Jeux olympiques sont instrumentalisés pour rendre acceptable un objectif politique pensé et voulu de longue date. Alors interpellons les député·es pour les convaincre de refuser ce premier pas vers une société où les logiciels de surveillance automatisée de nos corps deviendraient la norme. Rendez-vous sur notre page de campagne pour empêcher le vote de l’article 7 de la loi !
Lettre de la société civile aux députés français sur le projet de loi relatif aux Jeux olympiques et paralympiques 2024
Nous, 38 organisations de la société civile soussignées, exprimons notre vive inquiétude en ce qui concerne l’article 7 du projet de loi relatif aux Jeux olympiques et paralympiques de 20241https://www.senat.fr/leg/pjl22-220.html. Cette disposition crée une base juridique pour l’utilisation de caméras dotées d’algorithmes en vue de détecter des événements suspects spécifiques dans l’espace public.
Ce projet de loi ouvre la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive sous couvert d’assurer la sécurité lors d’événements de grande ampleur. En vertu de cette loi, la France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques. Nous estimons que les mesures de surveillance introduites sont contraires au droit international relatif aux droits humains dans la mesure où elles ne satisfont pas aux principes de nécessité et de proportionnalité et impliquent des risques inacceptables vis-à-vis de plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination.
Nous invitons les députés français à envisager le retrait de l’article 7 et à consulter la société civile en ouvrant un débat sur cette question. Si l’article était adopté, il créerait un précédent inquiétant en matière de surveillance injustifiée et disproportionnée dans l’espace public, au détriment des droits fondamentaux et des libertés.
Ce projet de loi représente une grave menace pour les libertés civiques et les principes démocratiques
Par sa simple présence dans des zones accessibles au public, la vidéosurveillance algorithmique non ciblée (souvent appelée « indiscriminée ») peut avoir un effet dissuasif sur les libertés civiques fondamentales, et notamment sur le droit à la liberté de réunion, d’association et d’expression. Comme l’ont souligné le Comité européen de la protection des données et le Contrôleur européen de la protection des données2https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_fr.pdf, la surveillance biométrique a de graves répercussions sur les attentes raisonnables des personnes en matière d’anonymat dans les espaces publics et a un effet négatif sur leur volonté et leur capacité d’exercer leurs libertés civiques, car elles redoutent d’être identifiées, repérées ou même poursuivies à tort. En l’état, cette mesure menace l’essence même du droit à la vie privée et à la protection des données, ce qui la rend contraire au droit international et européen relatif aux droits
humains.
Conformément aux valeurs et aux principes démocratiques, lors d’événements de grande ampleur tels que les Jeux olympiques, il est essentiel de garantir l’entière protection de ces droits fondamentaux et d’offrir des conditions propices au débat public, et notamment à l’expression politique dans les espaces publics.
Par ailleurs, ce projet de loi allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics. Ainsi, les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’« atypiques », créant un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap. Il est prouvé que l’utilisation des technologies de surveillance crée un état de contrôle, de profilage et de suivi permanent qui nuit de manière disproportionnée aux personnes marginalisées. L’utilisation de systèmes algorithmiques pour lutter contre la criminalité a entraîné une surveillance excessive de la part de la police, une discrimination structurelle dans le système de justice pénale et une criminalisation disproportionnée des minorités raciales, ethniques et religieuses. Cela conduit à la violation, entre autres, du principe de non-discrimination inscrit dans les normes internationales et européennes relatives aux droits humains.
Ce projet de loi entraînerait une surveillance biométrique de masse
Le paragraphe III de l’article 7 du projet de loi dispose de manière erronée que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Le règlement général sur la protection des données (RGPD) de l’Union européenne définit les données biométriques comme des « données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique » (article 4-14 du RGPD).
Si l’usage de caméras dotées d’algorithmes est destiné à détecter des événements suspects spécifiques dans l’espace public, ces caméras capteront et analyseront forcément des traits physiologiques et des comportements de personnes présentes dans ces espaces. Il pourra s’agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d’isoler des personnes par rapport à leur environnement, qui s’avère indispensable en vue de remplir l’objectif du système, constitue une « identification unique ». Tel que l’établit la loi sur la protection des données de l’UE et selon l’interprétation du Comité européen de la protection des données3https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_201903_video_devices_fr.pdf, la capacité d’isoler une personne parmi une foule ou par rapport à son environnement, que son nom ou son identité soient connus ou non, constitue une « identification unique ».
Il est important de garder à l’esprit que l’utilisation de systèmes basés sur l’intelligence artificielle en vue d’analyser et de prédire les comportements, les émotions ou les intentions des personnes peut être tout autant intrusive et dangereuse que celle de systèmes visant à identifier des personnes. Le fait de placer des personnes dans une catégorie regroupant les comportements « à risque » sur la base de leurs données biométriques constituerait une catégorisation biométrique, que le Défenseur des droits et le projet de loi sur l’intelligence artificielle de l’UE définissent comme le fait de catégoriser des personnes physiques en fonction de
caractéristiques spécifiques en se fondant sur leurs données biométriques. Nous attirons l’attention des députés français sur le risque que cette mesure soit en contradiction avec la future loi de l’UE sur l’intelligence artificielle. Dans le cadre du travail législatif en cours, plusieurs amendements proposent l’interdiction totale de la catégorisation biométrique au regard des risques importants qu’elle entraîne pour les droits fondamentaux.
Les atteintes graves aux droits humains contreviennent aux exigences de nécessité et de proportionnalité
Pour garantir une véritable protection des droits humains, il convient de commencer par comprendre les limites des technologies et apporter des preuves de leur adéquation par rapport aux objectifs poursuivis. Dès lors, il est indispensable de mener une étude en vue de déterminer si les technologies introduites au nom de la sécurité répondent à des menaces avérées et quelles incidences leur utilisation aura sur les droits humains et les libertés civiques.
Bien que ce projet de loi présente des risques élevés pour les droits fondamentaux et malgré les preuves existantes4https://www.lemonde.fr/societe/article/2021/12/22/une-etude-commandee-par-les-gendarmes-montre-la-relative-inefficacite-de-la-videosurveillance_6106952_3224.html de l’inefficacité de la vidéosurveillance en matière de prévention des infractions et des menaces à la sécurité, le gouvernement n’a pas démontré la conformité de ce projet de loi aux principes de nécessité et de proportionnalité et il n’a pas engagé de véritable dialogue avec la société civile au sujet de cette mesure. De ce fait, nous estimons que les restrictions des droits humains introduites ne satisfont pas aux trois critères de légalité, de but légitime et de nécessité et de proportionnalité. Elles constituent une violation des obligations incombant aux États en matière de droits humains en vertu de traités internationaux, et notamment du Traité international relatif aux droits civils et
politiques et de la Convention européenne des droits de l’homme.
Ce projet de loi constitue une étape vers la normalisation de pouvoirs d’exception en matière de surveillance
L’article 7 du projet de loi est représentatif de la tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Or, il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme. Souvent, elles ne s’accompagnent pas de garanties suffisantes et de mécanismes de responsabilité, elles manquent de transparence et elles ne font l’objet d’aucun dialogue avec les parties intéressées.
Cette tendance a été amplement constatée en ce qui concerne les mesures de surveillance prises au cours des deux dernières décennies sous couvert de la lutte contre le terrorisme et, plus récemment, avec les solutions numériques adoptées dans le contexte de la pandémie de Covid-195https://ecnl.org/publications/under-surveillance-misuse-technologies-emergency-responses. Nous avons également observé par le passé que les Jeux olympiques peuvent servir de terrain d’expérimentation6https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?format=pdf&lang=en pour doter l’État de pouvoirs renforcés qui sont ensuite maintenus lorsque la situation d’exception prend fin.
Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Si elle est adoptée, cette loi constituera également un précédent dangereux pour d’autres pays européens, tels que le Portugal et la Serbie, qui ont tenté, à ce jour sans succès, de légaliser une série de pratiques de surveillance biométrique risquées. La France endosserait alors le rôle peu reluisant de « leader » des politiques de surveillance au sein de l’Union européenne.
Nous espérons sincèrement que les députés français prendront des mesures de toute urgence en consultation avec la société civile afin de répondre aux préoccupations exposées ci-dessus.
Access Now, International
AlgoRace, Espagne
AlgorithmWatch, Allemagne
AlgorithmWatch CH, Suisse
Amnesty International, International
ApTI, Roumanie
ARTICLE 19, International
Association Nationale des Supporters, France
Big Brother Watch, Royaume-Uni
Bits of Freedom, Pays-Bas
Centre for Democracy & Technology, Europe
Chaos Computer Club Lëtzebuerg, Luxembourg
Citizen D / Državljan D, Slovénie
Civil Liberties Union for Europe, Europe
Deutsche Vereinigung für Datenschutz e.V. (DVD), Allemagne
Digitalcourage e.V., Allemagne
Digitale Gesellschaft, Suisse
Digitale Freiheit e.V., Allemagne
Elektronisk Forpost Norge, Norvège
Eticas Tech, Espagne
European Center for Not-for-Profit Law Stichting (ECNL), Europe
";s:7:"dateiso";s:15:"20230307_114430";}s:15:"20230302_145810";a:7:{s:5:"title";s:63:"PARIS 2024 : LA FRANCE CHAMPIONNE OLYMPIQUE DE LA TECHNOPOLICE";s:4:"link";s:101:"https://www.laquadrature.net/2023/03/02/paris-2024-la-france-championne-olympique-de-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20270";s:7:"pubDate";s:31:"Thu, 02 Mar 2023 13:58:10 +0000";s:11:"description";s:206:"Nous republions un article écrit pour le numéro 24 de la revue papier Mon Lapin Quotidien. Illustration de Quentin Faucompré.
À moins de deux ans des Jeux olympiques de Paris 2024, et à un an de…";s:7:"content";s:43210:"
Nous republions un article écrit pour le numéro 24 de la revue papier Mon Lapin Quotidien. Illustration de Quentin Faucompré.
À moins de deux ans des Jeux olympiques de Paris 2024, et à un an de la Coupe du monde de Rugby 2023, les décideurs publics annoncent de grands projets sécuritaires : la nation tout entière est en ordre de marche vers la Sécurité, comprise uniquement comme pratique policière de la répression et comme industrie de l’équipement de surveillance.
Jeux olympiques de Paris 2024. La liesse, la foule, les couleurs, le bruit. Des milliers de spectateurs se pressent dans les allées du village olympique et dans les alentours du Stade de France. Au-dessus d’eux, à peine visibles dans le ciel bleu, des drones bourdonnent. Ils filment en haute définition, et les images sont transmises au sol où des ordinateurs analysent sans relâche l’écoulement fluide de la foule, à la recherche d’un groupe qui chahute ou d’individus dont le comportement trop singulier inquiète : un attroupement sans cause visible, un arrêt prolongé dans un lieu de passage qui ralentirait ou dévierait le flux des spectateurs, ou une personne qui se met brusquement à courir. Le logiciel lance aussitôt une alerte. Sur chaque mât de lampadaire, des caméras pivotent en direction de la zone désignée par l’ordinateur. Alertés, des opérateurs humains se penchent sur les écrans. Les drones convergent pour donner une image plus précise de la situation vue du ciel — point de vue idéal, dispositif panoptique absolu, partout présent et localisable nulle part, un peu comme Dieu mais avec quatre hélices.
Comme 30 000 agents de police sont mobilisés chaque jour pour contrôler et rassurer la foule des touristes, le suspect est vite appréhendé dans une rue de Saint-Denis. Les policiers le photographient avec leur téléphone et soumettent son visage à leurs bases de données, en passant par le fichier du Traitement des antécédents judiciaires (TAJ), qui comporte une très utile fonction de reconnaissance faciale, interrogée plusieurs milliers de fois par jour. Très vite son nom revient, accompagné de toutes les informations dont disposent le fichier des Titres électroniques sécurisés (TES) : son âge, son adresse, ses empreintes digitales et son empreinte faciale. Il est relâché : malgré son aspect maghrébin, qui pouvait motiver une inquiétude bien acquise chez un policier français (de la police française), l’homme n’est pas défavorablement connu des services. En revanche, son comportement anormal ayant troublé l’ordre public et nécessité l’intervention coûteuse et inutile des forces de l’ordre, alors que le risque d’attentat est très élevé, une amende forfaitaire lui est infligée. Soulagé de quelques centaines d’euros, il peut reprendre le cours de sa vie d’innocent en sursis, à condition de ne pas courir.
Le désastre sécuritaire qui vient
Cette description relève encore partiellement de la science-fiction, mais plus pour très longtemps. Car l’ambition déclarée du ministère de l’Intérieur — dirigé aujourd’hui par Darmanin, Gérald — est bien de permettre au système sécuritaire français de concrétiser ce cauchemar avant juin 2024. Dans un « Livre blanc de la sécurité intérieure » paru fin 20201Livre blanc de la sécurité intérieure, novembre 2020. ainsi que dans un rapport annexe à la récente « Loi d’orientation et de programmation du ministère du l’Intérieur » (LOPMI, adoptée à l’Assemblée nationale le 18 novembre 2022), les intentions du ministère sont explicitées sans fausse pudeur : il s’agit d’un « réarmement », selon les mots du ministre lui-même, dans le cadre duquel les outils de haute technologie numérique seront de précieux auxiliaires de police. Casques à vision intégrée, exosquelette de protection, consultation des fichiers à distance, caméras mobiles, reconnaissance faciale en continu, drones, fichage, tout l’arsenal imaginable est envisagé, avec ses besoins de financement et son encadrement législatif, suivant un calendrier qui prend 2024 comme horizon. Tout doit être prêt pour les Jeux olympiques.
L’ambition est bien entendue habillée des meilleures intentions du monde. La légitime protection contre la menace terroriste est abondamment invoquée pour justifier ce déferlement sécuritaire. Darmanin parle de « terroristes islamistes, de l’ultra-droite et de l’ultra-gauche », et affirme que les renseignement feront un « effort » pour « maîtriser » ces personnes en amont des JO. Ce n’est pas sans rappeler la COP 21 de 2015, quand nombre de militants écologistes avaient été perquisitionnés, arrêtés pour certains, et assignés à résidence un peu avant le début de l’événement2« Les militants de la COP21, cibles de l’état d’urgence », Le Monde, 27 novembre 2015..
Apparition de la Technopolice
La Quadrature du Net, dont l’objet est la défense des droits et des libertés fondamentales à l’ère du numérique, s’intéresse activement depuis 2018 aux pratiques de surveillance technologique dans les villes françaises, que nous appelons la Technopolice. Tout est parti d’un article de presse3« À Marseille, le big data au service de la sécurité dans la ville », Le Monde, 8 décembre 2017. au sujet d’un projet municipal, à Marseille, de construire un « Observatoire de la Tranquillité publique », qui devait mettre le big data au service de la sécurité. Le nouveau centre de supervision urbain (CSU) — endroit où arrivent les flux vidéos de toutes les caméras de vidéosurveillance — devait également centraliser toutes les données numériques produites par les services de la ville : trafic routier, police municipale, marins-pompiers, hôpitaux, etc. L’ambition : malaxer cette montagne de données quotidiennes avec des algorithmes d’intelligence artificielle pour dégager des motifs, des récurrences, des lois, bref, des éléments signifiants, dans l’espoir d’anticiper la délinquance ou les perturbations de l’ordre public.
Il nous a aussitôt paru nécessaire de mettre en lumière ce qui se passait à Marseille et sans doute dans d’autres villes les françaises. Pour cela, nous avons utilisé un outil démocratique intéressant, le « droit d’accès au documents administratifs » que tous les citoyens peuvent exercer auprès des administrations, sous le contrôle d’un commission nationale (la Cada). Nous avons donc demandé aux mairies, par courrier, leurs délibérations et leurs appels d’offres en matière de dispositifs numériques de sécurité.
Les demandes Cada et l’effet vampire
Nous avons assez vite obtenu de nombreux documents, qui décrivent les dispositifs technologiques vendus par les industriels aux mairies. Des caméras, des logiciels, des algorithmes d’intelligence artificielle, des micros, des drones… Il faut bien comprendre que ces dispositifs ne sont pas des fantasmes de policiers ou de militants anti-répression, mais des réalités quotidiennes aujourd’hui en France. Un bestiaire étonnant, mais vite monotone, car les acteurs sont peu nombreux et toujours les mêmes. Autre surprise : de nombreuses communes ont acheté des packs de vidéosurveillance sans être toujours conscientes de la nature des systèmes qui leur ont été vendus. Et parfois, des initiatives plus déroutantes que d’autres se font remarquer : le maire de Saint-Étienne voulait installer des micros dans quelques rues « sensibles » d’un quartier populaire de la ville, pour lancer des interventions de police en cas de bruits suspects (bombe aérosol de peinture, cris, etc.). Dès que le projet a été rendu public, la mairie l’a retiré pour mettre un terme aux protestations. C’est ce qu’on appelle l’effet vampire : les projets honteux ne résistent pas à la lumière.
La campagne Technopolice
Cet arsenal hybride se déploie depuis quelques années à très grande vitesse, mais derrière une brume tactique qu’il fallait dissiper. C’est pourquoi La Quadrature du Net a lancé une campagne Technopolice invitant les habitants des communes du pays à se saisir du problème et à faire des demandes Cada auprès de leurs mairies.
La campagne s’est organisée autour d’un forum pour fédérer les initiatives locales et d’un site internet pour publier les documents obtenus et cartographier l’emprise croissante de la Technopolice. Elle cherche à documenter les dispositifs de surveillance, illégaux pour la plupart, qui sont aujourd’hui mis en place sous couvert d’expérimentation dans un premier temps, avant d’être entérinés par la pratique, puis par le droit.
Les JO, un grand accélérateur de sécurité
Dans ce contexte de monomanie sécuritaire — dernier pouvoir d’un État réduit à son squelette régalien, et confiné dans un rôle d’orientation des fonds publics vers l’entreprise privée — les Jeux olympiques sont une aubaine : pouvoir légaliser des pratiques (policières), financer une économie (industrielle) et fabriquer de la sécurité.
La Coupe du monde de Rugby 2023 et surtout les Jeux olympiques de Paris 2024 sont explicitement envisagés comme des rendez-vous pour les forces de surveillance, car ils permettront de faire entrer dans le droit commun des pratiques jusqu’alors illégales, et de faire sauter le verrou qui bloquait la massification d’usages policiers encore marginaux, et de faire perdurer, bien au-delà de la période des JO, les moyens déployés spécifiquement pour ces derniers. C’est le célèbre effet cliquet : un événement exceptionnel justifie des mesures exceptionnelles qui ne seront jamais remises en cause par la suite. On se souvient par exemple que de nombreuses mesures de « simplification » administrative et judiciaire, prises lors de la longue période d’état d’urgence qui a suivi les attentats du 13 novembre 2015, ont ensuite été versées au droit commun par la loi Sécurité intérieure du 31 octobre 20174Loi Sécurité intérieure du 31 octobre 2017.. Le pays baigne de fait dans un état d’exception permanente.
Une nouvelle « loi olympique » en 2023
Lors d’une audition récente au Sénat, Gérald Darmanin a déclaré que la préparation des JO occupait un tiers de son temps de ministre, et annoncé que 30 000 agents des forces de sécurité seront mobilisés chaque jour, que 15 000 nouvelles caméras de surveillance seront installées, financées à hauteur de 44 millions d’euros par le ministère de l’Intérieur, et renforcées par des programmes de vidéosurveillance et des dispositifs anti-drones (la police se réservant ainsi le monopole du drone légitime).
En amont, selon les mots du ministre, un « plan Zéro délinquance » prévoit de « nettoyer les banlieues », c’est-à-dire de harceler les populations ayant le malheur de vivre là où se tiendront les JO, dans les communes de Seine-Saint-Denis qui accueilleront le village olympique et les installations sportives (Saint-Denis, Aubervilliers, etc). Comme le Comité d’organisation des Jeux olympiques (COJO) l’écrit lui-même sur la page consacrée à « l’héritage » de ces Jeux : « Paris 2024 est un laboratoire pour inventer la ville de demain, une ville pour les gens »5Site officiel de Paris 2024…
Au cours de la même audition6Audition de Gérald Darmanin au Sénat, 25 octobre 2022., le ministre Darmanin a annoncé qu’une nouvelle « loi sur les Jeux olympiques » sortira des cartons au début de l’année 2023. Outre les dispositions déjà évoquées, son objectif sera d’introduire des « ajustements juridiques » pour légaliser la vidéosurveillance algorithmique.
La VSA, un vieille connaissance de La Quadrature du Net
Au cours de nos enquêtes sur les usages de la Technopolice municipale, nous avons beaucoup rencontré la vidéosurveillance intelligente, que nous préférons appeler la vidéosurveillance automatisée ou algorithmique (VSA). Les caméras urbaines génèrent chaque jour des centaines, des milliers d’heures d’images. L’humain n’est pas capable de les regarder avec efficacité. L’industrie a donc imaginé d’imposer cette fausse évidence : il suffit de confier le travail à des logiciels. Les algorithmes sont dressés à reconnaître des situations-types et chargés de repérer les « comportements suspects » définis par la police elle-même7« Qu’est-ce que la surveillance algorithmique ? », Technopolice, mars 2022..
Ces algorithmes sont capables de s’intéresser à des « événements » (déplacements rapides, altercations, immobilité prolongée) ou aux traits distinctifs des personnes : une silhouette, un habillement, une démarche, grâce à quoi ils peuvent isoler une personne au sein d’une foule et la suivre tout le long de son déplacement dans la ville. Plus large et plus variée que la seule reconnaissance faciale, la VSA est à la fois un outil de police idéal et une filière industrielle aux débouchés nombreux.
Pour cela, le gouvernement doit faire entrer dans le droit commun ces technologies aujourd’hui illégales, avec le moins de débat public possible.
La vidéosurveillance, en plus d’être inefficace en regard de l’objectif qu’elle prétend atteindre (« moins de délinquance »), est une chimère politique de droite qui trace un signe égal entre la notion de sécurité et la simple répression. Une « sécurité de gauche », qui engage d’autres imaginaires, comme la sécurité sociale, sanitaire, alimentaire, ou le droit au logement, est beaucoup plus coûteuse à défendre. La VSA, à l’inverse, propose une solution simple en venant automatiser des dynamiques discriminatoires à l’œuvre depuis longtemps.
Un enjeu de taille pour une industrie impatiente
Les Jeux olympiques sont une aubaine pour les industriels de la sécurité, depuis les grandes multinationales comme Thalès ou Dassault, jusqu’aux petites start-ups agiles et disruptives de l’intelligence artificielle qui concoctent, avec un zèle touchant, les algorithmes de détection des « comportements suspects ».
Thalès a déjà testé la reconnaissance faciale en 2021 dans les allées de Roland-Garros. La start-up Two-I avait essayé d’identifier les visages des supporters interdits de stade, à Metz, en 20208Reconnaissance faciale au stade de Metz, France 3 Grand Est, février 2020. : la CNIL lui avait infligé un avertissement pour cette expérience de police sauvage. Ces prestataires de la Technopolice se frottent aujourd’hui les mains : portés par les fonds de l’Agence Nationale de la Recherche et par l’appel d’air sécuritaire créé par les JO, ils comptent exposer aux yeux de monde entier le savoir-faire français en matière de surveillance et vendre leurs solutions à d’autres villes en France, en Europe, ou plus loin encore.
Ces technologies sont aujourd’hui en phase de test — pas moins de 180 expérimentations avant la fin de 2022, pour un budget de 21 millions d’euros donnés par l’ANR — avant d’être « déployées » pour la Coupe du monde de Rugby de septembre 2023, dernière répétition générale avant les JO. Le gouvernement et les industriels sont main dans la main pour faire de la France une championne du marché techno-sécuritaire mondial.
Au moment où le ministère de l’Intérieur voit son budget croître encore de 15 milliards d’euros sur cinq ans9« Loi d’orientation du ministère de l’Intérieur : nouvelle version mais vieilles recettes », Libération, 8 septembre 2022., le budget « sécurité » des Jeux olympiques, d’abord prévu à 182 millions d’euros, est passé à 295 millions d’euros. La surveillance et la répression n’ont pas entendu parler de la fin de l’abondance. Pour un gouvernement économiquement libéral et politiquement autoritaire, comme celui que pratique Emmanuel Macron, la dépense publique de sécurité est un fusil à deux coups : les milliards d’argent public permettent d’« assurer la sécurité des Français » et de « créer de l’emploi ». En même temps. On nage dans le bonheur et l’efficacité.
Croissance et fragilité de la sécurité privée
Cette privatisation de la sécurité publique présente un autre aspect : les nombreuses lois sécuritaire de ces dernières années donnent aux entreprises privées une part toujours plus grande des missions de sécurité publique.
Les mouchards stipendiés par les préfets parisiens du 19e siècle regarderaient sans doute avec envie la rigueur professionnelle que le Livre blanc de la sécurité intérieur (2020) entend donner au « continuum de la sécurité privée ». Comme l’écrit Thomas Jusquiame : « moralisée, intégrée, contrôlée, protégée, alimentée, organisée, la sécurité privée n’a jamais paru autant en harmonie avec les forces de répression régaliennes »10« Sécurité privée et privatisation de la police », Lundi matin, 27 décembre 2021..
Mais les organisateurs de Paris 2024 sont hantés par le souvenir des Jeux de Londres en 2012 : l’entreprise de sécurité privée mandatée par l’État avait déclaré forfait trois semaines avant le début des Jeux, faute d’agents disponibles, et le gouvernement britannique avait dû faire appel au personnel de l’armée. Or, à deux ans de la cérémonie d’ouverture des Jeux de Paris 2024, les 25 000 à 30 000 agents de sécurité demandés par le COJO manquent encore à l’appel.
Le Conseil national des activités privées de sécurité (CNAPS) tente de rendre ce métier attractif, en proposant aux chômeur·euses d’île-de-France des formations payées par l’État, et cible même les étudiantes (il faut du personnel féminin pour les fouilles). À cela s’ajoute la nécessité de réaliser un million d’enquêtes administrative, dont la grande majorité concerne le recrutement des agents de sécurité privée. Le COJO a déjà annoncé avoir refusé entre 100 et 200 candidats fichés S.
Le grand embrigadement dans la société de surveillance est apparemment un chemin plein d’épines. Et il convient d’en rajouter.
Perspectives de lutte et plainte collective
Les Jeux olympiques ont souvent été dénoncés pour leur manière d’affirmer que le capitalisme fonctionne, tout en détruisant à la pelleteuse des vies, des habitats et des communautés11« Paris JO 2024, miracle ou mirage », ouvrage collectif publié en 2022 aux éditions Libre et Solidaire.. En mai dernier, une rencontre anti-olympique a eu lieu à Paris12Retour sur les rencontres anti-olympiques internationales, mai 2022.. Le collectif Vigilance JO Saint-Denis dénonce les projet d’aménagement urbain destructeurs13Collectif Vigilance JO Saint-Denis. Le collectif Saccage 202414Saccage 2024 regroupe les organisations qui combattent les destructions occasionnées par les Jeux, qui accélèrent « les problèmes écologiques et les injustices sociales dans nos villes, et nous privent des moyens de décider collectivement de ce qui nous entoure ».
Le déploiement des dispositifs technopoliciers diffère en fonction des contextes locaux, des volontés municipales et des accointances avec des industriels. Mais l’ambition du chantier de surveillance des JO de Paris 2024 confirme que le ton général est donné par le sommet de la pyramide sécuritaire nationale. C’est pourquoi la Quadrature du Net a décidé de porter une plainte collective — plus de 15 000 personnes nous ont confié leur mandat, et la plainte été déposée devant la CNIL le 24 septembre 2022 — contre le ministère de l’Intérieur et contre les grands piliers du système de la Technopolice : la vidéosurveillance, les logiciels de VSA, la reconnaissance faciale, et le fichage généralisé (fichiers TAJ et TES). Nous dénonçons la volonté d’imposer à marche forcée ces dispositifs de surveillance totale, sans volonté démocratique et sans retour possible, pour le maintien d’un ordre dont tout indique, des hôpitaux aux universités, des crises sanitaires aux crises migratoires, des océans aux forêts, de la biodiversité au climat, qu’il est un ordre de mort.
";s:7:"dateiso";s:15:"20230302_145810";}s:15:"20230224_150608";a:7:{s:5:"title";s:51:"Une BD pour refuser la surveillance biométrique !";s:4:"link";s:88:"https://www.laquadrature.net/2023/02/24/une-bd-pour-refuser-la-surveillance-biometrique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20188";s:7:"pubDate";s:31:"Fri, 24 Feb 2023 14:06:08 +0000";s:11:"description";s:149:" Nous publions une BD de Grisebouille contre la surveillance biométrique (dont on peut retrouver le site internet ici) de Framasoft. Merci !
";s:7:"content";s:389:"
Nous publions une BD de Grisebouille contre la surveillance biométrique (dont on peut retrouver le site internet ici) de Framasoft. Merci !
";s:7:"dateiso";s:15:"20230224_150608";}s:15:"20230223_121130";a:7:{s:5:"title";s:88:"Stratégies d’infiltration de la surveillance biométrique dans nos villes et nos vies";s:4:"link";s:78:"https://www.laquadrature.net/2023/02/23/surveillance-biometrique-infiltration/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20162";s:7:"pubDate";s:31:"Thu, 23 Feb 2023 11:11:30 +0000";s:11:"description";s:301:"Depuis 2019, l’initiative Technopolice documente et analyse le déploiement illégal des technologies d’intelligence artificielle qui cherchent à augmenter la puissance policière de répression dans l’espace public. En quatre ans, ces technologies se sont perfectionnées et…";s:7:"content";s:48515:"
Depuis 2019, l’initiative Technopolice documente et analyse le déploiement illégal des technologies d’intelligence artificielle qui cherchent à augmenter la puissance policière de répression dans l’espace public. En quatre ans, ces technologies se sont perfectionnées et leurs promoteurs – des entreprises et des représentants de politiques sécuritaires – tentent de sortir de cette position illégale inconfortable.
Alors que le déploiement de ces IA policières s’est fait dans l’illégalité la plus totale, la loi sur les Jeux Olympiques et Paralympiques de 2024 a précisément pour but d’amorcer cette légalisation de la surveillance biométrique, en commençant par la VSA : la vidéosurveillance algorithmique. Mais pour arriver jusqu’ici, l’industrie a déployé tout un panel de stratégies pour rendre ces technologies acceptables. Décortiquons-les.
Panorama des technologies phares de surveillance biométrique
Tout d’abord, rappelons la véritable nature des trois technologies phares des entreprises du marché de la surveillance biométrique, qui mêlent captation de nos attributs (couleur des vêtements, sacs, couvre-chefs, etc.), de nos caractéristiques physiques (formes de nos corps, démarche…) et intelligence artificielle.
• VSA
La vidéosurveillance algorithmique consiste en l’automatisation du travail d’analyse des images de vidéosurveillance grâce à un logiciel, basé sur des algorithmes de « computer vision » (le champ de l’intelligence artificielle spécialisé dans le traitement des images), qui se charge de produire des notifications lorsque qu’il détecte un événement qu’on l’a entraîné à reconnaître, généralement en vue d’une intervention policière. Cette technologie est aussi utilisée pour des usages privés, par exemple pour détecter des intrusions dans une propriété privée ou pour surveiller les clients des supermarchés.
Les algorithmes ayant pour but de reconnaître une information sur une image sont généralement basés sur de l’apprentissage automatique, aussi appelé « machine learning ». Pour pouvoir faire de la reconnaissance sur ces flux vidéo, il convient de traduire des informations (nombre de pixels, position, couleur, et leur évolution dans le temps) en informations statistiques plus intelligibles et manipulables qu’on appelle des caractéristiques.
Nous avons recensé de manière non exhaustive la mise en place de cette technologie dans plus de 200 villes françaises. Par exemple, la VSA peut détecter des « évènements anormaux » qui sont en réalité des comportements anodins tels que des rassemblements ou le fait d’être statiques, mais aussi suivre le parcours d’une personne ou lire des plaques d’immatriculation.
• ASA
L’audiosurveillance algorithmique fonctionne de la même manière que la VSA mais en utilisant des signaux audio à la place des flux vidéo. Contrairement à la VSA, qui se base sur le parc de vidéosurveillance existant, cette technologie demande d’installer des micros dans les rues. La première ville dans le viseur des collectifs luttant contre la technopolice a été Saint-Étienne, où, sous couvert d’expérimentation la municipalité avait prévu d’installer plusieurs dizaines de capteurs sonores dans un quartier de la ville afin d’en traquer les « bruits suspects » (klaxons, bris de verres, bombes aérosols)… Dès 2019, nous avions pu analyser la gravité du projet qui a finalement été annulé suite à une grande mobilisation des Stéphanoi·ses et un avertissement de la CNIL.
Cela n’a pas empêché la ville d’Orléans de lancer un projet similaire en 2021, contre lequel La Quadrature a déposé un recours, toujours en cours d’examen par le tribunal.
• Reconnaissance faciale
La reconnaissance faciale fonctionne grâce aux mêmes algorithmes de « computer vision » que la VSA, c’est à dire de l’apprentissage statistique qui a pour but d’analyser et déterminer les corrélations et paramètres identiques entre des images. Dans cette application là, les algorithmes sont circonscrits aux traits du visage, on peut donc considérer la reconnaissance faciale comme une sous-catégorie de la VSA.
En France, la reconnaissance faciale est déjà massivement utilisée par la police à travers le fichier de police du Traitement des Antécédents Judiciaires (TAJ). Dans ce cadre, la reconnaissance faciale est utilisée pour créer un lien direct entre le visage d’une personne et son identité civile enregistrée dans le TAJ. Cet usage permet aux agents de comparer, a posteriori, des images de vidéosurveillance ou de réseaux sociaux avec plus de huit millions de photos de personnes contenues dans ce fichier.
De plus, nous avons pu observer plusieurs tentatives d’installation de la reconnaissance faciale dans l’espace public en France. Par exemple, la région PACA a voulu mettre en place des portiques de reconnaissance faciale dans deux lycées, à Nice et à Marseille en 2018. Nous avons fait un recours et le dispositif a été jugé illégal en 2020, car totalement disproportionné, par le Tribunal administratif de Marseille et par la CNIL.
Les entreprises qui proposent des solutions de VSA sont tout autant en mesure de faire de la reconnaissance faciale. Officiellement, la plupart d’entre elles affirment ne pas utiliser les caractéristiques biométriques propres au visage car cela les ferait souffrir d’une trop mauvaise publicité, due au rejet massif de la reconnaissance faciale dans la société. Pourtant, elles utilisent bien d’autres caractéristiques biométriques (analyse des corps et de leurs mouvements) qui leur permettent de vendre leurs outils de VSA aux municipalités. De plus, nombre de ces entreprises proposent conjointement la VSA et la reconnaissance faciale dans leurs services, c’est le cas par exemple de Atos, Idemia, Thales, Axis, Avigilon ou encore Two-I.
Nous dénonçons depuis longtemps le lien étroit entre toutes les technologies de surveillance biométrique. Si la VSA venait à être légalisée, les promoteurs de la reconnaissance faciale n’auraient plus qu’à expliquer qu’elle est seulement une application particulière de la VSA pour la faire accepter à son tour, comme un prolongement naturel ou logique. En autoriser une, c’est les accepter toutes, il est donc extrêmement important de ne laisser aucune de ces technologies gagner du terrain.
Les stratégies d’acceptation et de légalisation de la surveillance biométrique
Le droit actuel fournit une large protection des données personnelles et particulièrement des données biométriques. Nous l’expliquions dans cet article, avec le RGPD et la directive Police-Justice, la surveillance biométrique est pour l’heure strictement illégale. Les promoteurs de la surveillance biométrique sont au fait de cette illégalité. Pour contourner cet obstacle juridique, ils utilisent plusieurs stratégies pour faire exister ces technologies, les rendre acceptables et, in fine, les légaliser.
Comme ces technologies sont déployées en toute opacité, obtenir des informations sur ces stratégies nous a demandé d’employer divers moyens : demandes d’accès à des documents administratifs (pour les appels d’offre et les procès-verbaux de conseils municipaux par exemple), analyse de la communication des entreprises ou réception d’informations par des lanceurs d’alertes (notamment par notre plateforme de leak sécurisée). Récemment, nous avons aussi obtenu auprès de la CNIL les réponses des entreprises à la consultation qu’elle avait lancée il y a un an sur le sujet, que nous citons et publions ici, tant celles-ci sont l’illustration patente de ces techniques d’acceptabilité1Les autres réponses reçues et non citées dans l’article sont disponibles ici : celles de l’association 810, du lobby AFEP, de la ville de Cagnes-sur-mer, du Cerema (Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement), du CNPEN (Comité national pilote d’éthique du numérique), de Décathlon, du Défenseur des droits, de l’entreprise Digeiz, du délégué à la protection des données du ministère de l’Intérieur, de la Délégation à la protection des données (DPD) de la Ville et de l’Eurométropole de Strasbourg, du GPMSE (Groupement Professionnel des Métiers de la Sécurité Electronique), d’Île-de-France Mobilités, de la ville du Havre, de la ville de Neuilly -Plaisance, du PERIFEM (groupe réunissant les grandes enseignes de distribution, de l’entreprise Pizzorno, l’entreprise Quantaflow, du thinktank Renaissance Numérique, de l’entreprise Samsara, du groupe Transdev, de la Ville de Nice et de l’entreprise Wintics. .
• L’expérimentation : faire croire à la surveillance éphémère
L’expérimentation a été une des premières stratégies mises en œuvre pour confronter les publics à la surveillance biométrique et ainsi les habituer à cette technologie. L’appellation d’« expérimentation » permet de donner un sentiment d’éphémère et de réversibilité de leur mise en place.
Dès 2018, nous avons assisté à une tentative d’installation de portiques de reconnaissance faciale à l’entrée de deux lycées à Nice et à Marseille, sous couvert d’expérimentation. De même, la ville de Nice a expérimenté un système de reconnaissance faciale en 2019 lors de son carnaval, expérimentation dont les résultats n’ont jamais été objectivement communiqués.
Pour justifier la violation du RGPD et de la directive Police-Justice, les arguments consistaient à dire que l’expérience de reconnaissance faciale était « limitée dans le temps » et fondée sur le consentement explicite de volontaires. Cette stratégie se résume à faire exister des projets de surveillance biométrique en les « adoucissant » grâce à l’image expérimentale et permet aux promoteurs de la surveillance biométrique d’ancrer ces technologies sur le territoire, de les rendre normales dans nos environnements. Une fois que ces technologies ont une existence physique, il est beaucoup plus facile de les pérenniser et donc de justifier leurs légalisation.
Un grand nombre d’entreprises poussent cette stratégie dans les réponses à la consultation de la CNIL. Par exemple le lobby de la vidéosurveillance AN2V(l’Association Nationale de la « Vidéoprotection ») plaide pour un « droit à l’expérimentation » quand l’entreprise Deveryware juge que « les tests grandeur nature constituent également une nécessité pour vérifier la robustesse du produit, son efficacité et son efficience ».
On retrouve exactement le même procédé d’acceptabilité dans le projet de loi sur les Jeux olympiques, celui-ci prévoyant une « expérimentation » dans les évènements récréatifs, sportifs et culturels. Le gouvernement peine à masquer les volontés d’installer la VSA dans le quotidien puisque cette « expérimentation » durerait quasiment deux ans !
• La dialectique du progressisme contre les réactionnaires
Les technologies de surveillance biométriques sont fondées sur des algorithmes de « machine learning » dont l’existence est assez récente et qui sont très en vogue, y compris en dehors de l’industrie de la surveillance. Ils incarnent donc la nouveauté, le progrès et un futur soi-disant « inéluctable ». De nombreuses villes, y compris de très petites communes – comme Moirans en Isère – veulent l’adopter pour se donner une image de progrès et de modernité. Couplé à la stratégie d’expérimentation, il est assez facile pour ses promoteurs de présenter les militants s’opposant à la surveillance biométrique comme des réactionnaires souhaitant « revenir en arrière », alors même que ceux-ci ne font que réclamer la suspension de projets illégaux et présentés initialement comme éphémères.
Pour mettre en avant ces bienfaits, les entreprises s’arment d’un discours publicitaire toujours plus valorisant à l’égard de leurs produits en les présentant comme très efficaces, voire « technomagiques », pour résoudre tout type de problème. Ainsi, dans les réponses à la CNIL, un grand nombre d’acteurs présentent la VSA comme ayant des bénéfices « évidents » pour la sécurité et arguent que les refuser serait préjudiciable pour la société. Pourtant l’évidence de ces bénéfices n’est jamais démontrée.
Pour l’Union des Transports publics et Ferroviaires (qui voit dans la VSA un « bien commun », le chargé d’affaires publiques était manifestement très inspiré), « le déploiement de nouveaux systèmes de vidéos augmentées est important : il offre une nouvelle capacité d’anticipation et de réaction des opérateurs de service public non seulement en adéquation avec les réalités de fonctionnement du quotidien en matière de transport de masse, mais aussi, en adéquation avec les risques de notre temps et les attentes de « mieux vivre ensemble » du citoyen-voyageur ».
Pour l’entreprise Idemia (leader du marché de la reconnaissance faciale), l’intérêt de la vidéosurveillance est « indiscutable » car la VSA « permettrait de réduire le nombre d’agents chargés de l’exploitation des flux des caméras (…) au bénéfice d’agents sur le terrain, plus vite (stratégie des feux naissants) et donc plus directement au service des citoyens ». L’entreprise prétend même que les biais algorithmiques – par leur nature supposée quantifiable et maîtrisable – seraient moindres que les biais humains. Cela l’amène à rêver de « salles vidéo aux écrans éteints, et donc une liberté d’aller et de venir retrouvée » car « chaque caméra aura alors l’efficacité d’une patrouille expérimentée, sans avoir les dérives potentielles [des biais humains] ».
Ce discours péremptoire et mensonger de l’industrie – la VSA aurait un « intérêt indiscutable », serait du « bien commun », permettrait de « mieux vivre ensemble », etc. – ne s’accompagne d’aucune étude, d’aucune preuve, il s’agit simplement d’un discours publicitaire qui se retrouve pourtant bien souvent repris sans être questionné par des représentants politiques voulant démontrer qu’ils agissent pour la « sécurité ».
• La hiérarchisation : accabler une technologie pour faire accepter les autres
Une autre stratégie utilisée par les promoteurs de la surveillance biométrique est de mettre en concurrence la capacité d’atteinte aux libertés des différents outils de surveillance biométrique pour en présenter certaines comme inoffensives. Tout l’enjeu de cette stratégie est de hiérarchiser ces technologies – pourtant toutes considérées comme illégales par le RGPD et la directive Police-Justice – afin de jeter l’opprobre sur certaines et ainsi maintenir les autres dans l’opacité pour en cacher la gravité. Les entreprises de l’industrie de la surveillance biométrique entendent par cette rhétorique contribuer à dessiner la ligne d’un soi-disant « garde-fou » tout en se donnant l’image de se préoccuper des libertés alors qu’elles sont en réalité en train de les piétiner.
La reconnaissance faciale est alors un outil stratégique très utile. Bien connue et depuis longtemps car très représentée dans la fiction dystopique, elle évoque instantanément la surveillance de masse : elle est dans l’imaginaire collectif la « ligne rouge » à ne pas franchir. Conscientes de cela, les entreprises tentent de créer une différenciation entre la reconnaissance faciale, dangereuse, et les autres technologies de surveillance biométrique – l’ASA et la VSA – qui seraient beaucoup moins graves en comparaison, et donc acceptables.
Le choix des mots utilisés pour nommer et décrire ces technologies représente un enjeu stratégique majeur pour leur acceptabilité par la population. Chaque entreprise développe donc tout un discours marketing mélioratif et dédramatisant visant a éclipser le caractère biométrique de leur surveillance et à le présenter comme moindre par rapports à d’autres technologies plus graves. Dans les réponses envoyées par les entreprises à la CNIL lors de sa consultation sur la VSA, on retrouve beaucoup de ces éléments de langage. Par exemple, l’entreprise francilienne Alyce affirme « qu’il ne peut y avoir de postulat de dangerosité » concernant la VSA, niant ainsi tous les dangers de l’usage des données biométriques pour faire de la surveillance. Elle reconnaît que beaucoup des systèmes de VSA présentent « un fort risque d’intrusion » mais tente de les hiérarchiser en précisant que « tous ne présenteront pas un niveau de risque fort, notamment selon le caractère identifiant des images captées, le niveau d’identification permise par la captation », et cite comme exemple les dispositifs en différé ou bien ceux sur les axes routiers « car notamment insusceptible de révéler des données sensibles ». Rappelons pourtant que la surveillance des axes routiers et notamment la LAPI (le type de VSA qui permet la lecture automatisée des plaques d’immatriculation) fournit un identifiant unique rattachable à l’identité civile du conducteur du véhicule.
De la même manière, l’entreprise Veesion (qui fait de la détection de vol) minimise sa technologie en la comparant à d’autres dans sa présentation : « La technologie de Veesion se fonde uniquement sur un traitement algorithmique de la gestuelle et des attitudes. L’entreprise n’utilise donc ni la reconnaissance faciale, ni le suivi de client, ni l’enregistrement d’identité ».
Ces stratégies se révèlent souvent assez efficaces. Le choix de faire de la reconnaissance faciale un épouvantail attirant toute la lumière, alors que c’est surtout la VSA qui est au cœur du texte de la loi Olympique, a déteint jusqu’au gouvernement, qui a précisé au paragraphe III de l’article 7 que l’expérimentation n’incluait pas la reconnaissance faciale. La présidente de la CNIL a également foncé dans le piège en soutenant que l’exclusion de la reconnaissance faciale était une garantie.
L’urgence pour l’heure n’est pas de parler de la reconnaissance faciale mais de visibiliser les conséquences de la VSA, au cœur de l’article 7 de la loi : la reconnaissance faciale est massivement rejetée par la population car ses dangers sont connus, c’est beaucoup moins le cas de la VSA qui comporte pourtant des dangers similaires. Il est essentiel de faire connaître cette technologie et de manifester notre opposition. N’hésitez pas à appeler les député·es (on vous explique comment faire ici) pour leur faire prendre conscience de la gravité du texte qu’ils sont en train de voter.
• L’opportunisme : saisir chaque événement ou actualité pour promouvoir la surveillance biométrique
Conscients qu’avec un espace de débat ouvert sur le temps long, les mesures d’augmentation de la surveillance seraient fortement rejetées par la population, les promoteurs de la surveillance biométrique se servent de toutes les occasions possibles leur permettant de précipiter sa légalisation. C’est une stratégie à laquelle nous sommes fréquemment confrontés : l’épidémie de covid-19 a par exemple été prétexte à l’usage de drones, à la mise en œuvre du suivi de nos déplacements et à une accélération de la collecte des données de santé.
L’événement ici instrumentalisé, les Jeux olympiques, a déjà servi par le passé à l’extension de la surveillance. Par exemple, pour les JO de Tokyo, le gouvernement japonais a fait passer une loi « anti-conspiration » voulue de longue date pour mater les groupes militants et syndicaux, et fortement critiquée notamment par les Nations Unies au regard des atteintes aux libertés qu’elle créait et aux pouvoirs de surveillance qu’elle conférait à l’État. Plus récemment, le Qatar a mis en place un grand système de surveillance des personnes assistant à la Coupe du monde de football en 2022.
L’avantage, en terme d’acceptabilité, de se servir d’un événement exceptionnel comme les Jeux olympiques est de venir renforcer le sentiment d’éphémère et d’expérimentation. Dans les réponses à la CNIL, on retrouve l’échéance de la Coupe du monde de Rugby 2023 et des Jeux de Paris 2024 dans quasiment toutes les bouches, comme par exemple celle de Deveryware (page 4), la RATP (page 13) ou encore la SNCF (page 3).
Autre opportunisme que l’on croise très fréquemment dans la technopolice : celui des débouchés économiques. Pour le secteur, le développement des technologies créerait de l’emploi et favoriserait la croissance économique du marché de la surveillance. Aussi, celui-ci doit exister en France pour se positionner face à la concurrence internationale, qui apparaît inéluctable.
Ainsi, l’ancien député Jean-Michel Mis clame la « souveraineté » du marché et pour le réseau Alliance pour la Confiance Numérique (représentant un certain nombre d’entreprises de vidéosurveillance), la CNIL doit « favoriser l’émergence de leaders français de l’intelligence artificielle de confiance et non pas aboutir à des règles ou des situations qui pourraient entraver leurs développements à la faveur d’acteurs non souverains ». Pour Deveryware, « les industriels ont pour mission de créer de la richesse pour la nation avec notamment l’objectif d’exporter leurs solutions » quand Veesion juge qu’un droit d’opposition trop contraignant exposerait « les entreprises du secteur à être considérées comme illégales et donc à arrêter l’ensemble de leurs activités. Cela conduirait à menacer, de manière immédiate, 500 emplois directs en France. »
De nouveau, cette stratégie parvient à ses fins puisqu’elle a été reprise par le ministre de l’Intérieur lui-même pendant les débats sur le projet de loi au Sénat le mois dernier : « Lorsqu’un dispositif est développé avec un cadre français, nous pouvons parler aux industriels, gérer en partie leurs actions, les réguler, regarder leur capital. Soyons fiers des entreprises françaises ! »
• L’euphémisation : mettre en avant les usages les moins inquiétants
Les algorithmes utilisés dans la surveillance biométrique ont des applications bien plus larges que l’analyse des seuls corps humains. Si l’on prend l’exemple de la VSA, les algorithmes de « computer vision » peuvent très bien être utilisés sur des images ne contenant pas d’activité d’humaine, et n’utilisant donc pas de données biométriques, comme par exemple pour détecter des produits défectueux au bout d’une chaîne de fabrication.
Une stratégie particulièrement mise en avant par les promoteurs de la surveillance biométrique est alors de la rapprocher d’autres usages qui semblent beaucoup moins problématiques. Ils mettent généralement en avant les situations où l’activité humaine est la moins perceptible : repérer des ordures déposées sur des trottoirs ou des bagages abandonnés par exemple. Étant donné que l’objet de la détection n’est pas humain, il est facile de prétendre qu’il s’agit là d’une détection similaire à la détection d’anomalie dans une chaîne de production et de faire fi du fait que, pour aboutir à cette détection, l’algorithme sonde continuellement les flux vidéo de la rue, ou de l’espace public où se retrouve déposé l’objet. Avec cette technique, les entreprises se gardent bien de faire comprendre que, même pour repérer un objet, les humains sont analysés en permanence.
Ainsi, pour justifier le bon usage de la VSA, l’AN2V mentionne des traitements ne « disposant d’aucun algorithme permettant de détecter des personnes : détection d’animal errant, mesure des traversées d’animaux, ouverture automatique d’une borne sur une rue piétonne sur détection d’un véhicule d’urgence, affichage d’un message ou commande d’un dispositif (feu rouge, borne) sur mesure de vitesse, etc. ». Pour la RATP, « l’amélioration de la puissance d’analyse d’un système de vidéoprotection ne dénature ni ne change la portée de la vidéo [exploitée] depuis de nombreuses années » car dans tous les cas, « que la détection soit d’origine humaine ou algorithmique », l’action des service de police ou de la RATP, serait « identique ».
Autre exemple, quand le maire de Nice laissait croire l’année dernière que le système de VSA qu’il souhaitait mettre en place ne traitait que des données « générales » et non biométriques (ce qui est faux), afin de minimiser ce que faisait réellement l’algorithme.
Les entreprises ont aussi recours à des jeux rhétoriques et des périphrases. La ville d’Orléans a par exemple
tenté de faire passer l’audiosurveillance algorithmique implantée dans ses rues par la société Sensivic pour un simple « détecteur de vibration de l’air ». Cette technologie, en réalité basée sur la pose de microphones couplés à un logiciel d’analyse algorithmique, fonctionne comme la VSA et la reconnaissance faciale sur de l’analyse de l’activité humaine afin de repérer des cris ou divers bruits. La ville d’Orléans tentait par cette pirouette de faire oublier que cette surveillance était basée sur de l’analyse de données personnelles, et comptait ainsi échapper au RGPD. De la même manière, l’AN2V mentionne des « détections d’anormalité sonore » ou des « signatures sonores », tant de mots techniques destinés à camoufler que l’on parle de la mise sur écoute des personnes.
• La neutralisation de la technologie
Une autre rhétorique que l’on a beaucoup rencontrée à La Quadrature est, lorsque l’on dénonce l’usage d’une technologie renforçant la surveillance, de s’entendre rétorquer que cet outil aurait un soi-disant caractère neutre et impartial. Les technologies sont alors présentées comme de simples aides techniques, des logiciels sans conséquence.
Concernant la VSA, la stratégie consiste alors à mettre en avant la décision finale de l’humain et à présenter le logiciel comme une simple « aide à la décision » ayant une fonctionnalité de « levée de doute ». Les entreprises insistent alors sur le fait que la véritable décision serait, elle, prise par l’humain au bout de la chaîne, et que la technologie ne serait qu’un outil neutre n’orientant le résultat de la surveillance d’aucune manière.
Par exemple, pour l’ACN, « cette technologie peut aider à la détection de situations pouvant conduire à une infraction, mais ne prend pas, à date, de décision finale automatisée. C’est une simple aide à la décision qui laisse la liberté à l’homme de contrôler/confirmer/infirmer ». Même chose chez l’Agora (un club de directeurs de la sécurité), « ces signalements sont alors validés ou non par une action humaine. La technologie utilisée dans ce cadre intervient donc en amont, en tant que support de l’action humaine » ou l’AN2V : « Seul le regard et l’interprétation humaine envisage ou non une action ou une procédure. On est là dans un cas d’aide à la décision ».
En réalité, ce travail de « détection de situations » réalisé par le logiciel présuppose d’avoir choisi en amont, d’une part, les événements pertinents à relever et, d’autre part, les critères pertinents pour détecter et retrouver ces évènements sur une image. Ainsi, de nombreuses décisions impactantes et révélant des choix politiques et moraux surviennent au cours du processus de construction de ces algorithmes. En effet, de façon identiques à ce que nous dénoncions pour la CAF, les algorithmes fonctionnent en traduisant et imitant des décisions et subjectivités humaines, contenues jusqu’au sein même des jeux de données qui sont fournis aux algorithmes pour l’apprentissage. Rien n’est neutre dans la VSA.
Conclusion
Au final, toutes ces stratégies ont une conséquence : dépolitiser la surveillance, en faire un objet banal et inéluctable, masquer sa véritable nature. On aimerait en rire mais que dire lorsque l’on voit que certaines entreprises comme Veesion ou l’ACN regrettent le caractère « anxiogène » de l’analyse de la CNIL quand elle évoque la versatilité des technologies ou le « changement de nature et de portée » des caméras ? Ou quand la SNCF exige de cette même CNIL qu’elle apporte preuves et études lorsqu’elle ne fait que relever « la dangerosité des technologies de [VSA] » et évoque le « sentiment de surveillance généralisée » ?
Ce déni de ce que représente la surveillance, de ce qu’elle a causé dans l’Histoire, des raisons pour lesquelles on a cherché à la limiter il y a cinquante ans, est vertigineux. La surveillance a été et sera toujours un instrument de pouvoir pour les États. Nier que la collecte, l’organisation et la rationalisation d’informations sur une population est source de contrôle pour qui les détiennent est une manœuvre non seulement cynique mais aussi dangereuse et révélatrice de la perte de repères politiques d’un grand nombre d’acteurs. Car on pourrait ne pas être surpris que ces pratiques éhontées viennent d’entreprises capitalistiques qui n’ont d’autre but que de faire du profit (et encore). Mais que dire lorsque l’on retrouve l’ensemble de ces stratégies et discours des industriels dans la bouche des ministres et des élus censés savoir que dans un État de droit qui se respecte, tout pouvoir étatique doit être contrôlé et limité ?
Nous nous battons depuis des années contre la surveillance abusive et le déploiement du contrôle de masse dans l’espace public. Aujourd’hui nous observons de façon inédite d’un côté la prégnance d’un marché tentaculaire de la sécurité, qui voit dans toute offre commerciale une occasion bonne à prendre, et de l’autre coté des gouvernants qui y répondent sans sourciller même si la demande n’existe pas et que les dangers sont réels. Ces manœuvres doivent être dénoncées. Car à mesure qu’elles s’installent comme des évidences, elles effacent de notre mémoire collective tous les exemples passés et présents de dérives du pouvoir étatique, de surveillance et de répression des populations. Elles participent à saper l’héritage des luttes démocratiques qui nous permettent de lutter contre les abus de pouvoirs et l’autoritarisme.
";s:7:"dateiso";s:15:"20230223_121130";}s:15:"20230222_130145";a:7:{s:5:"title";s:92:"Pétition des élu·es français·es contre la vidéosurveillance algorithmique de la loi JO";s:4:"link";s:137:"https://www.laquadrature.net/2023/02/22/petition-des-elu%c2%b7es-francais%c2%b7es-contre-la-videosurveillance-algorithmique-de-la-loi-jo/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20097";s:7:"pubDate";s:31:"Wed, 22 Feb 2023 12:01:45 +0000";s:11:"description";s:279:"Cette pétition s’adresse aux élu·es (conseillers municipaux, départementaux, régionaux, députés, sénateurs). Si possible, merci de nous indiquer votre signature depuis votre adresse mail officielle, afin de nous assurer qu’il s’agit bien de vous en écrivant…";s:7:"content";s:37118:"
Le Parlement doit rejeter l’article 7 de la loi Jeux olympiques 2024 !
Cette pétition s’adresse aux élu·es (conseillers municipaux, départementaux, régionaux, députés, sénateurs). Si possible, merci de nous indiquer votre signature depuis votre adresse mail officielle, afin de nous assurer qu’il s’agit bien de vous en écrivant à petition@technopolice.fr (merci de préciser votre mandat — par exemple « conseillère municipale de Paris (75) — et, le cas échéant, le parti auquel vous êtes rattaché·e). Nous refusons toute signature provenant de l’extrême-droite.
À travers l’article 7 du projet de loi relatif aux Jeux Olympiques 2024, le gouvernement entend légaliser la vidéosurveillance algorithmique (VSA). Il s’agit ainsi de satisfaire aux demandes des industriels et de certains responsables du ministère de l’Intérieur pour permettre, via une simple autorisation préfectorale, le couplage de l’Intelligence artificielle aux caméras de vidéosurveillance disposées dans les lieux publics ou placées sur des drones. Prenant pour prétexte les Jeux olympiques organisés à l’été 2024, l’article 7 autoriserait ces technologies de surveillance massive pour toutes les manifestations « sportives, culturelles ou récréatives », allant des matchs de Ligue 1 aux marchés de Noël en passant par les festivals de musique. Le tout au nom d’une prétendue expérimentation de deux ans devant s’achever en juin 2025, imposant à toutes les personnes qui assisteront à ces événements de devenir à la fois cobayes et victimes de ces algorithmes sécuritaires.
Qu’est-ce au juste que la VSA ? Il s’agit d’un type de logiciels consistant à automatiser l’analyse des flux de vidéosurveillance pour déclencher des alertes à destination des forces de police ou de sécurité dès lors que des « comportements suspects » sont repérés. Il peut par exemple s’agir du fait de rester statique dans l’espace public, de marcher à contre-sens de la foule, de se regrouper à plusieurs dans la rue ou encore d’avoir le visage couvert. Ces logiciels peuvent aussi suivre automatiquement le parcours d’une personne dans un territoire à l’aide d’attributs biométriques tels que la taille, le fait d’être perçu comme homme ou femme, ou encore la couleur de ses vêtements. Demain, il suffira de croiser ces technologies avec divers fichiers pour pratiquer massivement l’identification par reconnaissance faciale — une fonctionnalité que proposent déjà de nombreuses startups et industriels positionnés sur ce marché, à l’image du logiciel Briefcam, dont les logiciels sont déployés dans plus de 200 communes françaises.
Si le gouvernement instrumentalise les Jeux olympiques en prétendant « expérimenter » la VSA, cela fait en réalité des années que des expérimentations ont lieu sur le territoire français, et ce en toute illégalité comme l’a lui-même reconnu le ministre de l’Intérieur. L’État a lui-même directement financé nombre de ces déploiements au travers du Fonds interministériel de prévention de la délinquance, de l’Agence nationale de la recherche ou du programme d’expérimentation lancé par le ministère de l’Intérieur pour Paris 2024 (lequel a par exemple conduit à tester la reconnaissance faciale lors du tournoi de Roland-Garros en 2021).
Quant aux prétendues garanties apportées par le gouvernement aux libertés publiques dans le cadre de ce projet de loi, elles apparaissent tout-à-fait dérisoires au regard des enjeux soulevés par la VSA. Contrairement à ce que prétendent ses promoteurs, ces technologies ne sont pas de simples outils d’« aide à la décision » : l’adoption de l’article 7 du projet de loi Jeux olympiques s’assimilerait à un véritable changement d’échelle et de nature dans la surveillance de la population, installant dans nos sociétés démocratiques des formes de contrôle social qui sont aujourd’hui l’apanage de pays autoritaires comme la Chine. C’est ce qu’explique la CNIL lorsqu’elle écrit que l’article 7 « ne constitue pas une simple évolution technologique de dispositifs vidéo, mais une modification de leur nature », ajoutant qu’un tel déploiement, « même expérimental, (…) constitue un tournant » . La Défenseure des droits met également en garde1 Réponse de la Défenseure des droits à la consultation de la CNIL contre la VSA : selon elle, « le changement de paradigme » induit par le passage des « caméras de vidéoprotection « classiques » vers des dispositifs aux capacités de détection et d’analyse algorithmiques poussées est extrêmement préoccupant ». Elle insiste sur « les risques considérables que représentent les technologies biométriques d’évaluation pour le respect [des] droits »
Il est aussi particulièrement choquant de constater que, de l’aveu même de ses promoteurs, ce basculement vers la surveillance biométrique de l’espace public est motivé par des considérations économiques. Sous couvert d’expérimentation, la loi prépare la banalisation de ces technologies tout en permettant aux acteurs privés de peaufiner leur algorithmes avant leur généralisation. Lorsqu’on sait que l’achat d’une seule caméra coûte à une collectivité entre 25 et 40 000€ (sans la maintenance ni les logiciels d’analyse), on comprend aisément que la vidéosurveillance et son pendant algorithmique constituent une immense manne financière pour les industriels du secteur : 1,6 milliards d’euros de chiffre d’affaire sur l’année 20202Pixel 2022, page 96 consultable ici : data technopolice rien qu’en France. Au niveau international, le marché devrait plus que doubler d’ici 2030 pour atteindre près de 110 milliards de dollars. Faisant fi du risque d’erreurs et d’abus en tous genres, certains promoteurs de la VSA expliquent dores et déjà qu’après la détection de « comportements suspects », les pouvoirs publics pourront amortir ces technologies en automatisant la vidéoverbalisation. Il y a donc fort à parier qu’une fois ces technologies achetées au prix fort, une fois des dizaines de milliers d’agent·es formé·es à leur utilisation, il sera pratiquement impossible de faire marche arrière.
Conscient·es du risque que fait peser la vidéosurveillance algorithmique sur la vie démocratique de nos sociétés, nombre d’élu·es de par le monde ont décidé d’interdire son usage. En décembre 2022, suite à l’adoption d’une résolution du Conseil municipal, la ville de Montpellier est devenue la première commune française à interdire la VSA. Elle a ainsi rejoint la liste des municipalités en Europe et aux États-Unis qui ont proscrit une telle surveillance biométrique sur leur territoire. En réponse à une pétition signée par des dizaines de milliers de citoyens à travers le continent, le Parlement européen discute lui aussi d’une interdiction de ces technologies.
Nous, élu·es de la République, refusons à notre tour le recours à la vidéosurveillance automatisée et le projet de société de surveillance qu’elle incarne. C’est pourquoi nous appelons chaque parlementaire à voter en conscience contre l’article 7 de la loi relative aux Jeux olympiques.
Signataires
Abomangoli Nadège, députée de la 10e circonscription de Seine-Saint-Denis, LFI/NUPES
Accarion Ombeline, vice-présidente handicap du département de Loire Atlantique, Pays de la Loire, EELV
Coulomme Jean-François, député de la Savoie, LFI-NUPES
Courtay Murielle, conseillère municipale et d’agglomération à Cholet, Pays de la Loire, EELV
Couturier Catherine, députée de la Creuse, LFI/NUPES
Davi Hendrik, député de la 5ème circonscription des Bouches-du-Rhône, LFI-NUPES
Deglise Cédric, adjoint au maire délégué à la transition écologique, à la démocratie locale et aux associations à Chasse-sur-Rhône, Auvergne-Rhône-Alpes, LFI
Dageville Bénédicte, adjointe au maire du 11e arrondissement de Paris, PCF
Dannaud Charles, conseiller municipal de Forcalquier (Alpes-de-Haute-Provence), Forcalquier en commun
Déjean Pierre, conseiller municipal à Montigny-le-Bretonneux, ïle-de-France, LFI
Duthoit Rémi, conseiller municipal et communautaire à Forcalquier, liste citoyenne
Etienne Martine, Meurthe-et-Moselle, LFI-NUPES
Erodi Karen, députée du Tarn, LFI-NUPES
Etoundi Zita, conseillère d’arrondissement (8e) Marseille, sans étiquette
Fardoux Clémentine, conseillère municipale à Aubagne, GES/LFI/NUPES
Fenasse Delphine, maire adjointe à l’Enfance, à l’activité périscolaire et au Programme de réussite éducative à Fontenay-sous-bois, LFI/Parti de Gauche
Fernandes Emmanuel, député du Bas-Rhin, LFI-NUPES
Ferrer Sylvie, députée des Hautes-Pyrénées, LFI-NUPES
Fiat Caroline, députée de Meurthe-et-Moselle, LFI-NUPES
Fillol Étienne, adjoint au maire d’Alfortville et conseiller territorial GPSEA, Île-de-France, Génération.s
Fischer Karine, conseillère régionale du Centre-Val-de-Loire, LFI,
Gaillard Perceval, député de la Réunion, LFI-NUPES
Galera Richard, conseiller municipal de Montreuil et vice-président Est-Ensemble, Île-de-France, LFI
Garrido Raquel, députée de la Seine-Saint-Denis, LFI-NUPES
Gaspaillard Damien, conseiller départemental des Côtes d’Armor, EELV
Genty Julien, Conseiller municipal à Esbly, Île-de-France, LFI/NUPES
Ghedjati Myriam, conseillère municipale, Port Saint Louis du Rhône, LFI
Girard Cyril, conseiller municipal, conseiller communautaire à Arles, groupe Changeons d’avenir
Girardot Moitié Chloé, vice-présidente du département de la Loire-Atlantique, Pays de la Loire, EELV
Gleizes Jérôme, conseiller de Paris 20e arrondissement, EELV
Gries Aurélie, adjointe du 7e arrondissement de Lyon, LFI
Grillon-Colledani Marie-Hélène, conseillère Municipale à Duttlenheim, Bas-Rhin, sans étiquette
Hoffsess Marc, adjoint à la maire de Strasbourg, Ecologiste
Huguin Angélique, conseillère municipale à Vadelaincourt, Grand Est, sans étiquette
Hugon Christophe, conseiller municipal Mairie de Marseille Délégué à la transparence, à lʼopen data municipal et au système dʼinformation, au numérique de la ville, au numérique responsable et à la transition numérique, parti pirate
Jamet Delphine, adjointe au maire en charge de l’administration générale, de l’évaluation des politiques publiques et de la stratégie de la donnée à Bordeaux, Aquitaine, EELV
Janssens Jonathan, conseiller municipal dans le groupe Tourcoing Vert Demain, Haut-de-France, sans étiquettes
Jourdan Maxime, conseiller municipal délégué de Villeurbanne, Génération.s
Joyeux Benjamin, conseiller régional de Haute-Savoie et membre des commissions santé, sécurité et relations internationales, Auvergne-Rhône-Alpes, Les Écologistes
Juquin Sylvie, conseillère métropolitaine pour la ville de Lormont à la métropole de Bordeaux, Écologiste
Keke Rachel, députée du Val-de-Marne, LFI-NUPES
Kerbrat Andy, député de Loire-Atlantique, 2e circonscription, commissaire aux lois, délégation aux collectivités territoriales et à la décentralisation, LFI/NUPES
Klingler Danièle, élue municipale et communautaire à Forcalquier, PACA, Liste citoyenne Forcalquier en commun
Labertrandie Lydia, conseillère Municipale à Cesson, Île-de-France, EELV
Lachaud Bastien, député de la Seine-Saint-Denis, LFI-NUPES
Lafay Franck, adjoint Communication & Services Publics à Saint Sernin du Bois en Saône-et-Loire
Lagarde Catherine, conseillère métropolitaine de Villeurbanne, membre de la commission éducation, culture, patrimoine et sport, Écologiste
Lahmer Annie, conseillère régionale écologiste d’Île de France, Île-de-France, Écologiste
Laisney Maxime, député de Seine-et-Marne, LFI-NUPES
Léaument Antoine, député de l’Essone, LFI-NUPES
Leboucher Élise, députée de la 4ème circonscription de la Sarthe, LFI/NUPES
Lecerf Meunier Harmonie, adjointe au maire de Bordeaux en charge de l’accès aux droits et des solidarités Bordeaux, EELV
Leduc Charlotte, députée de Moselle, LFI-NUPES
Le Dily Michèle, adjointe à la mairie du 8e arrondissement de Lyon, Lyon en commun
Lefebvre Stéphane, conseiller municipal délégué à la mobilité et aux différents modes de déplacement Cugnaux, Occitanie, NUPES
Le Gall Arnaud, député du Val d’Oise, LFI-NUPES
Legavre Jérôme, député de Seine-Saint-Denis, LFI-NUPES
Legrain Sarah, députée de Paris 16ème, LFI-NUPES
Lemaire Mirabelle, conseillère municipale LFI à Le Plessis Trévise, Île-de-France, LFI
Lepage Geneviève, conseillère municipale d’opposition à Villeneuve-lès-Avignon, LFI
Lepvraud Murielle, députée des Cotes-d’Armor, LFI-NUPES
Liévin Mathilde, conseillère municipale à La Madeleine, Liste citoyenne écologique et solidaire
Loe Mie Brice, conseiller municipal à Puteaux, EELV
Loiseau Franck, conseiller municipal à Cholet, Pays de la Loire, EELV
Lynseele Stéphanie, conseillère municipale à Queue-en-Brie, Île-de-France, LFI
Maes Bertrand, adjoint au maire de Lyon délégué au numérique, Génération Écologie
Maillebouis Fabienne, conseillère municipale à Rochefort-en-Yvelines, Île-de-France, sans étiquette
Mailler Sylvain, conseiller municipal à Chevilly-Larue, Île-de-France, Parti de Gauche
Majerowicz Sébastien, conseiller municipal de la commune de L’Arbresle dans le Rhône, LFI,
Malaisé Céline, conseillère régionale d’Île-de-France, présidente de la Gauche communiste, écologiste et citoyenne, Île-de-France, PCF
Marchand Jérôme, conseiller d’arrondissement Paris 14e, EELV
Marcel Lisa, élue municipale Forcalquier, liste citoyenne
Mariaud Jean, conseiller municipal d’opposition à Rochefort, EELV
Marque Sébastien, conseiller délégué à la maire du 12ème arrondissement de Paris, PCF
Martin Elisa, députée de la 3e circonscription de l’Isère, LFI/NUPES
Martin Pascale, députée de Dordogne, LFI-NUPEs
Martin Nicolas, vice-président de Nantes Métropole en charge des mobilités douces et conseiller municipal de Nantes en charge de la restauration scolaire, EELV
Martinet William, député des Yvelines, LFI-NUPES
Marszalek Antoine, élu municipal à Villeneuve-d’Ascq, LFI
Neveu Bernard, élu municipal et communautaire de la commune à Castanet-Tolosan, Occitanie, LFI
Nicolas Julie, conseillère municipale à Lille, EELV
Nilor Jean-Philippe, député de Martinique, LFI-NUPES
Normand Xavier, maire de Castanet-Tolosan, Occitanie, EELV
Obono Danièle, députée de Paris 17ème, LFI-NUPES
Ouldji Soraya, adjointe à la ville de Strasbourg petite enfance, politique familiale, restauration scolaire, Écologiste
Oziol Nathalie, députée de l’Hérault, LFI-NUPES
Pahun Louise, conseillère départementale du canton de Nantes 4, vice-présidente Sports solidaires, responsables, activités de pleine nature, Pays de la Loire, Groupe écologiste
Panot Mathilde, députée du Val-de-Marne, LFI-NUPES
Perin Laurent, conseiller départemental du Nord, Génération.s
Pfeiffer Stéphane, 2e adjoint au maire de Bordeaux, EELV
Picard Yves, adjoint Vie locale, associative et démocratique de la mairie de Saint-Sulpice-la-Forêt en Bretagne, sans étiquette
Pilato René, député de Charente, LFI-NUPES
Piquemal François, député de Haute-Garonne, LFI-NUPES
Pochon Marie, députée de la Drôme, Auvergne-Rhône-Alpes, Écologiste/NUPES
Poix Évelyne, conseillère municipale de Vellerot-lès-Vercel dans le Doubs, EELV
Portes Thomas, député de la 3e circonscription de Seine-Saint-Denis, LFI/NUPES
Primault Lionel, adjoint au maire, Les Lilas, Seine-Saint-Denis, EELV
Primet Raphaelle, conseillère de Paris 20e, groupe communiste et citoyen
Rabardel Évelyne, conseillère départementale du Val-de-Marne, PCF
Rabeau Roland, conseiller municipal de Clamart, Île-de-France, EELV
Raifaud Sylvain, conseiller municipal et métropolitain de Paris 10e, co-président du groupe Écologiste Social et Citoyen
Ramdane Abdelkarim, adjoint à la maire de Strasbourg, EELV
Raux Jean-Claude, député écologiste de Loire-Atlantique, membre de la commission Affaires culturelles et éducation, Pays de la Loire, Ecologiste/NUPES
Ratenon Jean-Hugues, député de la Réunion, LFI-NUPES
Regnaud Mathilde, conseillère municipale et communautaire de Belfort, ainsi que suppléante du député (LFI-Nupes) Florian Chauche, NUPES
Regol Sandra, députée du Bas-Rhin, cheffe de file du groupe écologiste du projet de loi Jeux Olympiques et Paralympiques, Grand Est, EELV
Rémy-Leleu Raphaëlle, conseillère de Paris, EELV
Revel Ivan, conseiller municipal, Lyon, EELV
Reynaud Manu, adjoint au maire délégué à la ville apaisée, respirable et numérique, conseiller métropolitain en charge du numérique et président du groupe des élu·es Choisir l’écologie à Montpellier, EELV
Rigard Sophie, conseillère municipale à Saint Denis, sans étiquette
Rispal Yoann, conseiller municipal délégué à Fontenay-sous-Bois, Île-de-France, Gauche Communiste Écologiste et Citoyenne
Toutain Frédric, conseiller municipal à Nonant, Normandie, sans étiquette
Trichet-Allaire Sarah, conseillère municipale de Saint-Nazaire, Pays de la Loire, EELV
Troadec Luce, conseillère municipale à Valenciennes, LFI
Trouvé Aurélie, députée de Seine-Saint-Denis, LFI-NUPES
Vailhé David-Marie, conseiller municipal de la commune de Le Coteau, dans la Loire
Vannier Paul, député de la 5e circonscription du Val-d’Oise, LFI/NUPES
Van Thienen Manuel, conseiller municipal à Lafarre, Ardèche, sans étiquette
Vialard Louise, conseillère métropolitaine déléguée aux mutations économiques, élue de quartier Île de Nantes et conseillère municipale en charge du numérique responsable, e-citoyenneté et de l’open-data à Nantes, Écologiste
Vigignol Yannick, conseiller municipal délégué à l’Open data et à la vie associative à Clermont-Ferrand, EELV
Viguer Simon, adjoint au maire chargé des finances, des affaires juridiques et des marchés publics à Castanet-Tolosan, Occitanie, Parti Socialiste
Vince Jacques, conseiller municipal délégué à Villeurbanne, Les écologistes
";s:7:"dateiso";s:15:"20230222_130145";}s:15:"20230213_135128";a:7:{s:5:"title";s:66:"La Quadrature lance sa campagne de mobilisation contre la loi J.O.";s:4:"link";s:106:"https://www.laquadrature.net/2023/02/13/la-quadrature-lance-sa-campagne-de-mobilisation-contre-la-loi-j-o/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20033";s:7:"pubDate";s:31:"Mon, 13 Feb 2023 12:51:28 +0000";s:11:"description";s:253:"Aujourd’hui, La Quadrature lance une campagne contre l’article 7 de la loi JO 2024 et la vidéosurveillance algorithmique (VSA) ! Déjà voté par le Sénat, ce texte utilise les Jeux olympiques comme prétexte pour légaliser la…";s:7:"content";s:3912:"
Aujourd’hui, La Quadrature lance une campagne contre l’article 7 de la loi JO 2024 et la vidéosurveillance algorithmique (VSA) ! Déjà voté par le Sénat, ce texte utilise les Jeux olympiques comme prétexte pour légaliser la VSA et faire accepter la surveillance biométrique en France. Il arrive à l’Assemblée nationale dans quelques semaines et nous allons avoir besoin de vous pour le combattre et faire rejeter cet article !
Voulu de longue date par le gouvernement, et fortement poussé par la police et le marché grandissant de la sécurité privée, le texte vise à donner une base légale à une technologie déjà présente dans les villes de France. Il ne s’agit pas d’une simple évolution technique mais d’un véritable changement de paradigme : à travers des algorithmes couplés aux caméras de surveillance, ces logiciels détectent, analysent et classent nos corps et comportements dans l’espace public. Le projet derrière ? Traquer les comportements soi-disant « suspects » et éradiquer de la rue des actions anodines mais perçues par l’État comme nuisibles ou anormales. En effet, ces algorithmes peuvent par exemple repérer le fait de rester statique dans l’espace public, de marcher à contre-sens de la foule, de se regrouper à plusieurs dans la rue ou encore d’avoir le visage couvert.
Ces outils de surveillance biométrique sont intrinsèquement dangereux et ne peuvent être contenus par aucun garde-fou, qu’il soit légal ou technique. Les accepter c’est faire sauter les derniers remparts qui nous préservent d’une société de surveillance totale. Seuls le rejet et l’interdiction de la VSA doivent être envisagés. C’est pour cela que nous lançons une campagne de mobilisation dès aujourd’hui afin de lutter ensemble contre la surveillance biométrique.
Retrouvez ici la page de campagne. Nous vous y proposons plusieurs moyens d’actions pour les prochaines semaines :
Appeler sans relâche les député·es pour les convaincre de voter contre l’article 7 et faire pression sur la majorité présidentielle et les élu·es qui pourraient changer le cours du vote. Pour les convaincre, nous avons préparé quelques arguments phares que vous pouvez sélectionner, utiliser, remanier à votre sauce lorsque vous appelez les parlementaires.
Leur envoyer des mails, lettres ou tout autre moyen de leur faire parvenir votre avis sur cet article 7.
Organiser des réunions publiques pour se mobiliser contre la VSA et cet article 7. Nous publierons très prochainement des tracts, de l’affichage ainsi que des outils pour interpeller les élu·es de votre ville.
Lire les articles et analyses et en parler autour de vous et sur les réseaux sociaux. D’ailleurs, restez à l’affût, on va certainement organiser une mobilisation au moment du vote.
Enfin, La Quadrature a toujours besoin de soutien financier, si vous avez les moyens, n’hésitez pas à nous faire un don ici
Luttons ensemble pour repousser l’article 7 et la surveillance totale !
";s:7:"dateiso";s:15:"20230213_135128";}s:15:"20230213_124808";a:7:{s:5:"title";s:51:"Loi J.O. : refusons la surveillance biométrique ";s:4:"link";s:53:"https://www.laquadrature.net/2023/02/13/biometrie-jo/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=20030";s:7:"pubDate";s:31:"Mon, 13 Feb 2023 11:48:08 +0000";s:11:"description";s:245:"Courant mars, l’Assemblée nationale va se prononcer sur le projet de loi relatif aux Jeux olympiques et paralympiques, déjà adopté par le Sénat. En son sein, l’article 7 vise à autoriser la vidéosurveillance automatisée (VSA),…";s:7:"content";s:9382:"
Courant mars, l’Assemblée nationale va se prononcer sur le projet de loi relatif aux Jeux olympiques et paralympiques, déjà adopté par le Sénat. En son sein, l’article 7 vise à autoriser la vidéosurveillance automatisée (VSA), cet outil de surveillance biométrique qui, à travers des algorithmes couplés aux caméras de surveillance, détecte, analyse et classe nos corps et comportements dans l’espace public. Il s’agit d’un changement d’échelle sans précédent dans les capacités de surveillance et de répression de l’État et de sa police.
Sur cette page, vous retrouverez un ensemble de ressources et d’outils pour vous permettre de vous engager contre la VSA et contre l’article 7 du projet de loi Jeux olympiques.
Une frise chronologique des passages à l’Assemblée indiquant les meilleurs jours pour téléphoner aux député·es
Un « Piphone » : un outil qui fournit les numéros des député·es
Un argumentaire pour convaincre les député·es
1 · Frise législative : quel est le meilleur moment pour appeler ?
2 · Piphone : choisir quel·le député·e appeler
Stratégiquement, nous vous conseillons d’appeler les député·es de la majorité (Renaissance, Horizons et Modem) et du PS (qui s’est abstenu au Sénat). Vous pouvez les contacter toute la semaine et si possible les lundi, jeudi et vendredi, lorsqu’ils ne sont pas dans l’hémicycle. C’est probable que vous ayez un·e assistant·e au téléphone et ce n’est pas grave ! N’hésitez surtout pas à lui parler, en lui demandant ensuite de relayer votre opinion auprès de son ou de sa députée.
Appelons sans relâche les député·es afin de faire pression sur la majorité présidentielle et les élu·es qui pourraient changer le cours du vote.
Pour les convaincre, nous avons préparé quelques arguments phares que vous pouvez sélectionner, utiliser, remanier à votre sauce lorsque vous appelez les parlementaires. D’abord, cinq points d’alarme sur les dangers de la vidéosurveillance algorithmique. Ensuite deux « débunkages » d’arguments que l’on retrouve souvent dans la bouche des adeptes de la surveillance.
La VSA est par essence un outil de surveillance totale :
La VSA n’est pas un simple logiciel : elle analyse des milliers d’heures de vidéos pour catégoriser les comportements suivant ce que les autorités auront qualifié de « suspect » ou « anormal » pour l’appliquer en temps réel sur les caméras de surveillance. Cela crée un gigantesque système de ciblage « d’anomalies » afin d’automatiser le travail de la police. Il s’agit d’un réel changement de dimension de la surveillance et d’industrialisation du travail d’image pour démultiplier les notifications et interpellations, guidées par cette intelligence artificielle.
La VSA existe déjà et est déployée dans l’opacité
Déployée ces dernières années en toute opacité, la VSA est une technologie quasiment inconnue de la population. Développée et vendue discrètement par des entreprises, elle est implantée sans information par les collectivités, empêchant les habitant·es d’avoir facilement accès à ce qui est installé dans leur ville. Ce déploiement ne répond pas à un besoin démocratique mais à des logiques économiques alors qu’aucune preuve d’efficacité n’existe.
Par exemple, le logiciel de l’entreprise Briefcam, déployé en catimini dans plus de 200 municipalités en France, permet de réaliser des recherches par attributs (couleur des vêtements, couvre-chef, sac, type de vêtement et supposé genre de la personne), de faire du suivi de personne à travers toutes les caméras de la ville et possède même l’option « comparaison faciale » qui permet de faire une recherche parmi les flux vidéos du visage identifié. C’est grâce à un long travail de documentation de notre part et d’investigation de journalistes qu’il a été possible de comprendre ce que peut réellement faire ce fameux logiciel de VSA le plus vendu en France.
Cette opacité rend totalement impossible l’expression d’un choix démocratique sur la question.
La VSA n’est pas moins dangereuse que la reconnaissance faciale.
La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images et de surveillance biométrique. La seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage. Ce sont généralement les mêmes entreprises qui développent ces deux technologies. Par exemple, la start-up française Two-I s’est d’abord lancé dans la détection d’émotion, a voulu la tester dans les tramways niçois, avant d’expérimenter la reconnaissance faciale sur des supporters de football à Metz. Finalement, l’entreprise semble se concentrer sur la VSA et en vendre à plusieurs communes de France. La VSA est une technologie biométrique intrinsèquement dangereuse, l’accepter c’est ouvrir la voie aux pires outils de surveillance.
La France est la cheffe de file de l’Europe en terme de surveillance
Avec cette loi, la France sera le premier État membre de l’Union européenne à légaliser et autoriser la surveillance biométrique, à l’opposée d’autres positionnements au sein de l’UE. Les discussions actuellement en cours sur le règlement européen sur l’intelligence artificielle envisagent même son interdiction formelle. La France confirmerait sa place de cheffe de file de la surveillance en Europe, s’éloignant toujours plus des idéaux de respect des droits fondamentaux et se rapprochant de la culture de la surveillance d’autres pays plus autoritaires. Les pays qui ont profité d’évènements sportifs pour tester et rendre acceptables des technologies de surveillance sont la Russie, la Chine et le Qatar.
Aucun garde-fous possible pour la VSA
Pour faire des traitements d’images pointus et reconnaître des formes avec précision, les algorithmes de VSA doivent être basés sur une technologie complexe dite de « deep learning » qui fonctionne grâce à des calculs si sophistiqués qu’ils dépassent l’entendement humain. L’algorithme décide lui-même quels paramètres sont pertinents pour détecter un évènement, sans qu’il soit possible de savoir lesquels ont été retenus pour donner le résultat. Il est impossible de garantir que le logiciel n’exploitera pas de données sensibles et de caractéristiques biométriques. Même les concepteurs de ces algorithmes n’ont pas de visibilité sur les données qu’ils exploitent. Ces technologies sont intrinsèquement dangereuses et ne pourront jamais être limitées efficacement sur le plan légal ou technique. Le seul garde-fou envisageable est l’interdiction de leur usage sur des activités humaines filmées dans l’espace public.
Réponses aux contre-arguments
« La VSA sera expérimentée uniquement pour les Jeux Olympiques »
FAUX, les Jeux Olympiques ne sont pas une expérimentation : la VSA est déjà déployée en toute opacité et illégalité et continuera à l’être après. On a retrouvé des traces de contrat entre la ville de Toulouse et IBM pour détecter des comportements anormaux dès 2017, on compte au bas mot deux cent villes en France qui l’emploient et elle s’installe aussi dans les magasins. Il y a donc un projet politique de long terme et les JO ne sont donc qu’un prétexte pour tenter de légaliser cette technologie. Après les Jeux, la vidéosurveillance algorithmique sera généralisée : une fois que des dizaines de milliers d’agents de sécurité et de police sont formés, que la technologie est achetée et mise au point grâce à des fonds publics, il faudra bien la rentabiliser. Son abandon après cette soi-disant expérimentation est donc illusoire.
« La VSA est seulement une aide à la décision »
Faux, la VSA n’est pas une simple aide technique : pour la concevoir, les entreprises doivent prendre une série de décisions morales et subjectives (qu’est-ce qu’un comportement « suspect » ?). Son application est également politique puisque la VSA est un instrument de pouvoir donné à des services coercitifs. La VSA n’est pas un outil neutre mais analyse en permanence les corps et les déplacements, en particulier de celles et ceux qui passent le plus de temps dans la rue. Se cacher derrière une machine, c’est déresponsabiliser les choix des agents de sécurité : « c’est pas nous qui avons ciblé cette personne, c’est l’algorithme ». C’est aussi accepter la déshumanisation du rapport des citoyens avec l’État, qui finira par ne prendre que des décisions automatisées sur sa population comme cela commence à être le cas avec la vidéoverbalisation. La VSA n’est pas une « aide à la décision » mais constitue bien un changement d’échelle dans les capacités de surveillance de l’État.
";s:7:"dateiso";s:15:"20230213_124808";}s:15:"20230123_150437";a:7:{s:5:"title";s:69:"Nos arguments pour faire interdire la vidéosurveillance automatisée";s:4:"link";s:103:"https://www.laquadrature.net/2023/01/23/nos-arguments-pour-faire-interdire-la-surveillance-automatisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19899";s:7:"pubDate";s:31:"Mon, 23 Jan 2023 14:04:37 +0000";s:11:"description";s:228:"La loi sur les Jeux Olympiques, qui cherche notamment à légaliser la vidéosurveillance automatisée (VSA) et dont vous nous parlions ici, est passée sans encombre jeudi dernier en commission des lois au Sénat et sera…";s:7:"content";s:2801:"
La loi sur les Jeux Olympiques, qui cherche notamment à légaliser la vidéosurveillance automatisée (VSA) et dont vous nous parlions ici, est passée sans encombre jeudi dernier en commission des lois au Sénat et sera discutée dès demain en séance.
Nous avons envoyé à l’ensemble des sénatrices et sénateurs un dossier d’analyse de cette technologie, fruit du travail de documentation et d’étude mené depuis plus de trois ans avec l’initiative Technopolice. Ce long document reprend et expose les enjeux techniques, politiques et juridiques de la VSA afin que nos élu·es prennent la mesure du danger engendré par sa mise en place et prennent surtout conscience du contexte dans lequel elle est défendue. Car contrairement à ce que le gouvernement prétend, la VSA ne sauvera pas les Jeux Olympiques de 2024.
Pour démystifier ce discours, les parlementaires doivent connaître la réalité économique et politique dans laquelle ces technologies ont émergé mais également comment leur conception implique un ensemble de choix politiques tout en débouchant sur une application qui sera, elle aussi, un instrument de mise en œuvre d’une politique répressive et de surveillance. Aussi, le Sénat doit prendre le temps d’appréhender le cadre juridique actuel, protecteur des données personnelles et de la vie privée, et qui est est en passe d’être fallacieusement écarté par ce projet de loi pour rendre acceptable la légalisation de la VSA.
Nous espérons que les parlementaires le liront et arriveront à la seule conclusion possible : la vidéosurveillance automatisée est un outil de surveillance totale, qui analyse et classe la population, et qui ne doit jamais être légalisé. Seule la suppression de l’article 7 est envisageable.
Nous avons d’ailleurs pu prendre le temps de discuter de ce sujet samedi 14 janvier à la Flèche d’Or à Paris, où vous êtes venu·es nombreuses et nombreux écouter et débattre du phénomène des Jeux olympiques comme accélérateur de surveillance. Vous pouvez retrouver la présentation de Technopolice et de la VSA et le débat sur les jeux olympiques sur notre Peertube.
Nous reviendrons vite sur les actions à mener contre la vidéosurveillance automatisée et contre ce projet de société de surveillance que nous devons absolument refuser !
";s:7:"dateiso";s:15:"20230123_150437";}s:15:"20230118_170733";a:7:{s:5:"title";s:89:"Non à la vidéosurveillance algorithmique, refusons l’article 7 de la loi olympique !";s:4:"link";s:121:"https://www.laquadrature.net/2023/01/18/non-a-la-videosurveillance-algorithmique-refusons-larticle-7-de-la-loi-olympique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19884";s:7:"pubDate";s:31:"Wed, 18 Jan 2023 16:07:33 +0000";s:11:"description";s:269:"Aujourd’hui, le projet de loi olympique commence à être examiné en commission au Sénat. En son sein, l’article 7 vise à autoriser la vidéosurveillance algorithmique (VSA). Bien qu’elle soit prétendument circonscrite aux JO, il n’en…";s:7:"content";s:22622:"
Aujourd’hui, le projet de loi olympique commence à être examiné en commission au Sénat. En son sein, l’article 7 vise à autoriser la vidéosurveillance algorithmique (VSA). Bien qu’elle soit prétendument circonscrite aux JO, il n’en est rien : la VSA est un projet politique du gouvernement qui n’attendait qu’une occasion pour sortir des cartons (lire notre analyse de ce projet de loi ici).
La VSA est déjà déployée illégalement en France
Après avoir voulu intégrer la VSA dans la loi Sécurité Globale, puis dans la LOPMI, le gouvernement utilise les Jeux olympiques comme prétexte pour faire passer des mesures qui visent à accélérer la surveillance de la population.
Depuis 2019, date de lancement de la campagne Technopolice, nous observons que des dizaines de villes en France ont expérimenté, illégalement, la vidéosurveillance algorithmique. Dès 2016, c’est la ville de Toulouse qui a passé un contrat avec IBM pour détecter des « événements anormaux ». Le logiciel de VSA de l’entreprise Briefcam est également déployé dans au moins 35 communes en France (dont Nîmes, Moirans où nous l’avons attaqué devant le tribunal administratif). Depuis 2018, c’est la ville de Marseille, avec la SNEF, qui analyse algorithmiquement les corps de ses habitant·es via les caméras de vidéosurveillance du centre ville.
extrait du programme fonctionnel technique, accompagnant le marché public de la ville de Marseille
Pour se représenter les différentes fonctionnalités de la vidéosurveillance algorithmique voici une vidéo de présentation du logiciel de Briefcam, un des plus répandus en France :
À l’origine de la vidéosurveillance algorithmique : les caméras
1) Une absence criante d’évaluation publique concernant la vidéosurveillance
Depuis la fin des années 90, la vidéosurveillance n’a cessé de se déployer en France. Le dernier recensement des caméras, privées comme publiques, réalisé par la CNIL il y a plus de 10 ans en comptabilisait 800 000 sur le territoire. Depuis, les subventions publiques qui leur sont destinées n’ont cessé de croître, atteignant 15 millions d’euros en 2021. La LOPMI a acté le triplement de ce fonds. S’il existe un tel engouement pour la vidéosurveillance, c’est qu’il doit exister des résultats tangibles, non ? Et pourtant non…
Le projet de loi propose d’expérimenter la vidéosurveillance automatisée alors même qu’aucune évaluation publique des dispositifs actuels de vidéosurveillance n’existe, qu’aucun besoin réel n’a été identifié ni une quelconque utilité scientifiquement démontrée. Le projet du gouvernement est donc de passer à une nouvelle étape de la surveillance de masse, en fondant la légitimité d’une technologie très intrusive sur l’intensification de la surveillance via l’automatisation de l’analyse des images, alors que l’utilité des caméras de vidéosurveillance pour lutter contre la délinquance n’a jamais fait ses preuves. Contrairement au principe qui voudrait que toute politique publique soit périodiquement évaluée, la vidéosurveillance — notamment dans sa nouvelle version automatisée — se développe sur le seul fondement des croyances défendues par les personnes qui en font commerce et qui la déploient. De fait, aucune étude d’impact préalable à l’installation de dispositifs de vidéosurveillance ou de VSA n’est sérieusement menée.
2) De rares études pointent unanimement vers l’inutilité de la vidéosurveillance
Or, les évaluations portant sur la vidéosurveillance soulignent au contraire l’inefficacité et le coût faramineux de tels dispositifs.
Le rapport de la Cour des comptes de 2020 rappelle qu’« aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Quant au laboratoire de recherche de la CNIL, le LINC, il affirme après avoir passé en revue l’état de l’art que « la littérature académique, en France et à l’international […], a démontré que la vidéosurveillance n’a pas d’impact significatif sur la délinquance ».
Plus récemment, les recherches du chercheur Guillaume Gormand, commandées par la gendarmerie, concluent elles aussi à une absence d’effet sur la commission d’infraction et à une utilité résiduelle pour l’élucidation des infractions commises (1,13 % des enquêtes élucidées ont bénéficié des images de caméras sur la voie publique).
3) Le coût faramineux de la vidéosurveillance
En outre, petit à petit, la vidéosurveillance a fait exploser les budgets publics qui lui étaient consacrés. Sur le court terme, ces dispositifs impliquent le développement ou l’achat de logiciels de gestion du parc de caméras (système de gestion vidéo sur IP, ou VMS), l’installation de nouvelles caméras, la transmission de flux, des capacités de stockage des données, des machines assez puissantes pour analyser des quantités de données en un temps très rapide. Sur le temps long, ils nécessitent la maintenance, la mise à niveau, le renouvellement régulier des licences logicielles, l’amélioration du matériel qui devient très vite obsolète et enfin les réparations du matériel endommagé.
À titre d’illustration, le ministère de l’Intérieur évoque pour les Jeux olympiques l’installation de 15 000 nouvelles caméras, pour 44 millions d’euros de financement du Fond interministériel pour la prévention de la délinquance (FIPD).
Une caméra de vidéosurveillance coûte à l’achat aux municipalités entre 25 000 et 40 000 euros l’unité1D’après cet article de La Dépêche du 13 septembre 2021, sans prendre en compte le coût de l’entretien, du raccordement ou du potentiel coût d’abonnement 4G/5G (autour de 9 000 € par an et par caméra2D’après cet article d’Actu Toulouse du 18 juin 2021).
« Il y aura toujours plus de caméras et toujours plus d’utilisation de l’intelligence artificielle » à Nice, affirme Christian Estrosi, pour « gérer la circulation, les risques de pollution, les risques majeurs, pour lutter contre le trafic de drogues, les rodéos urbains et pour anticiper toutes les menaces ».
La VSA : une nouvelle étape dans le mythe de l’efficacité de la vidéosurveillance
La vidéosurveillance algorithmique est présentée comme une manière de rendre plus efficace l’exploitation policière de la multitude de caméras installées sur le territoire. Il existerait trop de caméras pour qu’on puisse les utiliser efficacement avec du personnel humain, et l’assistance de l’intelligence artificielle serait inévitable et nécessaire pour faire face à la quantité de flux vidéo ainsi générée.
Cette idée que l’automatisation permettrait de rendre la vidéosurveillance enfin efficace s’inscrit dans une vieille logique du « bluff technologique » de la vidéosurveillance. Depuis des années, les industriels du secteur ne cessent de promettre que l’efficacité de la vidéosurveillance dépend d’un surcroît d’investissement : il faudrait plus de caméras disséminées sur le territoire, il faudrait que celles-ci soit dotées d’une meilleure définition, qu’elles offrent une champ de vision plus large (d’où l’arrivée de caméras 360, pivot, etc). Mais aussi qu’elles soient visionnées « en direct ». Il a donc fallu créer des centres de supervision urbaine (CSU) dans toutes les villes, puis y mettre des gens pour visionner le flux vidéo 24h/24. Il a aussi souvent été dit qu’il fallait davantage d’agents dans les CSU pour scruter les flux vidéo à la recherche d’actes délinquants commis en flagrance. Maintenant, il faut « mutualiser » les CSU au niveau des intercommunalités, ce dont se félicite Dominique Legrand, président du lobby de français de la vidéosurveillance, l’AN2V.
Dominique Legrand, président fondateur de l’AN2V, l’association nationale de la vidéoprotection évoque, à propos de la centralisation de CSU : « L’objectif de la création d’un tel dispositif est de pouvoir assurer le visionnage en temps réel de manière centralisée, en un même lieu (cyber) sécurisé, de l’ensemble des caméras des communes et intercommunalités. […] L’AN2V a déjà évangélisé cette idée sur plusieurs départements et régions ! » (cité dans le guide PIXEL 2023 édité par l’AN2V).
Chaque nouvelle nouvelle étape dans la surveillance promet son efficacité et tente de légitimer les investissements précédents. Au fil des années, ces multiples promesses de la vidéosurveillance n’ont pas été tenues. En l’absence de toute évaluation ou étude préalable, la généralisation de la VSA ne serait qu’une perte de temps et d’argent, en plus de constituer une profonde remise en cause de nos droits et libertés.
LA VSA ne sera pas circonscrite aux Jeux olympiques
Symptomatique d’un marché économique juteux, les industriels ont patiemment attendu que le gouvernement trouve une bonne opportunité pour légaliser cette technologie tout en ménageant « l’acceptabilité » auprès de la population. Si les JO sont le prétexte idéal, ne soyons pas naïfs : comme on l’a vu, la VSA est déjà « expérimentée » depuis plusieurs années dans des communes et fait l’objet de quantité de financements publics pour se perfectionner. De plus, une fois que tous ces algorithmes auront pu être testés pendant deux ans, lors de toutes « manifestations sportives, récréatives ou culturelles » comme le prévoit l’article 7, que les entreprises sécuritaires auront fait la promotion de leurs joujoux devant le monde entier lors des JO, que des dizaines de milliers d’agents auront été formés à l’utilisation de ces algorithmes, il semble peu probable que la VSA soit abandonnée fin 2024.
Des populations-laboratoires
Un autre aspect de la VSA est la tendance croissante à être mis en données. Au-delà de la surveillance de l’espace public et de la normalisation des comportements qu’accentue la VSA, c’est tout un marché économique de la data qui en tire un avantage. Dans le cadre des expérimentations prévues par le projet de loi, dès lors qu’un acteur tiers est en charge du développement du système de surveillance, cela permet aux entreprises privées concernées d’utiliser les espaces publics et les personnes qui les traversent ou y vivent comme des « données sur pattes ». C’est exactement ce que prévoit le titre VIII de l’article 7 puisque les données captées par les caméras dans l’espace public peuvent servir de données d’apprentissage pour perfectionner les algorithmes.
Les industries de la sécurité peuvent donc faire du profit sur les vies et les comportements des habitants d’une ville, améliorer leurs algorithmes de répression et ensuite les vendre sur le marché international. C’est ce que fait notamment la multinationale française Idémia, qui affine ses dispositifs de reconnaissance faciale dans les aéroports français avec les dispositifs PARAFE ou MONA, pour ensuite vendre des équipements de reconnaissance faciale à la Chine et participer à la surveillance de masse, ou encore pour remporter les appels d’offres de l’Union européenne en vue de réaliser de la surveillance biométrique aux frontières de l’Europe. Tel a également été le cas à Suresnes, où l’entreprise XXII a obtenu le droit d’utiliser les caméras de la ville pour entraîner ses algorithmes, les habitantes et habitants de la ville étant transformé·es en cobayes pour le développement commercial d’un produit de surveillance.
L’un des plus importants marchés de la surveillance aujourd’hui porte sur le contrôle des frontières à l’intérieur et à l’extérieur des pays membres de l’Union européenne. L’usage d’algorithmes de détection de comportements est ainsi utilisé sur des drones en Grèce afin de repérer et suivre des personnes aux zones de frontières. Dans ce cas précis, il est impossible de réduire la technologie fournie (et donc conçue et entraînée au préalable) à une seule assistance technique. Au contraire, elle est au service d’une politique répressive et d’une pratique policière dénoncée pour sa brutalité.3De l’aveu même d’une personne faisant partie d’un consortium de recherche ayant développé cet outil : « Le truc, c’est que je ne sais pas ce que les policiers font aux migrants après qu’on les a alertés. Mais qu’est-ce que je peux faire ». Article en anglais
Nous appelons les parlementaires à refuser l’article 7 du projet de loi olympique et continuons à nous mobiliser contre l’imposition de ces technologies liberticides !
De l’aveu même d’une personne faisant partie d’un consortium de recherche ayant développé cet outil : « Le truc, c’est que je ne sais pas ce que les policiers font aux migrants après qu’on les a alertés. Mais qu’est-ce que je peux faire ». Article en anglais
";s:7:"dateiso";s:15:"20230118_170733";}s:15:"20230112_094629";a:7:{s:5:"title";s:51:"Surveillance sonore : Orléans baratine la justice";s:4:"link";s:88:"https://www.laquadrature.net/2023/01/12/surveillance-sonore-orleans-baratine-la-justice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19853";s:7:"pubDate";s:31:"Thu, 12 Jan 2023 08:46:29 +0000";s:11:"description";s:251:"Il y a plus d’un an, La Quadrature du Net a déposé un recours contre un contrat passé par la ville d’Orléans qui autorise l’expérimentation de capteurs sonores dans l’espace public. L’été dernier, la commune…";s:7:"content";s:11455:"
Il y a plus d’un an, La Quadrature du Net a déposé un recours contre un contrat passé par la ville d’Orléans qui autorise l’expérimentation de capteurs sonores dans l’espace public. L’été dernier, la commune défendait sa surveillance privée en adoptant la stratégie du baratin : raconter le plus de bêtises possibles pour embrouiller le tribunal administratif. Nous venons de lui répliquer.
Comme cela a déjà été fait à Saint-Étienne, Marseille, Paris ou Moirans, l’objectif est de faire tomber ce nouveau projet de Technopolice. Il s’agit d’un énième dispositif néfaste issu d’une start-up, ici Sensivic, qui utilise comme tremplin marketing l’avidité de certain·es élu·es pour la surveillance totale des populations.
En octobre 2021, nous avions appris que la ville d’Orléans avait signé une convention avec l’entreprise Sensivic pour expérimenter des « capteurs sonores » sur sa population. Dans la droite lignée de ce qui avait été tenté à Saint-Étienne, le projet consiste à déployer des « détecteurs de sons anormaux » (une douce expression pour « mouchards ») sur des caméras de surveillance.
L’idée, selon les termes de la convention, est « d’analyser en permanence le son ambiant pour pouvoir détecter des anomalies » et ainsi orienter les caméras ou les agents de police vers la source des bruits considérés comme « anormaux » par le micro. En somme, lier à la surveillance automatique visuelle, déjà déployée en masse dans nos villes, une surveillance sonore. En attendant la surveillance des odeurs, comme cela avait été évoqué en 2020 dans un livre blanc du ministre de l’Intérieur ?
La surveillance sonore ne passera pas
Des caméras, des micros, l’ensemble boosté par une supposée « intelligence artificielle » pour effacer toute trace d’anormalité dans nos villes… Non seulement ce projet est un énième fantasme sécuritaire né d’une start-up prête à tout pour rentabiliser son stand à Milipol (le salon parisien de la sécurité), mais il est aussi purement illégal. C’est ce que nous essayons de faire constater au tribunal administratif d’Orléans depuis désormais plus d’un an.
Pour cela, nous nous appuyons sur un précédent très similaire : la CNIL a en effet déjà considéré comme illégal un projet de surveillance sonore déployé quelques années plus tôt à Saint-Étienne. C’est notamment sur la base de cette analyse de la CNIL que nous avons attaqué l’expérimentation d’Orléans, déposant non seulement un recours devant le tribunal administratif mais aussi une plainte devant la CNIL pour la forcer à prendre position.
Si la procédure devant la CNIL n’a pas encore aboutie, la mairie d’Orléans a, en revanche, communiqué à l’été dernier sa défense devant le juge administratif. Nous venons d’y répondre.
Ne dites pas « microphone » mais « détecteur de vibration de l’air »…
La stratégie d’Orléans est simple : pour ne pas avoir à appliquer les règles protectrices du droit des données personnelles qu’elle sait ne pas respecter, la commune tente de faire passer l’idée que son dispositif de surveillance ne traiterait pas de données personnelles. Et par un tour de magie, de faire disparaître toutes les critiques sur les dangers de cette surveillance.
Le débat ressemble beaucoup à ce que l’on observe depuis que ces dispositifs de surveillance sont documentés dans le cadre de notre campagne Technopolice : des collectivités (mais derrière, en fait, des entreprises qui dictent leurs arguments de défense à la collectivité attaquée) qui refusent de se voir appliquer le droit des données personnelles, ou toute règle protectrice des droits fondamentaux.
Orléans fait figure d’exemple type. Ainsi, la ville refuse de voir le produit de la société Sensivic qualifié de micros et préfère parler de « détecteur de vibration de l’air ». Cela ne s’invente pas. La commune pense ainsi perdre le juge et la CNIL en inventant sa novlangue et en préférant des mots creux qui feraient oublier qu’il s’agit d’une surveillance permanente et totale de l’espace public.
La palme de l’absurdité revient de justesse à l’affirmation de la commune selon laquelle « Il convient de préciser que le traitement numérique s’opère par un code “firmware” c’est-à-dire embarqué dans le processeur électronique, et non pas de code “informatique” utilisé dans des ordinateurs classiques. Il s’agit, donc, d’électronique numérique. » La concurrence dans la course à l’aberration juridico-technique était pourtant rude.
Pire ! Le discours de la ville d’Orléans devant la justice entre en contradiction non seulement avec les termes mêmes de la convention passée (la convention que nous attaquons parle de « capteur sonore ») mais aussi avec la communication officielle de Sensivic, qui explique aux communes sur son site que « vos caméras peuvent maintenant avoir des oreilles affûtées ».
Toute l’analyse juridique de la ville d’Orléans repose en réalité sur deux documents inutiles. Le premier est issu d’un laboratoire « indépendant » et déclare, par un grossier argument d’autorité, que les produits de l’entreprise seraient « conformes au RGPD ». Mais comment croire en l’objectivité d’un laboratoire payé par une entreprise pour lui donner un document venant certifier un produit vis-à-vis des acheteurs potentiels ? Surtout lorsque son avis va frontalement à l’encontre du droit en la matière et des avis précédents de la CNIL ?
Le second est un courrier de la CNIL qui dit l’exact opposé de ce que veut démontrer Sensivic. La CNIL y rappelle justement sa position déjà exprimée sur Saint-Étienne : qu’un tel capteur sonore, couplé à une caméra de vidéosurveillance, est susceptible de porter une atteinte disproportionnée à la vie privée et à la liberté d’expression.
Bref, encore une start-up qui pense avoir trouvé un business fructueux en accentuant la surveillance de la population, au mépris de toute considération politique ou juridique – et qui reçoit pour cela le soutien aussi bien des collectivités publiques que des administrations.
Surveiller les gens, cela rapporte de l’argent
Entre temps, et sans être le moins du monde inquiétée par les autorités (qui l’ont plutôt encouragée), Sensivic, l’entreprise qui travaille avec Orléans sur cette surveillance, a tranquillement prospéré, continuant d’amasser les projets et les financements sur son business de surveillance sonore.
Présentant fièrement ses produits de surveillance au salon Viva Technology, la start-up a bénéficié d’une levée de fonds de plus de 1,6 millions d’euros en 2022 auprès d’un ensemble d’investisseurs, dont la BPI (la Banque Publique d’Investissement), fidèle investisseuse des pires projets de la Technopolice (dont le logiciel de surveillance TestWe, sanctionné il y a quelques semaines par la juridiction administrative).
Sur son site, la startup annonce d’ailleurs 1 542 détecteurs installés en France, Belgique et Suisse, et une équipe de 12 salarié·es, tous·tes dédié·es au déploiement d’une surveillance sonore de nos rues et villes, couplée à la vidéosurveillance déjà existante.
Tout cela gravite dans un petit monde d’entreprises de surveillance, d’associations de lobbys et de financeurs bien habitués entre eux. Sensivic échange sur Youtube avec une autre start-up à tendance sécuritariste, Two-I (qui vend des solutions d’analyse d’image) en discutant analyse d’émotion, surveillance continue de l’espace et partenariat financier. Les deux sont d’ailleurs membres des mêmes associations de professionnels de la surveillance, dont l’AN2V (pour Association Nationale de Vidéoprotection), et sont toutes les deux soutenues par le « Comité Stratégique Filière Sécurité », sorte de lobby des industries de la sécurité officiellement soutenu et encouragé par l’État.
Nous espérons bien gagner ce nouveau contentieux, devant la juridiction administrative et devant la CNIL, pour mettre un nouveau coup d’arrêt à l’extension de la Technopolice. Après la victoire contre le logiciel de surveillance des étudiant·es TestWe, cela serait une nouvelle encourageante dans la lutte qui s’annonce contre les Jeux Olympiques 2024.
";s:7:"dateiso";s:15:"20230112_094629";}s:15:"20230105_162921";a:7:{s:5:"title";s:88:"Mobilisation générale contre la légalisation de la vidéosurveillance automatisée !";s:4:"link";s:121:"https://www.laquadrature.net/2023/01/05/mobilisation-generale-contre-la-legalisation-de-la-videosurveillance-automatisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19834";s:7:"pubDate";s:31:"Thu, 05 Jan 2023 15:29:21 +0000";s:11:"description";s:226:"En catimini pendant les fêtes, le gouvernement a déposé le projet de loi concernant les jeux Olympiques et Paralympiques de 2024. Comme on l’attendait, ce texte prévoit d’ouvrir la voie à la légalisation de la…";s:7:"content";s:29351:"
En catimini pendant les fêtes, le gouvernement a déposé le projet de loi concernant les jeux Olympiques et Paralympiques de 2024. Comme on l’attendait, ce texte prévoit d’ouvrir la voie à la légalisation de la vidéosurveillance automatisée (ou algorithmique, abrégée « VSA »), le tout sous un vernis théorique d’expérimentation limitée dans le temps. Et ce alors que partout sur le territoire, ces technologies sont déjà employées dans l’illégalité et l’impunité la plus totale. Prenant pour prétexte l’organisation prochaine des grandes compétitions sportives, le gouvernement et nombre de parlementaires se posent en défenseurs de l’industrie française en lui permettant de s’étendre durablement sur le marché de la vidéosurveillance.
Pour rappel : la vidéosurveillance automatisée, c’est la surveillance policière massive de l’espace public pour détecter des comportements réputés « anormaux » ; c’est le suivi algorithmique d’individus « suspects » dans la rue ; c’est l’intelligence artificielle pour faire la chasse aux illégalismes populaires ; c’est, à terme, l’identification par reconnaissance faciale en temps réel et la massification de la vidéoverbalisation ; ce sont des dizaines de millions d’euros d’argent public pour des technologies dangereuses déployées sans aucun débat digne de ce nom.
Si nous voulons tenir en échec ce projet de société, il nous faut obtenir coûte que coûte le rejet de ces dispositions. Tenez-vous prêt·es pour la mobilisation !
Cela fait plus de trois ans que nous documentons l’expérimentation illégale de la vidéosurveillance automatisée dans les villes et les villages français, que nous saisissons les tribunaux, dans des grandes villes comme à Marseille ou de petits villages comme à Moirans (Isère), pour dénoncer l’illégalité de ces technologies de surveillance dopées à l’intelligence artificielle. Trois années que, de leur côté, le gouvernement et les industriels se savent dans l’illégalité et qu’ils cherchent à changer la loi pour sécuriser ces déploiements sur le plan juridique. En 2020 déjà, la loi Sécurité Globale avait failli servir de canal législatif. Par peur des oppositions, le gouvernement avait alors préféré temporiser. Mais cette fois, nous y sommes…
L’opportunisme des Jeux olympiques
Le choix des Jeux olympiques et paralympiques de 2024 pour tenter de légaliser ces technologies n’est pas anodin. Les JO sont un « méga-évènement » qui, par leur dimension exceptionnelle, vont permettre la mise en œuvre et l’accélération de politiques tout aussi exceptionnelles. Comme cela a pu être observé lors des précédentes éditions, ces évènements sont l’occasion d’innovations législatives sécuritaires. Les lois accompagnant les Jeux olympiques mettent systématiquement en place un cadre pour un maintien de l’ordre strict, une militarisation de l’espace public ou encore une intensification des mesures de surveillance.
Le chercheur Jules Boykoff compare ce phénomène d’accélération législative à la « théorie du choc », développée par Naomi Klein, selon laquelle les gouvernements utilisent une catastrophe ou un traumatisme social pour faire passer des mesures basées sur la privatisation et la dérégulation. Les Jeux olympiques apparaissent eux aussi comme un accélérateur de politiques exceptionnelles, mais cette fois-ci en prenant appui sur un moment de fête ou de spectacle, par essence extra-ordinaire, où les règles politiques pourraient être temporairement suspendues, pour faire progresser des politiques qu’il aurait été difficile, voire impossible, de mettre en place en temps normal.
Le gouvernement brésilien a ainsi utilisé les Jeux olympiques de 2016 à Rio pour mener des opérations quasi militaires dans les favelas ou expulser des personnes de leur logement. De la même manière, pour les Jeux olympiques de Tokyo, le gouvernement japonais a fait passer une loi « anti-conspiration » en réalité voulue de longue date pour mater les groupes militants et syndicaux. Les gouvernements précédents avaient tenté sans succès à trois reprises de faire passer une législation analogue. Cette loi a été très critiquée, notamment par les Nations Unies, au regard des atteintes aux libertés qu’elle créait et aux pouvoirs de surveillance qu’elle conférait à l’État.
De la même manière, les méga-évènements sportifs sont souvent qualifiés de « spectacles de sécurité » ou « vitrines sécuritaires » puisqu’ils permettent à la fois d’être des moments d’expérimentation et des laboratoires des technologies, mais aussi de jouer sur ce moment exceptionnel pour atténuer les mesures de surveillance et les rendre plus acceptables (on vous en parlait notamment déjà ici et là).
Paris dans la course
Le choix du gouvernement français d’introduire les expérimentations de vidéosurveillance automatisée dans la loi sur les JO 2024 répond exactement à ce schéma et cette logique d’instrumentalisation des méga-évènements. Alors qu’aucune étude publique et scientifique n’existe sur ce sujet et qu’aucun besoin n’a été précisément identifié, les mesures concernant la VSA sont présentées par le gouvernement et certains parlementaires comme nécessaires à la sécurité de cet évènement.
Dans l’analyse d’impact, le gouvernement se contente de prendre comme exemple la détection de colis abandonnés : « Plutôt que d’attendre son signalement par des effectifs de voie publique ou sa localisation par les opérateurs chargés du visionnage de milliers d’images de vidéosurveillance, cette mesure permettrait de gagner un temps précieux » et « seule l’utilisation d’un traitement algorithmique est de nature à signaler en temps réel cette situation à risque et de permettre aux services concernés de l’analyser et d’y donner suite le cas échéant.» Voilà pour la seule justification à l’introduction d’une surveillance algorithmique de l’espace public que le gouvernement entend déjà pérenniser et qui concerne potentiellement des millions de personnes.
Car en réalité, les expérimentations s’insèrent dans un projet politique plus large et satisfont les désirs exprimés depuis plusieurs années par le secteur industriel et les institutions policières d’utiliser massivement ces dispositifs. Il est donc certain que ces outils ne seront pas abandonnés après la fin de la période d’expérimentation, de la même manière que les boites noires des services de renseignement ou les règles dérogatoires de l’état d’urgence de 2015 ont été pérennisées alors qu’elles étaient censées être temporaires et exceptionnelles. D’ailleurs, des parlementaires en vue sur ce dossier, comme Philippe Latombe, évoquent dores et déjà une autre loi, plus généraliste, à venir sur le même sujet dans le courant de l’année 2023.
Un laisser-passer pour le marché de la VSA
Afin de permettre le développement de la VSA, le gouvernement a prévu un article 7 au sein du projet de loi qui propose un processus d’expérimentation découpé en plusieurs étapes jusqu’en juin 2025. Derrière cet apparent formalisme procédurier, l’article 7 constitue en réalité un tremplin pour la vente des logiciels de VSA à l’État et aux collectivités locales par le secteur privé.
Si la loi est présentée comme concernant les Jeux olympiques, c’est en réalité sur une quantité d’évènements toute autre que les algorithmes vont être déployés pendant la durée prescrite pour les expérimentations : festivals de musique, courses de marathon, spectacles en plein air, marchés de Noël ou encore la coupe du monde de rugby 2023. Autant d’évènements « sportifs », « récréatifs » ou « culturels » qui serviront de terrain de jeux à ces algorithmes. D’ailleurs, le périmètre de ces évènements est également très large puisque les images utilisées iront jusqu’aux abords de ces lieux et aux moyens de transport les desservant (l’intérieur et les voies).
Tout d’abord, les expérimentations sont censées respecter une double condition qui épouse parfaitement le vocable et les offres créés par le marché de la VSA. Premièrement, elles doivent avoir pour finalité « d’assurer la sécurité de manifestations sportives, récréatives ou culturelles, qui, par leur ampleur ou leurs circonstances sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteinte grave à la sécurité des personnes ». Deuxièmement, l’objet des traitements doit être « de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler en vue de la mise en œuvre des mesures nécessaires » pour une panoplie de services de sécurité (la police et la gendarmerie nationales, la police municipale, les services d’incendie et de secours et les services internes de sécurité de la SNCF et de la RATP). Les images traitées peuvent être celles issues des caméras de surveillance ou des drones, ces derniers étant autorisés depuis l’année dernière.
Comme pour beaucoup de dispositifs de surveillance, le gouvernement se justifie par une logique de prévention de risques. Et, comme souvent, ceux-ci sont si largement définis qu’ils peuvent inclure un nombre très large de situations. On retrouve à travers la fonctionnalité de détection d’évènements le cœur des dispositifs conçus et vendus par le marché de la VSA : deviner et classer les comportements « à risque » dans l’espace public et alerter sur ceux qui nécessiteraient une attention et une intervention de la police. Ainsi, dans la loi, l’« intelligence artificielle » (qui n’est jamais définie dans le texte) permettrait de déceler dans nos manières de vivre, bouger, marcher celles qui doivent déclencher – ou non – une alerte.
Dans l’étude d’impact, les seuls « impacts sociaux » que le gouvernement relève seraient des avantages : la VSA « renforcerait » la sécurité, garantirait la « préservation de l’anonymat dans l’espace public et l’absence d’atteinte au droit à la vie privée » du fait de l’absence de reconnaissance faciale – carrément ! – et, enfin, les exigences de la loi permettraient la « neutralité de l’outil ». De son coté dans son avis, le Conseil d’État reprend la même logique que celle promue par les entreprises, à savoir que la fonction de l’algorithme se limite à une « levée de doute », minimisant ainsi le rôle du logiciel dans la prise de décision des agents de sécurité qui se déresponsabilisent derrière un outil technique. La CNIL, elle, est aux abonnés absents, se contentant de se féliciter que les « garanties » exigées dans sa précédente position qui appelait à légaliser la VSA aient été reprises dans le projet de loi…
Nous l’avons dénoncé à plusieurs reprises : ces outils sont tout sauf neutres. Dans la pratique actuelle du secteur, ces évènements vont de la « détection de comportement suspect », au « maraudage » (le fait d’être statique dans l’espace public), en passant par le « dépassement d’une ligne virtuelle » (c’est-à-dire l’entrée d’une personne dans une zone), le suivi de personne, la détection d’objets abandonnés, d’une bagarre ou encore d’un vol. Les comportements dits « suspects » ne reflètent aucune réalité tangible mais ne sont que la matérialisation de choix politiques subjectifs et discriminatoires qui se focalisent sur les personnes passant le plus de temps dans la rue : par exemple, sous la fonctionnalité de détection du « maraudage » se cache en réalité une chasse aux personnes mendiant. Qu’elle soit humaine ou algorithmique, l’interprétation des images est toujours dictée par des critères sociaux et moraux, et l’ajout d’une couche logicielle n’y change rien. Au final, elle automatise et massifie la prise de décision de la police pour mieux lui permettre d’augmenter son pouvoir de surveillance et de répression.
Afin de pousser cette stratégie de minimisation de sa surveillance, le gouvernement affirme également que ces dispositifs ne traiteraient pas de données biométriques (ce qui est faux comme nous l’expliquions ici, et comme l’a récemment rappelé le Défenseur des droits1Dans son rapport « Technologies biométriques : l’impératif respect des droits fondamentaux » de 2021, le Défenseur des droits considérait déjà les technologies de VSA comme des traitements de données biométriques. En 2022, il rappelait que la VSA consiste à traiter des données biométriques dans son enquête sur la « Perception du développement des technologies biométriques en France ».) et qu’ils ne feront pas de reconnaissance faciale. En s’engageant à renoncer pour l’instant à cette technologie qui a une place bien particulière dans l’imaginaire collectif, il joue ici un jeu politique et stratégique de communication pour donner à la VSA une image moins dangereuse. Le discours consiste à affirmer que la VSA ne reposerait « que » sur une analyse d’images purement technique qui ne se contenterait « que » d’« assister » l’humain. À nouveau, le gouvernement et le Conseil d’État piochent ici directement dans la pile d’arguments des marchands et promoteurs de la VSA. Celle-ci n’est en rien moins dangereuse que la reconnaissance faciale et touche à la même intimité du corps. En d’autres termes, la reconnaissance faciale n’est que l’une des nombreuses applications de la VSA. Et il y a fort à parier que son usage pour identifier des personnes en temps réel sur la voie publique sera à son tour légalisé, à l’occasion d’une prochaine et énième loi sécuritaire. Dès 2018, c’est d’ailleurs cet usage-là que des élus comme Christian Estrosi, le maire Horizons de Nice, mettaient en avant pour légitimer le recours à la vidéosurveillance automatisée dans leurs villes.
L’État aux manettes
Ensuite, le projet de loi prévoit que la confection et le déploiement des algorithmes soient divisé·es en plusieurs étapes, toutes supervisées par le pouvoir exécutif et avec le moins d’obstacles ou de gardes-fous possibles.
Tout d’abord, à l’instar de la vidéosurveillance classique, les services de l’État ou des collectivités locales devront faire une demande d’autorisation au préfet. Ces demandes d’autorisation devront identifier un évènement précis où l’expérimentation aura lieu (par exemple le marathon de Paris en avril 2023 ou le festival des Vieilles Charrues en juillet) et définir l’algorithme à mettre en œuvre (quel « évènement » détecter, les spécificités de la situation justifiant l’usage de la VSA, qui peut y a voir accès, comment cela est financé…). Une analyse « bénéfices/risques » doit également être jointe à cette demande mais ce type de document est classiquement exigé en droit des données personnelles et il a dores et déjà fait la preuve de son incapacité à protéger les libertés publiques (ces analyses d’impact sont généralement mal rédigées par les demandeurs et n’empêchent presque jamais le déploiement de dispositifs qui pourraient plus tard être jugés illégaux par la justice).
Pour fabriquer le logiciel, l’État et les collectivités auront trois options : le développer eux-mêmes, le faire développer par un tiers, ou bien l’acquérir directement sur le marché. C’est bien entendu ces deux dernières options qui seront très probablement privilégiées puisqu’il est bien moins cher et bien plus rapide de confier la tâche à des entreprises qui le font depuis des années que de créer un service d’ingénieur·es en interne (qui gagneraient d’ailleurs davantage dans le secteur privé). Et du coté des industriels de la VSA – les gros comme Thales ou Idemia, les plus petits comme Briefcam, Aquilae, XXII, Two-I ou Datakalab –, c’est banco ! Cette loi va leur permettre de démultiplier les déploiements en apportant un cadre juridique qui fait largement défaut jusqu’à présent, en réorientant l’ensemble des développements de leurs technologie de « vision assistée par ordinateur » vers des applications sécuritaires.
Quant aux foules passées au crible de ces systèmes au cours de la multitude d’évènements où auront lieu les tests, elles serviront de cobayes : le projet de loi prévoit en effet que les images de vidéosurveillance « classique » encadrées par le code de sécurité intérieure pourront être utilisées comme données d’apprentissage si leur durée de conservation n’est pas expirée. Or, on apprend dans l’étude d’impact que « si la réutilisation de ces données est nécessaire à la correction des paramètres du traitement, ces dernières peuvent être conservées au-delà de ces durées, dans la limite de la durée de l’expérimentation et pour ce seul usage, afin de parfaire l’apprentissage des algorithmes ». Cela signifie que les entreprises de VSA pourront donc disposer d’un volume conséquent d’images pour entraîner leurs algorithmes. Et les citoyen·nes filmé·es deviendraient tout simplement leurs rats de laboratoire.
Coté technique, le projet de loi prévoit que le développement du logiciel devra répondre à des exigences qui sont en total décalage avec la réalité de la confection de ce type de logiciels d’analyse d’image. Nous y reviendrons plus longuement dans un prochain article.
Ces exigences feront l’objet d’une attestation de conformité établie par une autorité administrative qui n’est pas encore définie et selon des critères et des méthodes qui ne sont jamais précisées. On apprend dans l’étude d’impact que l’État demandera probablement de l’aide à un « organisme de certification spécialisée ». Sans doute un autre acteur privé ? En tout cas, la seule chose qui est demandée aux industriels est de « présenter des garanties de compétences et de continuité et fournir une documentation technique complète ».
Une fois le logiciel prêt, ce seront le préfet du département et, à Paris, le préfet de police qui autoriseraient l’utilisation des algorithmes auprès des services de sécurité qui en feront la demande. Ils seront également les seuls à pouvoir décider d’arrêter son utilisation ou de la renouveler, tous les mois, si les conditions sont remplies. À la fin de tout ça, ce que l’on remarque, c’est l’absence criante de la CNIL. Évincée du processus, ses pouvoirs sont extrêmement limités et jamais contraignants, qu’il s’agisse du décret d’autorisation de l’expérimentation (il s’agit d’un avis uniquement consultatif), dans la décision du représentant de l’État ou du préfet de police de mettre en œuvre le système (cette décision lui est simplement adressée) ou dans le suivi de expérimentation (le préfet la tient au courant « au tant que besoin », c’est-à-dire selon son bon vouloir).
Cette éviction de tout contrôle indépendant n’est pas étonnante et s’inscrit dans la perte de pouvoirs de la CNIL observée depuis le début des années 2000, celle-ci étant mise à distance sur les sujets de surveillance étatique pour se concentrer vers l’accompagnement des entreprises. L’absence de réaction forte de la CNIL face au déploiement de la VSA pour préférer le dialogue complaisant avec ses constructeurs confirme bien sa mue en autorité régulatrice du secteur économique de la surveillance.
La bataille commence
Le gouvernement avait ce projet dans ses cartons depuis longtemps. Nous ne souhaitons en aucun cas l’améliorer ou rafistoler la loi : nous voulons le rejet pur et simple de cet article 7 pour le projet de société de surveillance qu’il incarne.
La VSA est un changement de dimension de la surveillance de masse. En autorisant l’État à analyser, classer, évaluer les mouvements et comportements de chaque individu dans l’espace public, en lui donnant des pouvoirs de décision décuplés par l’automatisation de la prise de décision, cette technologie transforme notre rapport à l’espace public et démultiplie les capacités de contrôle et de répression de la police.
Nous allons nous battre pour que cette première étape de la légalisation de la VSA ne puisse jamais voir le jour. Nous allons avoir besoin de vous afin de montrer l’opposition de la société à ces technologies et interpeller les parlementaires. La bataille commence au Sénat dès le 18 janvier, avant que soit transmis le texte à l’Assemblée. Nous reviendrons rapidement avec de nouvelles analyses et des outils pour vous permettre d’agir avec nous ! En attendant, nous vous invitons à venir nombreuses et nombreux en discuter le 14 janvier à la Flèche d’Or, à Paris. Nous parlerons Technopolice et Jeux olympiques avec des militant·es et chercheur·euses qui travaillent sur le sujet, toutes les infos sont ici !
Dans son rapport « Technologies biométriques : l’impératif respect des droits fondamentaux » de 2021, le Défenseur des droits considérait déjà les technologies de VSA comme des traitements de données biométriques. En 2022, il rappelait que la VSA consiste à traiter des données biométriques dans son enquête sur la « Perception du développement des technologies biométriques en France ».
";s:7:"dateiso";s:15:"20230105_162921";}s:15:"20230105_070000";a:7:{s:5:"title";s:74:"Négligences à la CAF : 10 000 dossiers d’allocataires en accès libre";s:4:"link";s:105:"https://www.laquadrature.net/2023/01/05/negligences-a-la-caf-10000-dossiers-dallocataires-en-acces-libre/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19807";s:7:"pubDate";s:31:"Thu, 05 Jan 2023 06:00:00 +0000";s:11:"description";s:213:"Après avoir documenté l’utilisation d’un algorithme de notation des allocataires à des fins de contrôle social par la CAF (voir ici et ici), nous revenons ici sur la fuite de plus de 10 000 dossiers…";s:7:"content";s:27490:"
Après avoir documenté l’utilisation d’un algorithme de notation des allocataires à des fins de contrôle social par la CAF (voir ici et ici), nous revenons ici sur la fuite de plus de 10 000 dossiers d’allocataires suite à un ensemble de négligences de la part de l’institution.
Suite à notre travail sur l’utilisation d’un algorithme de notations des allocataires utilisé afin de sélectionner celles et ceux qui feront l’objet d’un contrôle (voir ici et ici), nous avons été contacté·es par la cellule investigation de Radio France (voir leur article ici) à propos d’une base de données contenant plus de 10 000 dossiers d’allocataires de la CAF disponible en ligne sans aucune protection et accessible par n’importe qui.
Une fuite majeure : état civil, situation familiale, données médicales et multiples informations sur les enfants
Pour chaque dossier, 181 variables sont disponibles1Pour l’explication des variables présentes, voir ce dictionnaire. La liste des variables est accessible ici. D’autres données relatives à la navigation internet des allocataires sur le site de la CAF étaient disponibles.. On trouve notamment les informations suivantes sur chaque allocataire :
État civil : sexe, date de naissance, nationalité (française ou non), adresse (sans le nom de la ville)2Voir SEXE, DTNAIRES, NATIFAM, LILI4ADR..
Logement : type de logement (propriétaire, locataire, sans domicile fixe, hébergement à titre gracieux, hôtel…), informations sur le loyer 3Voir OCCLOG, MTAIDEL, MTLOYREM..
Situation personnelle : célibataire/veuf·ve/en couple/divorcé·e, personne sous tutelle ou non (civile, judiciaire, médicale…) 4Voir SITFAM, NATTUT..
Situation médicale : grossesse en cours ou non, « niveau » de handicap5Voir TITUAAH, TOPGRO, CINCAAH..
Situation du conjoint : activité (chômeurs·es, activité « normale », retraité·e, étudiant·e, handicapé·e, « inactive »), date de naissance 7Voir PRESCONJ, DTNAICONJ, ACTCONJ..
Situation familiale : nombre de personnes du foyer, nombre d’enfants, existence de pensions alimentaires, de garde alternée, revenus du foyer 8Voir SITFAM, PERSCOUV, NBENLEFA, TPA, NBUC, RUC..
Pour chaque enfant de l’allocataire : date de naissance, sexe, s’il ou elle est orphelin, a été abandonné·e à la naissance, sa « qualité » (« infirme », étudiant·e, stagiaire, salarié·e, apprenti·e), s’il ou elle est à charge ou encore en résidence alternée9Voir variables DNAIENF, CATEENF, QUALENF, ENFASFVERS..
Type et montant des allocations : Allocations familiales, APL, RSA, Prime d’activité, Allocation d’adultes Handicapés 10Voir toutes les variables en *VERS, TITUAAH..
L’exposition de cette base de données révèle donc énormément d’informations personnelles et sensibles sur plus de 10 000 allocataires. Et ce depuis plus d’un an et demi11Les premiers exercices semblent avoir été publiés en mars 2021., sa date de mise en ligne remontant à mars 2021.
L’authenticité de ces données a été vérifiée par des journalistes de Radio France qui ont contacté plusieurs des allocataires identifiés à partir des informations disponibles.
Des données transférées à un prestataire privé sans aucune justification
Ces données ont été mises en ligne par un prestataire privé à qui la CAF avait demandé de former ses agent·es à la manipulation d’un logiciel de traitement statistique. C’est dans le cadre de cette formation que la CAF a communiqué quelques 10 000 dossiers d’allocataires à ce prestataire. Le but était qu’il puisse créer des exercices portant sur des cas réalistes.
À la vue du niveau très basique des exercices proposés dans la formation (manipulation simple de variables, tri de données, export/import de tables…), rien ne justifie l’utilisation de données personnelles des allocataires. En d’autres termes, les exercices auraient pu être réalisés avec des jeux de données complètement anodins (accessibles publiquement par exemple).
Contacté par Radio France, le prestataire a lui-même dit qu’il pensait que les données envoyées étaient « fictives », ajoutant qu’il n’avait pas demandé de données réelles car cela n’était pas nécessaire…
Ce transfert de données semble donc révéler le peu de cas que la CAF fait de nos données personnelles. Ou plutôt un sentiment de propriété de nos données personnelles de la part de ses responsables, qui semblent trouver cela normal de les transférer sans aucune raison à des prestataires privés… Ou de les utiliser pour développer un algorithme de notation ciblant les plus précaires.
Petit rappel aux responsables de la CAF (1/2) : supprimer les noms et prénoms ne revient pas à anonymiser des données
Certes, la CAF avait pris la « précaution » d’enlever du jeu de données les noms et prénoms des allocataires ainsi que le code postal. Mais une simple recherche à partir du reste de l’adresse (numéro et nom de rue), sur un site comme les Pages jaunes, suffit à identifier de nombreuses personnes.
C’est cette approche qu’a adoptée l’équipe de Radio France pour vérifier l’authenticité des données via l’appel à des allocataires dont la trace a été retrouvée.
Ainsi la CAF semble ignorer les principes de base de l’anonymisation des données personnelles. Une anonymisation correcte nécessite bien plus de traitements de manière à ce qu’il ne soit pas possible d’identifier les individus auxquels sont rattachés les données. Il faut par exemple supprimer, ou a minima modifier, les informations directement identifiantes (date de naissance et adresse par exemple). Nous redirigeons ces responsables vers le guide de la CNIL portant sur ce sujet.
Petit rappel aux responsables de la CAF (2/2) : chiffrer ses données, c’est bien
Pire, la base de données a été publiée sans que son accès n’ait été protégé. On aurait pu imaginer, a minima, que le prestataire les chiffrerait avant de les mettre en ligne pour les élèves de la formation à qui il aurait communiqué le mot de passe protégeant le fichier.
Mais même cette mesure de précaution élémentaire a été écartée. Le fichier contenant les informations a été publié sans la moindre protection. Il était donc accessible à toute personne se rendant sur le site du prestataire.
Le « Centre National d’Appui au Datamining » au centre des controverses
L’analyse des adresses des allocataires présentes dans les fichiers révèle que la plupart se trouvent en région bordelaise. Or c’est à Bordeaux que se trouve le « Centre National d’appui au Datamining » (CNAD)12Le centre d’appui au datamining (CNAD) a été créé en 2012 à Bordeaux par la CAF de Gironde. Voir notamment l’article de Mathieu Arzel dans le numéro 58 revue Regards publié en 2020 et disponible ici. de la CAF.
Ce centre a été créé en 2012 pour développer le fameux algorithme de notation des allocataires aujourd’hui vivement contesté (voir ici, ici, ici, ici ou encore ici).
Il est ainsi légitime de se demander si la formation ayant conduit à la fuite de données était à destination des agent·es du CNAD. Peut-être même d’agent·es ayant vocation à travailler sur l’algorithme de notation lui-même ?
La CAF doit rendre des comptes sur ses pratiques numériques
Les révélations sur les pratiques numériques nocives et irrespectueuses des données personnelles des allocataires par la CAF s’accumulent. Face aux questions légitimes qui lui sont posées, la CAF préfère s’enfermer dans l’opacité (voir notre article ici).
Nous n’arrêterons pas pour autant de les documenter.
Image d’illustration : reconstitution d’un extrait de la base de données concernée par la fuite.
Pour l’explication des variables présentes, voir ce dictionnaire. La liste des variables est accessible ici. D’autres données relatives à la navigation internet des allocataires sur le site de la CAF étaient disponibles.
Le centre d’appui au datamining (CNAD) a été créé en 2012 à Bordeaux par la CAF de Gironde. Voir notamment l’article de Mathieu Arzel dans le numéro 58 revue Regards publié en 2020 et disponible ici.
";s:7:"dateiso";s:15:"20230105_070000";}s:15:"20221223_165916";a:7:{s:5:"title";s:73:"Notation des allocataires: fébrile, la CAF s’enferme dans l’opacité";s:4:"link";s:104:"https://www.laquadrature.net/2022/12/23/notation-des-allocataires-febrile-la-caf-senferme-dans-lopacite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19639";s:7:"pubDate";s:31:"Fri, 23 Dec 2022 15:59:16 +0000";s:11:"description";s:228:"Extrait du code source de l’algorithme de notation transmis par la CAF.
Alors que la contestation monte (voir ici, ici, ici ou ici) concernant son algorithme de notation des allocataires à des fins de contrôle social,…";s:7:"content";s:81825:"
Extrait du code source de l’algorithme de notation transmis par la CAF.
Alors que la contestation monte (voir ici, ici, ici ou ici) concernant son algorithme de notation des allocataires à des fins de contrôle social, la CAF choisit de se réfugier dans l’opacité tout en adaptant, maladroitement, sa politique de communication. Suite à son refus de communiquer le code source de son algorithme, nous avons saisi la Commission d’Accès aux Documents Administratifs (CADA).
Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de profilage attribuant à chaque allocataire une note ou «score de risque». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.
Cet algorithme symbolise l’étendue des dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de tri et d’évaluation continue de chacun de nos faits et gestes.
Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.
Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le code source de son algorithme1Voir notre demande CADA ici. Et sa réponse est affligeante2Voir la réponse de la CAF ici et le code source caviardé ici..
Sortir de la précarité pour “tromper l’algorithme”
Si la CAF a bien accepté de nous communiquer le code de l’algorithme… ce n’est qu’après avoir masqué la quasi-totalité des noms des variables comme on peut le voir sur l’illustration de cet article, qui est une photo de ce que la CAF nous a répondu.
En d’autres termes, le fichier fourni nous permet simplement d’apprendre combien de critères sont utilisés pour le calcul de la note des allocataires. Rien de plus. Ce qui n’empêche pas la CAF de préciser dans son courrier qu’elle espère que sa communication nous « permettra de comprendre le modèle »3Voir la réponse de la CAF ici et le code source caviardé ici..
Les responsables de la CAF ont toutefois tenu à justifier le caviardage du fichier. Ces dernier·es précisent que le code source a été « expurgé des mentions qui, si elles étaient communiquées, pourraient donner des indications aux fraudeurs pour tromper l’algorithme»4Voir la réponse de la CAF ici et le code source caviardé ici.. Et pour être tout à fait honnête, nous n’étions pas préparé·es à cette réponse.
La CAF croit-elle vraiment que les critères liés à la précarité (situation professionnelle instable, faibles revenus, logement situé dans un quartier défavorisé…) pourraient être modifiés par la seule volonté de l’allocataire? Qu’afin d’augmenter leur note et de « flouer » l’algorithme, des millions d’allocataires pourraient décider, d’un coup, de sortir de la pauvreté?
Ce raisonnement frise l’absurdité. A vrai dire, il est méprisant et insultant pour celles et ceux vivant des situations difficiles.
Pire, le secrétaire général de la CAF entretient publiquement la confusion entre fraudes et erreurs de déclarations involontaires, prenant ainsi le risque de stigmatiser les personnes ciblées par l’algorithme, et ce, dans le seul but de justifier l’opacité de son institution.
En réponse à un journaliste de Radio France5Voir l’émission de Radio France « Secrets d’info » portant sur l’algorithme disponible ici et l’article l’accompagant ici. Sur les déclarations de son secrétaire général, voir notamment à 28:00 pour la justification du refus de communiquer l’algorithme. Voir aussi à 13:40 sur l’aspect “pédagogique” de l’algorithme. Voir 12:30 pour les remarques de Vincent Dubois sur la lutte contre le non-recours. l’interrogeant sur la réponse de la CAF à notre demande, il l’expliquait en disant qu’« il y a un certain nombre de données dont on pense que, si elles sont connues, peuvent nourrir des stratégies de contournement de personnes dont le but c’est de frauder le système ». Et d’ajouter: « Il faut que l’on ait un coup d’avance ».
Faut-il donc lui rappeler que l’algorithme de la CAF n’est pas entraîné à détecter les fraudes mais les erreurs de déclaration, par définition involontaires6Voir notre article présentant l’algorithme de notation des allocataires de la CAF disponible ici.. Et que sa réponse pourrait donc être reformulée ainsi : « Nous ne communiquerons pas le code de l’algorithme de peur que les allocataires arrêtent de faire des erreurs ».
De notre point de vue, cette réponse révèle l’ampleur de l’embarras des responsables de la CAF vis-à-vis de leur algorithme. Ils et elles ont peut-être en tête le scandale entourant un algorithme, en tout point similaire, de notation des allocataires ayant été utilisé aux Pays-Bas et dont les suites ont amené à la démission du gouvernement7Un algorithme similaire a fait l’object d’un scandale retentissant aux Pays-Bas. Discrimantn. Sur ce sujet, voir notamment le rapport “Xenophobic machines: Discrimination through unregulated use of algorithms in the Dutch childcare benefits scandal” publié en 2021 par Amnesty International et disponible ici.?
Déni de justice
Pire, cette opacité est aussi appliquée, à l’échelle individuelle, aux allocataires ayant été séléctionné·es par l’algorithme pour être controlé·es et qui chercheraient à obtenir des informations sur la raison de ce contrôle. Et ce, alors même que la loi prévoit que tout individu ayant fait l’objet d’une décision prise sur le fondement d’un traitement algorithmique (ici le fait d’être contrôlé) a le droit de connaître les données utilisées ainsi que les paramètres de cet algorithme8Voir l’article R-311-3-1-2 du CRPA disponible ici. . Ce qui signifie que les personnes ayant fait l’objet d’un contrôle9En tout état de cause, le fait de ne pas avoir été contrôlé est aussi une décision administrative. Le CRPA donne donc des droits étendus à toute personne ayant été notée, qu’elle ait été contrôlée, ou non. sont censées avoir un droit d’accès plus étendu qu’une association comme la Quadrature.
Nous avons pu consulter la réponse à la demande d’informations réalisée par une personne ayant été contrôlée sur la base de sa note. Le courrier, signé par le délégué à la protection des données de la CNAF, se contente de renvoyer l’allocataire à la page “Internet et Libertés” de la CAF.
Sur cette page sont présents deux documents relatifs à l’algorithme de notation : un communiqué de la CAF et l’avis de la CNIL associé10Le communiqué de la CNAF daté du 27 janvier 2022 et intitulé « Aide à la détermination des dossiers allocataires nécessitant une vérification à l’aide d’un procédé de datamining » est disponible ici. La délibération de la CNIL du 24 mars 2010 est disponible ici. Il est à noter que l’algorithme a à priori grandement évolué depuis la délibération de la CNIL datant de plus de 12 ans. Comme nous l’expliquions ici, la délibération de la CNIl fait notamment référence à un modèle de lutte contre la fraude, alors que l’algorithme est aujourd’hui entraîné pour détecter les erreurs.. Aucun ne fournit d’informations sur les paramètres utilisés par l’algorithme, ni sur leur impact sur le score de risque.
Cette réponse est un déni de justice pour celles et ceux ayant fait l’objet d’un contrôle déclenché algorithmiquement, l’opacité entretenue par la CAF les empếchant de contester juridiquement le bien-fondé du contrôle dont ielles ont fait l’objet.
La discrimination : un savoir-faire à protéger
Nous avions aussi demandé la liste des variables utilisées pour l’entraînement du modèle, c’est à dire sa phase de création. Cette question est importante car elle permet de comprendre l’étendue des données utilisées par l’algorithme. Et donc le degré d’intrusion dans la vie privée des allocataires que la construction d’un tel modèle nécessite.
En effet, en mettant régulièrement en avant dans sa communication que son algorithme n’utilise « que » quelques dizaines de variables11Voir le (faux) Vrai/Faux dans ce document., la CAF fait mine d’ignorer qu’elles sont le fruit d’une sélection qui nécessite l’analyse d’un nombre bien plus grand de variables au préalable12Voir l’article de Pierre Collinet “Focus – Le data mining dans les Caf : une réalité, des perspectives” publié en 2013 et disponible ici. Il est expliqué que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude. Il est aussi précisé que les techniques de data-mining pourraient être utilisées à des fins de lutte contre le non recours..
Et la justification apportée par les responsables de la CAF est, là aussi, déconcertante. Ces dernier·es avancent que la communication de ces variables n’est pas possible car elles constituent un « savoir-faire »13Voir la réponse de la CAF ici et le code source caviardé ici.. La CAF souhaiterait-elle monétiser son algorithme et le revendre à d’autres administrations ? Penserait-elle pouvoir équiper les équipes de contrôleurs.ses des institutions sociales du monde entier de son algorithme assimilant les plus précaires à de potentiel·le·s fraudeurs ou fraudeuses?
A défaut de réponse, nous nous en remettons à ce que, techniquement, tout·e data-scientist ferait pour entraîner un modèle le plus « précis » possible. Il suffirait de partir de l’intégralité des variables à sa disposition et, par itérations successives, décider lesquelles garder pour le modèle final. Dans cette hypothèse, ce serait alors la quasi-totalité des variables détenues par la CAF sur chaque allocataire qui serait utilisée pour l’entraînement de son modèle.
Ceci serait cohérent avec un document publié en 2013 dans lequel un statisticien de la CAF que « les statisticiens chargés de la modélisation disposaient d’environ un millier d’informations par allocataire contrôlé » et que « la base d’apprentissage contient toutes les données habituelles des fichiers statistiques »14Voir l’article de Pierre Collinet “Focus – Le data mining dans les Caf : une réalité, des perspectives” publié en 2013 et disponible ici. Il est expliqué que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude. Il est aussi précisé que les techniques de data-mining pourraient être utilisées à des fins de lutte contre le non recours..
Vingt ans de développement… et aucun compte-rendu de réunions
Quant à notre demande relative aux documents internes (notes, comptes-rendus, échanges…) concernant le développement de l’algorithme, la CAF nous a tout simplement répondu qu’en presque 20 ans de travail aucune réunion technique n’a fait l’objet de compte-rendu…15Voir la réponse de la CAF ici et le code source caviardé ici.
Pour être tout à fait honnête, c’est une première dans l’histoire de nos demandes CADA.
Le retour de l’alibi technique
A ceci s’ajoute, depuis le début de l’année, la mise en place de ce qui apparaît comme une véritable communication de crise par l’institution autour de son algorithme. En juin 2022, la CAF a notamment publié un communiqué intitulé « Contrôle et datamining » dans lequel elle tente de répondre aux critiques soulevées par son algorithme16Le document, publié sur le site de la CAF, est disponible ici..
A sa lecture, on prend toute la mesure du rôle d’alibi technique à une politique de contrôle discriminatoire que joue l’algorithme, ce que nous dénoncions déjà ici.
L’algorithme y est décrit comme étant un objet purement scientifique dont le caractère politique est nié. Il est ainsi expliqué que la note des allocataires est le fruit d’une « démarche scientifique d’étude statistique […] menée par des experts » se fondant sur des critères « scientifiquement pondérés » ayant été sélectionnés « sur seuls critères statistiques ». Le secrétaire général de la CAF ajoute17Voir l’émission de Radio France « Secrets d’info » portant sur l’algorithme disponible ici et l’article l’accompagant ici. Sur les déclarations de son secrétaire général, voir notamment à 28:00 pour la justification du refus de communiquer l’algorithme. Voir aussi à 13:40 sur l’aspect “pédagogique” de l’algorithme. Voir 12:30 pour les remarques de Vincent Dubois sur la lutte contre le non-recours. de son côté que cet outil serait un « miroir des situations statistiques » servant à identifier des « environnements de risques ».
Ce faisant, les responsables de la CAF cherchent à nier leur responsabilité (politique) dans la conduite, et la validation, d’une politique de contrôle discriminatoire. Nul part n’apparaît que que si les erreurs se concentrent sur les plus précaires, c’est tout simplement parce qu’au fil des ans se sont multipliées les règles et contraintes encadrant l’accès aux minima sociaux, et ce, dans le seul but de restreindre leur accessibilité18Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250. Voir aussi le rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil, disponible ici..
On mesure enfin l’impact des logiques gestionnaires appliquées aux institutions sociales. Logiques réduisant des millions de vies et d’histoires, à de simples notions statistiques, déshumanisantes, froides et vides de sens.
Communication mensongère
La deuxième partie du document est consacrée à un « Vrai/Faux » portant sur l’algorithme où transpire la malhonnêteté intellectuelle.
A l’affirmation « Les scores de risques les plus élevés concernent toujours les plus pauvres », la CAF répond Faux car « les scores de risques sont calculés pour tous les allocataires ». Ce qui n’a tout simplement aucun sens…
A la question « Les contrôleurs sont payés aux résultats », la CAF répond que ce serait faux, bien qu’elle admette que l’Etat lui fixe bien un objectif à atteindre en termes de détection de fraude. Ici encore, l’institution joue avec les mots. S’il est vrai que les contrôleurs.ses n’ont pas de «prime sur leurs résultats», ils et elles touchent un intéressement, tout comme l’ensemble du personnel de la CAF, dont le montant dépend bien de l’atteinte de ces objectifs de contrôle19Voir par exemple l’annexe d’intéressement 2021 (ici) de la CAF spécifiant un objectif de fraudes détectées et un objectif de taux de recouvrement des indus non frauduleux. La tenue de ces objectifs impacte directement la prime d’intéressement des employé.e.s de la CAF..
A la question « Plus de 1000 données concernant les allocataires sont utilisées dans le modèle de datamining des CAF », la CAF répond que seules une quarantaine seraient utilisées. Elle détourne ainsi la question puisque – comme expliqué ci-dessus – elle omet de dire que ces quarante variables sont sélectionnées après une phase d’entraînement du modèle qui nécessite l’utilisation, et le traitement, de plus de mille variables par allocataire20Voir l’article de Pierre Collinet “Focus – Le data mining dans les Caf : une réalité, des perspectives” publié en 2013 et disponible ici. Il est expliqué que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude. Il est aussi précisé que les techniques de data-mining pourraient être utilisées à des fins de lutte contre le non recours..
Enfin, aux questions « Les contrôleurs de la Caf ont accès à toutes les infos qu’ils souhaitent à l’insu des allocataires », et « Les allocations sont suspendues pendant le contrôle », la CAF répond que non car « aucune demande n’est faite à d’autres administrations, sans en avoir averti auparavant l’allocataire, aucune procédure vis-à-vis d’un tiers n’est engagée à l’insu de celui-ci.» Et ajoute que, lors d’un contrôle, « les allocations ne sont pas suspendues ».
Sur ces deux derniers points, nous vous invitons à lire les témoignages collectés par le Défenseur des Droits, les collectifs « Stop Contrôles », « Changer de Cap » et différentes associations de lutte contre la précarité21Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici. Voir aussi l’émission de Radio France « Secrets d’info » revenant sur ces questions et disponible ici et l’article l’accompagant ici. qui alertent depuis des années sur les suspensions abusives d’allocations pendant les contrôles et les pratiques invasives (consultation des comptes bancaires, relevés d’électricité, analyse de l’adresse IP etc…) des contrôleurs·ses de la CAF à l’insu des allocataires.
Fraude à enjeux et lutte contre le non-recours : des contre-feux médiatiques
A ceci s’ajoute diverses annonces de la CAF participant à nourrir une stratégie de diversion médiatique autour de son algorithme de notation.
Dans son dernier rapport annuel sur la « lutte contre la fraude », nulle référence n’est faite à l’algorithme alors que celui-ci était mis à l’honneur, en première page, l’année précédente. La CAF précisant au passage qu’il était loué par la Cour des Comptes et l’Assemblée Nationale.
A sa place, la CAF a préféré cette année mettre en avant son équipe de contrôleur.ses dédiée à la « lutte contre la fraude à enjeux »22Voir notamment ici, ici et ici., c’est à dire des fraudes organisées (usurpation d’identités, faux documents, fraude au RIB) à grande échelle. Soit 30 agentes et agents qui d’après les dires de la CAF sont, ni plus ni moins, chargé·es de « protéger le système de sécurité sociale français des risques de pillage » et qui font rentrer la CAF dans « une nouvelle dimension de la lutte contre la fraude »23Voir notamment ici, ici et ici..
A titre de comparaison, nous tenons à rappeler que ce sont pas moins de 700 contrôleuses et contrôleurs qui, guidé·es par son algorithme discriminatoire, sont chargé·es de traquer les moindre erreurs de déclaration faites par les plus précaires.
Deuxième angle d’attaque : la mise en avant de l’utilisation d’algorithmes de profilage à des fins de lutte contre le non-recours24Voir notamment ce tweet.. Comme si l’application des techniques de profilage à des fins «positives» pouvait justifier leur application à des fins répressives. Sur ce sujet, la CAF omet pourtant de dire le plus important : depuis maintenant plus de 10 ans, elle a systématiquement favorisé l’application de ces techniques à des fins de contrôle plutôt que de lutte contre le non-recours.
Ses équipes de « data-scientist » regrettaient dès 2013 que les techniques de profilage des allocataires soient uniquement utilisées à des fins de contrôle et non de lutte contre le non recours25Voir l’article de Pierre Collinet “Focus – Le data mining dans les Caf : une réalité, des perspectives” publié en 2013 et disponible ici. Il est expliqué que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude. Il est aussi précisé que les techniques de data-mining pourraient être utilisées à des fins de lutte contre le non recours.. Cette réalité est rappelée dans un rapport de l’Assemblée Nationale daté de 2016 qui précise que « l’extension explicite de l’usage du data mining à d’autres fins, notamment celle de lutte contre le non-recours, était envisageable dès l’origine, mais cette possibilité a été écartée, au moins dans les premières années d’utilisation de cet outil »26Rapport d’information de l’Assemblée Nationale sur l’évaluation des politiques publiques en faveur de l’accès aux droits sociaux, 2016. Disponible ici. Il aura fallu attendre 2017 pour que la CAF commence à mener des expérimentations, et il semblerait qu’aujourd’hui le profilage contre le non-recours est limité à la prime d’activité et l’allocation de soutien familial27Voir le tome 1 du rapport « Garantir un numérique inclusif : les réponses apportées par les opérateurs de la protection sociale » de l’ Inspection Générale des Affaires Sociales écrit en 2019 et disponible ici. Voir aussi le rapport de la DREES « Le non-recours aux prestations sociales » écrit en 2020 et disponibstyle= »pointer-events: none; » le ici et l’émission de Radio France ici ou ici pour l’article correspondant..
Le sociologue Vincent Dubois ajoute que cette situation « interroge sur la réalité des slogans institutionnels “tous les droits rien que les droits” qui en fait est beaucoup plus tournée vers l’identification des indus, frauduleux ou non, que vers les cas de non-recours qui sont en fait beaucoup plus nombreux »28Voir l’émission de Radio France « Secrets d’info » portant sur l’algorithme disponible ici et l’article l’accompagant ici. Sur les déclarations de son secrétaire général, voir notamment à 28:00 pour la justification du refus de communiquer l’algorithme. Voir aussi à 13:40 sur l’aspect “pédagogique” de l’algorithme. Voir 12:30 pour les remarques de Vincent Dubois sur la lutte contre le non-recours..
En tout état de cause, l’histoire politique de l’utilisation par la CAF des techniques de profilage à des fins de lutte contre le non-recours ne semble pas très glorieuse.
Ce dernier point interroge aussi sur le fantasme entretenu autour de l’automatisation de l’état social pour répondre aux problèmes sociaux. A l’heure où le gouvernement lance l’expérimentation d’un « RSA sous conditions », la mise en avant de solutions techniques pour lutter contre le non-recours dépolitise la question de l’accès aux droits. Tout en taisant les problèmes que génèrent, pour des millions de personnes, la dématérialisation des services publics.
Enfin, la CAF a annoncé en grande pompe la nomination d’une médiatrice nationale chargée, entre autres, des questions de données personnelles à la CNAF29Voir le communiqué de nomination de la médiatrice nationale de la CNAF ici. en juin 2022. Parmi ses missions: «la protection des données et de la sécurité des usagers dans le cadre des systèmes d’information.» Et le communiqué accompagnant sa nomination ajoute qu’elle «sera également la référente nationale déontologie». Nous serions plus que ravi·es d’entendre son avis sur l’algorithme de notation de la CAF.
Lutter au-delà de la transparence
La transparence que nous exigeons auprès de la CAF ne doit pas masquer le fond du problème. En un sens, ce que nous savons déjà de l’algorithme de cette institution, sans même avoir eu accès à son code, nous suffit à nous y opposer.
La transparence n’est donc pas une fin en soi : c’est un moyen que nous souhaitons mobiliser pour mettre en lumière, et critiquer, un discours politique cherchant à légitimer la volonté de contrôle d’un appareil étatique via l’entretien d’un discours de suspicion généralisée et la stigmatisation de certaines catégories de la population.
Volonté de contrôle qui, hélas, profite aujourd’hui de la puissance des outils numériques et de l’exploitation de nos données personnelles afin de toujours plus nous évaluer et, ainsi, nous trier.
A l’heure où un nombre toujours plus grand d’institutions, sociales et policières, mettent en place de telles solutions de surveillance algorithmique, nous continuerons de les documenter et de faire ce que nous pouvons, à notre niveau, pour les contrer.
Au côté des collectifs Stop Contrôles, Changer de Cap et de toutes les associations et collectifs de lutte contre la précarité qui font face, depuis des années, aux dérives du tout numérique et au développement sans limite des politiques de contrôle social, nous espérons que vous serez nombreux.ses à nous rejoindre.
Enfin, nous ne doutons pas que ce sentiment d’injustice est partagé par la plupart des employé·es de la CAF. C’est pourquoi nous tenons à encourager celles et ceux qui, révolté·es par ces pratiques, pourraient nous aider à les documenter. Vous pouvez nous contacter par mail, téléphone, en venant nous rendre visite ou déposer de manière anonyme des documents sur notre SecureDrop. A l’heure où les responsables de la CAF font le choix de l’opacité, nous avons plus que jamais besoin de vous.
Voir l’émission de Radio France « Secrets d’info » portant sur l’algorithme disponible ici et l’article l’accompagant ici. Sur les déclarations de son secrétaire général, voir notamment à 28:00 pour la justification du refus de communiquer l’algorithme. Voir aussi à 13:40 sur l’aspect “pédagogique” de l’algorithme. Voir 12:30 pour les remarques de Vincent Dubois sur la lutte contre le non-recours.
Un algorithme similaire a fait l’object d’un scandale retentissant aux Pays-Bas. Discrimantn. Sur ce sujet, voir notamment le rapport “Xenophobic machines: Discrimination through unregulated use of algorithms in the Dutch childcare benefits scandal” publié en 2021 par Amnesty International et disponible ici.
En tout état de cause, le fait de ne pas avoir été contrôlé est aussi une décision administrative. Le CRPA donne donc des droits étendus à toute personne ayant été notée, qu’elle ait été contrôlée, ou non.
Le communiqué de la CNAF daté du 27 janvier 2022 et intitulé « Aide à la détermination des dossiers allocataires nécessitant une vérification à l’aide d’un procédé de datamining » est disponible ici. La délibération de la CNIL du 24 mars 2010 est disponible ici. Il est à noter que l’algorithme a à priori grandement évolué depuis la délibération de la CNIL datant de plus de 12 ans. Comme nous l’expliquions ici, la délibération de la CNIl fait notamment référence à un modèle de lutte contre la fraude, alors que l’algorithme est aujourd’hui entraîné pour détecter les erreurs.
Voir l’article de Pierre Collinet “Focus – Le data mining dans les Caf : une réalité, des perspectives” publié en 2013 et disponible ici. Il est expliqué que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude. Il est aussi précisé que les techniques de data-mining pourraient être utilisées à des fins de lutte contre le non recours.
Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250. Voir aussi le rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil, disponible ici.
Voir par exemple l’annexe d’intéressement 2021 (ici) de la CAF spécifiant un objectif de fraudes détectées et un objectif de taux de recouvrement des indus non frauduleux. La tenue de ces objectifs impacte directement la prime d’intéressement des employé.e.s de la CAF.
Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici. Voir aussi l’émission de Radio France « Secrets d’info » revenant sur ces questions et disponible ici et l’article l’accompagant ici.
Voir le tome 1 du rapport « Garantir un numérique inclusif : les réponses apportées par les opérateurs de la protection sociale » de l’ Inspection Générale des Affaires Sociales écrit en 2019 et disponible ici. Voir aussi le rapport de la DREES « Le non-recours aux prestations sociales » écrit en 2020 et disponibstyle= »pointer-events: none; » le ici et l’émission de Radio France ici ou ici pour l’article correspondant.
Voir le communiqué de nomination de la médiatrice nationale de la CNAF ici.
";s:7:"dateiso";s:15:"20221223_165916";}s:15:"20221216_134655";a:7:{s:5:"title";s:73:"Surveillance algorithmique des examens : TestWe ne passera pas l’hiver";s:4:"link";s:108:"https://www.laquadrature.net/2022/12/16/surveillance-algorithmique-des-examens-testwe-ne-passera-pas-lhiver/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19546";s:7:"pubDate";s:31:"Fri, 16 Dec 2022 12:46:55 +0000";s:11:"description";s:295:"Il y a deux semaines, nous relayions le recours d’étudiant·es contre l’usage par l’institut d’études à distance de l’Université Paris 8 du logiciel de surveillance algorithmique des examens « TestWe », recours au soutien duquel La Quadrature…";s:7:"content";s:14665:"
Il y a deux semaines, nous relayions le recours d’étudiant·es contre l’usage par l’institut d’études à distance de l’Université Paris 8 du logiciel de surveillance algorithmique des examens « TestWe », recours au soutien duquel La Quadrature est intervenue. Hier, dans une ordonnance particulièrement intéressante, le tribunal administratif de Montreuil a suspendu l’usage de ce logiciel.
La société TestWe, qui édite le logiciel du même nom, se vante de développer un outil qui permet de surveiller automatiquement tout·e candidat·e passant une épreuve à distance. Pour résumer, cette surveillance automatisée consiste à analyser algorithmiquement les candidat·es en train de passer une épreuve écrite en dehors des locaux de l’université : l’identité est vérifiée automatiquement au début et pendant l’épreuve, le regard est analysé en permanence, l’environnement immédiat est constamment scruté par analyse vidéo et sonore (voir notre analyse complète du logiciel). Il s’agit donc là d’un traitement de données personnelles, dont un certain nombre de données sensibles.
La procédure introduite par les étudiant·es et dans laquelle La Quadrature est intervenue consistait à demander, en référé (c’est-à-dire en procédure d’urgence), au tribunal administratif de suspendre l’utilisation du logiciel TestWe par l’institut d’études à distance de l’Université Paris 8.
Pour obtenir cette suspension, il fallait faire naître dans l’esprit du juge administratif un « doute sérieux ». C’est-à-dire démontrer qu’il est assez probable que ce logiciel soit illégal, en tout cas suffisamment pour qu’un examen bref de la situation (vu qu’il s’agit d’une procédure très rapide) permette de déceler une atteinte flagrante aux libertés 1Ce même « doute sérieux » nous permettait, en 2020, d’obtenir la suspension de l’usage de drones par la préfecture de police de Paris.. C’est exactement ce qu’a constaté hier le tribunal administratif de Montreuil : TestWe est un logiciel qui est assez probablement disproportionné et ce doute justifie que son utilisation soit suspendue.
Quels étaient nos arguments juridiques ? Qu’un traitement de données comme TestWe doit respecter un certain nombre de conditions pour être légal. Parmi ces exigences, il y notamment celle que soit prouvées l’existence d’une base légale (c’est-à-dire que le traitement de données doit être autorisé par la loi), d’une finalité (c’est-à-dire l’objectif pour lequel le traitement est mis en œuvre) et d’une proportionnalité (c’est-à-dire que seules les données nécessaires à l’objectif doivent être traitées, ce qui est parfois appelé « principe de minimisation des données »). Dans nos écritures en soutien aux étudiant·es (une requête en intervention, une note en délibéré puis un mémoire en réplique à l’analyse d’impact hallucinante produite par l’Université), nous avons détaillé en quoi le logiciel TestWe ne reposait sur aucune base légale parmi celle prévue par le RGPD et était disproportionné par rapport à la finalité affichée, c’est-à-dire celle de la surveillance d’un examen à distance.
C’est ce deuxième point, la disproportion, qui a retenu l’attention du tribunal administratif. Il a estimé que le « doute sérieux » permettant d’ordonner la suspension de l’usage de TestWe réside dans le fait qu’il est probable que ce logiciel ne respecte pas l’exigence de minimisation des données du RGPD. Et c’est plutôt une bonne nouvelle que le juge soit sensible à cet argument : cela signifie que le périmètre des informations et données sur les étudiant·es que TestWe collecte est bien trop large et démesuré pour l’objectif poursuivi. En somme, ce n’est pas parce que les données existent ou sont disponibles qu’il est légal de les utiliser pour toute finalité.
Une ordonnance aux différentes conséquences positives
Tout d’abord, réjouissons-nous que la surveillance algorithmique soit écartée de l’Université : en émettant des doutes quant à la légalité de ce genre de dispositif, le tribunal administratif de Montreuil a envoyé un avertissement à toutes les autres universités et écoles.
Également, au-delà de cette affaire, cette ordonnance ouvre surtout une brèche quant à la reconnaissance de la disproportion des dispositifs de surveillance algorithmique. En mai 2020, lorsque nous faisions interdire les drones du préfet Lallement, le Conseil d’État nous donnait raison parce qu’il constatait l’absence de base légale, c’est-à-dire l’absence d’autorisation par la loi. En décembre 2020, lorsque nous obtenions une nouvelle victoire, le Conseil d’État relevait à nouveau l’absence de base légale (il ajoutait aussi quelques considérations dénonçant le principe même de ce genre de dispositif, ce qui nous avait conduit à parler de « victoire totale »). Mais le problème des victoires obtenues grâce à un défaut de base légale est qu’elles ne durent jamais très longtemps : la loi se change et c’est ce que s’est empressé de faire le gouvernement avec la loi Sécurité globale (partiellement censurée par le Conseil constitutionnel) puis la loi de Sécurité intérieure (cette fois-ci validée par le Conseil constitutionnel).
Concernant TestWe, le tribunal administratif de Montreuil estime que le doute quant à la légalité du dispositif vient de sa probable absence de proportionnalité. C’est-à-dire qu’il reconnaît que surveiller les corps et les sons en permanence n’est pas justifié pour des examens à distance.
Or, depuis 2020, nous nous battons contre la vidéosurveillance algorithmique, qu’elle soit dans des grandes villes comme Marseille ou dans de petits bourgs comme à Moirans (en Isère). Nous nous battons également contre la surveillance sonore, face à la ville d’Orléans qui souhaite être pionnière dans ce domaine. Si ce genre de dispositif n’est actuellement pas autorisé par la loi, cette base légale manquante pourrait bien arriver, en tout cas pour la vidéosurveillance algorithmique, par la loi sur les JO 2024 qui se prépare à légaliser ces pratiques de surveillance de masse de l’espace public. Et c’est là tout l’apport de l’ordonnance sur TestWe : la proportionnalité de ce genre de surveillance algorithmique permanente est désormais sérieusement questionnée.
La victoire des étudiant·es devant le tribunal administratif de Montreuil nous permettra également de mieux nous opposer au souhait de la CNIL de rendre ces dispositifs de surveillance des examens légaux. Contrairement à ce que le juge a conclu, la CNIL souhaiterait consacrer un principe de proportionnalité de certaines surveillances vidéos et audio, et encourager l’usage d’algorithmes de détection de comportements.
Une lutte qui continue
Cette victoire en référé ne met pas un terme à la lutte. Le juge n’a pas dit que TestWe est illégal, simplement qu’il y a un doute sérieux quant à sa légalité. Nous poursuivons donc le combat aux côtés des étudiant·es de Paris 8 dans la procédure au fond (c’est à dire la procédure normale, longue et sans condition d’urgence) pour transformer l’essai et faire reconnaître définitivement par le tribunal administratif de Montreuil l’illégalité de TestWe. Cette décision au fond n’arrivera toutefois pas avant de longs mois.
Sur son site internet, l’entreprise TestWe se vante d’avoir pour clientes des institutions comme le CNED, l’ESSEC, le concours SESAME ou encore Grenoble École de Management. Nous appelons donc les étudiant·es de ces établissements, ainsi que ceux dont l’université ou l’école utiliserait un logiciel similaire à TestWe, mais également les professeur·es et enseignant·es, à poursuivre la lutte initiée par la mobilisation à Paris 8 : faites du bruit dans vos facs, réutilisez les arguments juridiques, créez le rapport de force. La victoire d’aujourd’hui n’attend que de se propager pour, in fine, bouter la Technopolice et toutes les idées qu’elle charrie hors des facs.
Ce même « doute sérieux » nous permettait, en 2020, d’obtenir la suspension de l’usage de drones par la préfecture de police de Paris.
";s:7:"dateiso";s:15:"20221216_134655";}s:15:"20221202_183929";a:7:{s:5:"title";s:92:"Mobilisation étudiante contre TestWe, l’entreprise qui veut technopoliser l’Université";s:4:"link";s:124:"https://www.laquadrature.net/2022/12/02/mobilisation-etudiante-contre-testwe-lentreprise-qui-veut-technopoliser-luniversite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19356";s:7:"pubDate";s:31:"Fri, 02 Dec 2022 17:39:29 +0000";s:11:"description";s:257:" [MAJ du 15 décembre] Avec les étudiant·es et leur avocat, nous avons remporté ce contentieux ! On vous en dit plus longuement sous peu.
La Quadrature appelle à soutenir la lutte d’un collectif d’étudiant·es de l’Université…";s:7:"content";s:18286:"
[MAJ du 15 décembre] Avec les étudiant·es et leur avocat, nous avons remporté ce contentieux ! On vous en dit plus longuement sous peu.
La Quadrature appelle à soutenir la lutte d’un collectif d’étudiant·es de l’Université Paris 8 contre TestWe, la start-up qui veut technopoliser l’Université. Cette télésurveillance d’examens à distance est déshumanisante, discriminatoire et intrusive, en plus d’être très clairement illégale. À l’appel de ces étudiant⋅es, nous vous donnons rendez-vous le 6 décembre à 14h pour montrer devant le tribunal administratif de Montreuil une opposition massive. La Quadrature est intervenue devant le tribunal administratif pour soutenir cette lutte (lire notre intervention ici).
Si vous êtes aussi victime de telles technologies de surveillance par votre établissement d’enseignement, n’hésitez pas à nous envoyer un mail à contact@technopolice.fr pour nous faire part de votre témoignage.
Il y a deux ans, lors du premier confinement, nous alertions déjà sur la gestion autoritaire des examens à distance par les établissements d’enseignement supérieur.
TestWe, un système discriminatoire, intrusif et déshumanisant
Il est question ici de télésurveillance, c’est-à-dire que les élèves passent leur examens à distance, au même moment, et sous surveillance numérique et automatisée de l’établissement. L’une des entreprises les plus en vue dans ce domaine est TestWe, une start-up française qui étend les outils de surveillance algorithmique déjà déployés dans de nombreuses villes en France à la surveillance des examens.
Initialement, leur logiciel consistait à dématérialiser les épreuves : celles-ci se passaient dans un amphi mais les étudiant·es composaient sur leur ordinateur, fini l’examen papier. Depuis 2019, l’entreprise est passée de la dématérialisation à la surveillance à distance des étudiant.es
TestWe offre une multitude d’outils pour perfectionner cette surveillance : un système de reconnaissance faciale, c’est à dire de photographie de l’étudiant avec sa carte d’identité ou étudiant·e ou d’identité par webcam « pour vérifier que la bonne personne est en face de l’écran ». En complément, une surveillance à 360° de l’environnement de l’élève. Son PDG, Benoît Sillard, se vante ainsi de mettre « en place actuellement un système à double caméras, celle de l’ordinateur qui filme par l’avant, et celle de votre smartphone qui filme l’ensemble de la pièce, pour vérifier qu’il n’y a pas un deuxième ordinateur ou quelqu’un en train de vous souffler ». Les élèves utilisant TestWe se voient par ailleurs obligé·es de céder les droits administrateurs de leur ordinateur au logiciel, de désactiver leur pare-feu, antivirus, VPN. Évidemment, cela nécessite d’être équipé·e avec un ordinateur personnel récent, d’avoir une bonne connexion Internet mais l’exigence va au-delà : disposer d’une pièce (« pas trop éclairée ni trop sombre ») sans bruit et sans autre personne présente, pas même un enfant en bas âge ou un animal de compagnie, par exemple.
Après l’identification, TestWe veut vérifier que les étudiant·es ne puissent pas tricher. Dans sa version classique, les élèves sont photographiés toutes les trois secondes, les images analysées et tout comportement suspect fait l’objet d’un signalement à la plateforme. Avec la version avancée « ProctorWe », les candidat⋅e⋅s doivent aussi filmer la pièce, parfois avec une seconde caméra (et donc être équipé·es d’un smartphone en état de fonctionnement).
Iels ont aussi l’obligation de filmer leur cou ainsi que leurs oreilles, afin de vérifier l’absence d’oreillettes. Cette chasse à la triche n’a pas de limite. Les personnes avec les cheveux longs se voient demander de « dégager leurs oreilles », les personnes qui portent un voile se verraient accuser de fraude, et on ne sait pas ce qu’il est prévu pour les personnes malentendantes… Après identification, l’étudiant⋅e doit respecter une liste aberrante d’interdictions, définissant les comportements suspects et les d’objets qui ne doivent pas être présents dans la pièce.
Et la liste continue : obligation de fixer l’écran, interdiction de manger, d’aller aux toilettes, interdiction de tout bruit « suspect », non prise en compte des handicaps (qui n’ont pas été systématiquement signalés en vue d’un aménagement des conditions d’examen, puisque les étudiants pensaient déjà connaître les modalités auxquelles iels sont déjà habituées)…
C’est donc un véritable matraquage d’interdits bafouant la dignité auxquels devraient faire face les étudiant·es, qui déroge aux conditions d’examen en présentiel (il est quand même toujours possible d’avoir les cheveux détachés, de manger, d’aller aux toilettes, de porter un col roulé lors d’un examen en salle), en plus d’acter une rupture d’égalité entre les élèves (tout le monde ne peut pas posséder le matériel informatique dernier cri, occuper une pièce pendant plusieurs heures sans interruptions possibles). Et à tout cela, s’ajoute évidemment la violation de la vie privée des étudiants et des étudiantes, qu’il s’agisse de leur lieu de vie ou de leur matériel informatique.
Des dispositifs très clairement illégaux
Cette surveillance, constante, intrusive, mêlée de biométrie, et attentatoire aux déplacements ainsi qu’à la vie privée des élèves ne peut en aucun cas remplir les critères de proportionnalité exigés dans le règlement général sur la protection des données ou son application française, la loi Informatique et Libertés.
C’était d’ailleurs en partie le message de la CNIL qui, en pleine période Covid, avait notamment réagi à l’utilisation de TestWe en publiant un premier communiqué rappelant les règles à respecter en matière de vie privée et de surveillance d’examens à distance. Comme souvent, la CNIL semble s’être pour l’instant limitée à une communication sur le sujet et n’a pas, à notre connaissance, sanctionné les entreprises qui continuent à surveiller.
Cependant, dans ce document de 2020, la CNIL semblait condamner l’utilisation de TestWe en soulignant notamment que « n’apparaissent a priori pas proportionnés au regard de la finalité poursuivie :
les dispositifs de surveillance permettant de prendre le contrôle à distance de l’ordinateur personnel de l’étudiant (notamment pour vérifier l’accès aux courriels ou aux réseaux sociaux) ;
les dispositifs de surveillance reposant sur des traitements biométriques (exemple : reconnaissance faciale via une webcam). »
Or, si un système n’est pas proportionné, il devient purement illégal, et c’est clairement le cas ici.
Cependant, la CNIL semble aujourd’hui assouplir sa position. Elle vient ainsi, au moment de la publication de cet article, de publier un projet de recommandation sujet à consultation. Ce projet de recommandation promeut une interprétation très permissive du droit à la vie privée en donnant aux entreprises, et particulièrement à TestWe, le bon chemin pour mettre en place son système de surveillance hyper-intrusif (quelle base légale utiliser, comment justifier la reconnaissance faciale…).
Elle va jusqu’à déclarer quels traitements seraient, a priori et de facto, proportionnés.
Malgré l’illégalité de ces pratiques, TestWe continue pourtant, comme une grande partie des entreprises de la surveillance, à se faire de l’argent sur le dos des étudiant·es et de l’Université en contradiction frontale avec les plus élémentaires dispositions du droit à la vie privée et aux données personnelles.
TestWe, profiteur de crise sanitaire
Autre constat, surveiller les étudiant⋅es cela rapporte, et beaucoup. Si l’on s’en tient au chiffre d’affaires déclaré, TestWe aura plus que triplé son chiffre d’affaires entre 2019 et 2020, année du premier confinement, passant de 285.000 euros en 2019 à plus de 928.000 euros en 2020.
Non seulement cela rapporte en terme de chiffre d’affaires, mais cela aide aussi en terme d’investissement. TestWe ne s’est bien évidemment pas lancée toute seule. En juillet 2017, c’est la Banque Publique d’Investissement qui, avec d’autres acteurs financiers, a décidé d’investir dans la start-up en leur donnant 1,3 million d’euros pour lancer leur business sécuritaire. L’accroche ? Le gain de coût à organiser des examens en ligne, avec des robots, et non en salle avec des humain·es : « Avec la digitalisation, on peut diviser par 5 le nombre de personnes affectées à cette tâche ».
Et le succès ne faiblit malheureusement pas : si on en croit la page Linkedin de l’entreprise, ce sont plusieurs dizaines d »universités et d’écoles en majorité privées qui se mettent à utiliser ce système de surveillance biométrique.
Après quelques recherches cependant, il semblerait qu’une bonne partie des établissements du supérieur présents sur le site internet de TestWe n’utilise pas la télésurveillance de l’entreprise mais ont été des clients de la dématérialisation des examens. Seule trace, c’est l’UCLouvain, qui aurait fait l’expérience de la télésurveillance de TestWe lors d’un examen blanc et qui ne l’a pas retenu, évoquant même un « fiasco ».
De la surveillance au greenwashing
Le greenwashing est à la mode et les entreprises de la Technopolice prennent le train en marche ! En plus d’être discriminatoire, intrusif et déshumanisant, le contrôle imposé par TestWe rendrait « obsolète l’examen en salle dans la majorité des cas […] Les candidats sont de plus en plus réticents au stress et sensibles aux problèmes de transport et d’écologie. ». Mais derrière ce discours, les arguments ne tiennent pas : les questions écologiques seraient incompatibles avec le respect des droits fondamentaux et de la dignité humaine. Il est tout de même aberrant de justifier la surveillance par un argument pseudo-vert, quand on sait les coûts incommensurables que représente le numérique dans la pollution des terres à l’autre bout du monde pour produire les objets technologiques, la quantité d’électricité requise dont la part consacrée au numérique est sans cesse en augmentation et, on imagine, tout ce qu’il est nécessaire pour rendre possible des solutions comme TestWe, les quantités de données, d’heures de vidéos conservées afin de surveiller en direct toutes les étudiant·e⋅s.
La lutte des étudiant⋅es contre l’enseignement technopolisé
C’est désormais à l’Institut d’études à distance de Paris 8 d’imposer ces logiciels invasifs, discriminatoires et illégaux et ce, sans aucun dialogue ni possibilité d’opposition de la part des personnes concernées. En effet, fin octobre, la direction de Paris 8 a annoncé aux étudiant·es à distance qu’iels devraient passer leurs examens de janvier sur TestWe sans donner aucune précision sur les modalités de mise en place de cette plateforme. En réaction, un collectif d’étudiant·es s’est rassemblé, a effectué un important travail de documentation du logiciel, de communication auprès des étudiant.e.s et a même lancé une action en justice. Ainsi, après avoir contacté la CNIL, saisi le Défenseur des droits, signé collectivement une lettre d’inquiétude à la direction, le collectif s’est cotisé pour faire appel à un avocat et a décidé de médiatiser l’affaire. Le Tribunal administratif de Montreuil a été saisi en référé pour faire suspendre les décisions de l’IED et enjoindre l’Université à revenir aux conditions initiales d’examen. Une requête au fond a également été déposée pour obtenir une décision plus pérenne.
La Quadrature a déposé une intervention volontaire dans ces recours et nous leur témoignons tout notre soutien ! Vous trouverez nos écritures là.
Nous relayons des extraits de leur communiqué, expliquant la démarche des étudiants et étudiantes de l’IED. Vous pouvez en trouver la version complète ici.
La menace n’est même pas masquée : si TestWe n’est pas retenu, les examens se feront en présentiel et basculeront d’un système semestriel à un système annuel, privant par là-même les L3 de Droit et de Psychologie de candidature en Master. Ils perdraient donc une année. L’objectif de cette communication était bien évidemment de diviser les étudiants contre ceux qui ont exercé leurs droits, tout en évitant à la direction de remettre en question son fonctionnement illégal et liberticide.
L’objectif de l’action juridique est donc de suspendre les décisions illégales de l’IED et de leur faire injonction de revenir à ce qui était prévu en début d’année, à savoir : la passation des examens 2022-2023 à distance et sur la plateforme Moodle.
Il va également de soi que ces nouvelles conditions matérielles de passation des examens représentent une rupture d’égalité de traitement entre les étudiants, tout le monde ne pouvant pas se procurer le matériel à la dernière minute, ni contrôler la stabilité du réseau internet dont il dispose.
Les modalités d’usage imposées par TestWe constituent une véritable atteinte à la vie privée puisque les étudiants vont devoir se plier à une quarantaine d’interdits ou d’obligations liberticides à implémenter chez eux. Elles représentent également une atteinte à la protection des données, sachant que chacun devra désactiver tout pare-feu et anti-virus, laissant ainsi ses données exposées pendant que TestWe exploite les droits administrateurs. Enfin, elles ne ne se font pas dans le cadre d’un consentement libre : les CGU restent inaccessibles tant que le logiciel n’est pas installé. Les droits fondamentaux des individus sont également en jeu. Les personnes de confessions juives ou musulmanes sont impactées par l’obligation de garder tête, oreilles et cou découverts. Par ailleurs, le fait d’être pris en photo toutes les trois secondes porte directement atteinte au droit de l’image. Enfin, plusieurs interdictions totalement disproportionnées (comme, par exemple, manger, aller aux toilettes ou détourner les yeux de l’ordinateur) ne respectent pas la dignité humaine.
Certains étudiants se retrouvent dans des conditions particulièrement difficiles. Nous sommes notamment sensibles aux difficultés des étudiants en situation de handicap, ainsi qu’à tous les étudiants, largement majoritaires, pour qui l’IED représente leur unique chance de faire ces études.
Ces tentatives de nous imposer une télésurveillance liberticide, non respectueuse de la vie privée, de la protection des données personnelles et des contrats pédagogiques que nous avons signés, sont le reflet de l’absence de considération de l’IED envers ses étudiants. Nous ne nous laisserons pas faire.
";s:7:"dateiso";s:15:"20221202_183929";}s:15:"20221129_134521";a:7:{s:5:"title";s:58:"Paris 2024 : les olympiades sécuritaires du gouvernement";s:4:"link";s:95:"https://www.laquadrature.net/2022/11/29/paris-2024-les-olympiades-securitaires-du-gouvernement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19301";s:7:"pubDate";s:31:"Tue, 29 Nov 2022 12:45:21 +0000";s:11:"description";s:229:"À moins de deux ans des Jeux Olympiques et Paralympiques de Paris, et à un an de la Coupe du Monde de masculine de rugby présentée comme une sorte de « répétition générale » d’un grand événement…";s:7:"content";s:17518:"
À moins de deux ans des Jeux Olympiques et Paralympiques de Paris, et à un an de la Coupe du Monde de masculine de rugby présentée comme une sorte de « répétition générale » d’un grand événement sportif en France, où en sommes-nous des projets sécuritaires des décideurs publics ?
Les Jeux Olympiques de 2024 sont un accélérateur de surveillance, un prétexte pour déployer une vitrine sécuritaire des industriels français, qui contribue à renforcer les prérogatives et le nombre des agents de sécurité. Le sécuritarisme qui entoure les JO ne sera pas circonscrit à ces derniers, « l’Héritage » de sécurité des JO est déjà prévu par le Comité d’Organisation des Jeux Olympiques (COJO). Objectif : faire perdurer les investissement déployés pour les JO et la Technopolice qui vient avec. C’est ce qu’on nomme « l’effet cliquet » c’est-à-dire qu’un événement particulier justifie des mesures exceptionnelles qui, ensuite, ne seront plus remises en cause et sans retour en arrière possible.
Après avoir fait un premier état des lieux de cette frénésie sécuritaire, les nombreuses et récentes annonces concernant les Jeux Olympique imposaient une mise à jour des velléités du gouvernement.
Les Jeux olympiques, le prétexte pour légaliser la vidéosurveillance algorithmique
Les grands événements sportifs sont depuis toujours des accélérateurs de surveillance et les Jeux Olympiques de Paris ne sont pas en reste. Quelle meilleure occasion pour tenter de faire rentrer dans la loi des dispositifs aujourd’hui illégaux ? Après avoir envisagé de légaliser la reconnaissance faciale pour l’occasion, c’est la vidéosurveillance algorithmique (VSA) qui semble avoir été choisie par les organisateurs.
Ainsi, comme l’a annoncé le ministre Darmanin lors d’une audition au Sénat, au début de l’année 2023 une « loi sur les Jeux Olympiques » sortira des cartons. L’objectif sera de légaliser la vidéosurveillance algorithmique, c’est-à-dire la détection par logiciel d’événements et de comportements dits « suspects ». Une occasion pour les entreprises françaises de montrer leur savoir-faire en matière de répression, et pour le gouvernement de déployer une technologie encore illégale, mais dont les offres commerciales sont déjà très présentes. En même temps, une mission d’information de l’Assemblée Nationale auditionne des acteurs (entreprises privée comme Datakalab et organismes publics comme la CNIL, ou la Préfecture de police de Paris) sur « les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». On sent bien qu’il y a dans l’air une volonté d’accélérer et de de donner une assise légale à l’installation de ces technologies.
Or la VSA est tout aussi dangereuse que la reconnaissance faciale, toutes deux recourant à de l’analyse biométrique, c’est-à-dire à la détection de corps pour repérer ou identifier une personne, comme nous le développions ici ou comme le reconnaît le Défenseur des Droits. La légalisation de la VSA et donc les JO seront surtout l’occasion de déployer toujours plus de caméras de vidéosurveillance. Ainsi aux 4171 caméras de vidéosurveillance déjà déployées par la ville de Paris, l’Intérieur compte en rajouter pas moins de 1000, ainsi que 500 à Saint Denis et 330 à Marseille (où se dérouleront les épreuves nautiques). En tout, ce sont pas moins de 15 000 caméras supplémentaires qui vont être déployées pour les JO et la Coupe du Monde de Rugby, pour 44 millions d’euros via les « plans Zéro Délinquance ». La vidéosurveillance algorithmique et les Jeux sont une nouvelle occasion pour étendre le parc de surveillance de l’espace public.
Les Jeux sont aussi une étape pour travailler l’acceptation par la population de telles technologies. Ainsi, l’état d’exception créé par les Jeux olympiques permet de faire passer des lois sécuritaires qui resteront par la suite, comme l’explique Jules Boykoff. Depuis le début de la campagne Technopolice, des entreprises et villes de France expérimentent illégalement la VSA. L’opportunité que représentent les JO 2024 permet de passer à l’étape suivant : légaliser ces technologies, d’abord pour un grand événement exceptionnel, ensuite pour les généraliser. C’est tout ce travail d’acceptabilité, de réception sociale par la population de ces technologies qui se joue avec les Jeux Olympiques
Les autres projets du ministère de l’intérieur : de la répression pour les habitant·es d’île-de-France
Un centre de renseignement olympique, prévu par la loi olympique de 2018, a été créé courant 2022, regroupant les services de renseignements. Son objectif : « En collaboration avec la police judiciaire, les agences de renseignement vont aussi maintenir la surveillance de tout individu suspect et de groupes qui pourraient représenter une menace pour la sécurité nationale et le bon déroulement des Jeux. » est-il écrit dans le dossier de candidature de la ville.
La menace terroriste est abondamment évoquée pour justifier le déploiement de tout cet arsenal sécuritaire. Darmanin parle des « terroristes islamistes, de l’ultra-droite et de l’ultra-gauche ». Et affirme que les renseignement feront un « effort » en amont pour « maîtriser » ces personnes au moment des JO. Ce n’est pas sans rappeler la COP21 en 2015, où nombre de militants et militantes écolos s’étaient vus perquisitionnés, arrêtés pour certains et assignés à résidence peu avant le début de l’événement. A cette époque, le gouvernement avait profité de l’État d’Urgence pour mettre en place ces mesures répressives, depuis elles sont rentrées dans le droit commun.
Le ministre de l’Intérieur a par ailleurs annoncé lors de son audition au Sénat qu’il allait bientôt débuter un « plan zéro délinquance » dont 3500 des 5500 opérations policières prévues se dérouleront en Île-de-France afin de « harceler et nettoyer la délinquance » dixit Darmanin. Comme c’est le cas lors de grands événements, l’État français en profite pour justifier un harcèlement des populations qui ont le malheur de vivre là où vont se dérouler les jeux…
L’enjeu de la sécurité privée pour les Jeux : polices partout
Dans cet article, le journaliste Thomas Jusquiame revient sur la naissance de la sécurité privée au XIXème siècle en France, où la police embauchait des mouchards, sorte d’auxiliaires de police chargés de les renseigner sur les agissements des malfrats parisiens. Et retrace l’institutionnalisation de cette sécurité privée jusqu’à aujourd’hui, où le Livre Blanc de la sécurité intérieure leur offre une consécration à travers le fameux concept de « continuum de la sécurité privée ». « Moralisée, intégrée, contrôlée, protégée, alimentée, organisée, la sécurité privée n’a jamais paru autant en harmonie avec les forces de répression régaliennes. » (ibid)
En ce qui concerne les JO, la peur d’un scénario similaire à celui du Royaume-Uni en 2012 plane. L’entreprise de sécurité privée mandatée par l’État les avait lâchés trois semaines avant le début des Jeux par manque d’agents et le gouvernement britannique avait dû recourir à l’armée. En France, à deux ans des JO et un an de la Coupe du monde de Rugby, les 25 000 à 30 000 agents de sécurité privée demandés par le COJO manquent toujours à l’appel.
La sécurité privée constitue donc un des grands enjeux de l’organisation de ces Jeux Olympiques. Se pose tout d’abord le problème du recrutement : le CNAPS (Conseil national des activités privées de sécurité) tente de rendre ce métier attractif, à travers des formations payées par l’État, des appels personnalisés de tous les chômeurs et chômeuses d’île-de-France pour les convaincre d’entreprendre une formation, un ciblage des étudiants et étudiantes (ils semblent être en demande de personnel « féminin » pour réaliser les fouilles). La peur d’un manque d’agents se fait sentir.
Parce qu’aux difficultés de recrutement s’ajoute celle de la « menace intérieure », c’est-à-dire de personnes qui souhaiteraient intégrer les forces de sécurité pour nuire. A ce titre le SNEAS (Service national des enquêtes administratives de sécurité) prévoit de réaliser pas moins d’un million d’enquêtes administrative en vue des JO, dont la grande majorité concerneront le recrutement d’agents de sécurité privé. Car le COJO a d’ores et déjà annoncé en septembre 2022 avoir refusé entre 100 et 200 personnes fichées S. Une bonne manière de se rendre compte du fichage massif de la population. Darmanin propose même que dans ce projet de loi olympique soit inscrit le fait que les agents de sécurité privée puissent être dotés de caméras piétons.
Les Jeux olympiques confirment la tendance à l’intégration de la sécurité privée en tant que force de police institutionnalisée et bras armé de l’État. L’augmentation de ses effectifs et de ses prérogatives en vue des jeux olympiques s’incarne dans la tendance du tout-sécuritaire de l’espace public.
Des expérimentations aux appels d’offre : le perfectionnement de la souveraineté technopolicière française
Afin d’être sûrs que les technologies employées pour les jeux olympiques de 2024 fonctionnent, les industriels réalisent des expérimentations lors de divers événements sportifs dont la Coupe du Monde de Rugby de 2023, qui sera une sorte de répétition générale. Certaines ont déjà eu lieu mais nombre d’entre elles devraient encore être testées avant la fin de l’année 2022. Elles ont été mises en œuvre par les entreprises ayant répondu aux Appels à Manifestation d’Intérêt (AMI) uivants : « Dans le cadre d’un programme d’expérimentation de technologies par les services de sécurité du ministère de l’Intérieur. Les solutions recherchées portent sur des moyens de commandement, la vidéo dite « intelligente », l’OSINT, la surveillance aéroportée ou encore la cybersécurité », le tout avec un budget de 21,5 millions d’euros, uniquement pour les tests. Au moins 80% de ces « solutions » seront françaises affirme fièrement le préfet Olivier de Mazières, délégué ministériel aux partenariats, aux stratégies et aux industries de sécurité (DPSIS) Déjà plus de 144 expérimentations ont été menées sur une cible finale de 180 expérimentations, et qu’elles ont mobilisé 131 sociétés identifiées comme françaises.
On pense à la reconnaissance faciale testée à Rolland Garros par Thalès, ou encore à la start-up Two-I qui avait voulu identifier les visages des personnes interdites de stade souhaitant rentrer au stade de Metz en 2020 et qui avait reçu un avertissement de la CNIL pour ce projet. Tout comme la coupe du monde au Qatar, le sport et ses supporters semblent être un terrain d’expérimentation privilégié de la technopolice. Coupe du monde où l’on retrouve des grands groupes français comme Thalès chargés de déployer des algorithmes de reconnaissance automatique de comportements anormaux…
Pour Paris 2024, des financements de la recherche, accordés aux expérimentations en amont puis aux tests grandeur nature lors des Jeux, permettent aux industriels de la technopolice de se perfectionner et de devenir plus compétitif au niveau international. Comme le montre Myrtille Picaud, les JO constituent une sorte de catalyseur pour structurer et renforcer la filière des industriels de la sécurité française. L’occasion est trop belle pour ces entreprises, que ce soit des multinationales comme Thalès ou des start-up comme Two-I ou XXII : le marché de la sécurité français leur est offert sur un plateau d’argent. Le champ est libre, du maintien de l’ordre et de la répression policière en France à la vente de ces armes technologiques à l’étranger.
Cette tendance au tout sécuritaire s’inscrit dans une augmentation sans vergogne de tous les budgets ayant trait à la sécurité, et aux technologies de surveillance. Tout comme le ministère de l’Intérieur voit son budget augmenter de pas moins de 15 milliards d’euros, l’inclinaison est similaire pour le budget sécurité des jeux olympiques. D’abord prévu à 182 millions d’euros, celui-ci est passé à 295 millions d’euros et risque de s’accroître encore. Pas de fin de l’abondance pour la surveillance et la répression !
Les JO 2024 apparaissent comme un accélérateur de surveillance et de tendances sécuritaires déjà présentes. Ils représentent une « occasion », un prétexte, comme bien d’autres méga-événements auparavant, afin de justifier le déploiement de mesures présentées comme exceptionnelles. Mais ces choix s’inscrivent en réalité dans une logique de long terme, destructrices de droits mais aussi de mode de vie, d’habitat, d’environnement, comme le démontre depuis plusieurs années maintenant le collectif Saccage 2024. Ces derniers appellent à un rendez-vous le dimanche 11 décembre, devant le siège du COJO, la veille du conseil d’administration, pour « faire la fête » au Comité d’Organisation des JO et leur montrer notre désaccord autour d’un goûter. Plus d’info ici. Luttons contre les JO et le monde sécuritaire qu’ils amènent avec eux !
";s:7:"dateiso";s:15:"20221129_134521";}s:15:"20221115_155525";a:7:{s:5:"title";s:52:"La Quadrature lance sa campagne de soutien pour 2023";s:4:"link";s:93:"https://www.laquadrature.net/2022/11/15/la-quadrature-lance-sa-campagne-de-soutien-pour-2023/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19183";s:7:"pubDate";s:31:"Tue, 15 Nov 2022 14:55:25 +0000";s:11:"description";s:270:"Déjà novembre et la fin de l’année ! Les illuminations de Noël qui scintillent ! Les factures d’électricité qui crépitent ! Enfin la course aux cadeaux de dernière minute ! Le vin chaud en plein air, tandis qu’il fait…";s:7:"content";s:9220:"
Déjà novembre et la fin de l’année ! Les illuminations de Noël qui scintillent ! Les factures d’électricité qui crépitent ! Enfin la course aux cadeaux de dernière minute ! Le vin chaud en plein air, tandis qu’il fait vingt-cinq degrés dehors ! Bref, c’est la saison des fêtes et de la fin du monde, et comme les joies n’arrivent jamais seules, c’est aussi la saison des campagnes de dons.
Vous êtes déjà énormément sollicité·es, on le sait bien, parce qu’on est comme vous et qu’on donne déjà aux associations qu’on aime (n’oubliez pas Framasoft, Nos Oignons ou Wikipédia par exemple et parmi tant d’autres !). Alors, pourquoi consacrer un peu de temps et d’argent à soutenir La Quadrature du Net ?
Pourquoi des dons ?
La Quadrature a besoin d’argent pour fonctionner : l’association compte 7 salarié·es, elle a un local à Paris, elle doit payer des billets de train et imprimer des affiches, tout cela a un coût. Et nous avons deux boulets aux pieds : d’un côté nous refusons de toucher des subventions publiques, pour des raisons d’indépendance évidentes (notre travail nous amène à critiquer et même à attaquer en justice les pouvoirs publics, tandis que la loi Séparatisme implique pour les associations subventionnées une forme de soumission croissante à l’État) ; de l’autre côté, le ministère des Finances nous a refusé le rescrit fiscal qui vous permettrait de déduire vos dons de vos impôts.
Nous touchons quelques subventions de deux fondations philanthropiques, pour moins de 20 % de nos ressources annuelles. Mais tout le reste vient de vous (c’est expliqué en détail ici).
Chaque année, nous devons donc convaincre assez de donateurs et de donatrices pour vivre une année de plus.
Des dons pour quoi faire ?
Si vous ne connaissez pas l’association et ses missions, vous tombez bien : venez par là, on vous a préparé des vidéos pour expliquer en quelques minutes ce qu’on fait. Vous verrez comment la criminalisation du partage, au moment de la loi Hadopi, a donné naissance à l’association en 2008. Vous comprendrez très vite pourquoi la « neutralité du net » est essentielle pour la fiabilité et la créativité du réseau Internet, et vous prendrez rapidement la mesure des problèmes posés par l’exploitation marchande de nos données personnelles. Ensuite, on vous racontera comment le numérique met, de façon concertée, sa formidable puissance au service de la censure, de la surveillance, du renseignement, et du contrôle de la population. De ce point de vue, la répression des joyeux partageurs de 2008 était un avant-goût de ce qui se déploie aujourd’hui partout, depuis le traçage de nos activités sur le web jusqu’à la surveillance serrée de nos déplacements dans les villes.
Quoi de neuf en 2023 ?
En mars prochain, La Quadrature du Net aura 15 ans. C’est jeune, mais c’est déjà assez pour regarder l’histoire : plusieurs de nos membres ont écrit un livre pour raconter ces quinze années d’engagement et montrer l’évolution naturelle de l’association dans ses moyens et dans ses sujets. Le livre est présenté ici et vous pouvez le commander en ligne. La suite de l’histoire, il nous revient de l’écrire ensemble.
Alors, en 2023, on fait quoi ?
On continue bien sûr de lutter contre Hadopi (ce machin est coriace). On reste sur le qui-vive pour défendre le principe de la neutralité des réseaux partout où l’industrie cherche à le contourner. On continue les actions juridiques, politiques et pratiques contre l’exploitation commerciale des données personnelles par les grands groupes privés qui mettent le web en silos, orientent nos navigations et les transforment en visite guidée publicitaire. Et plus que jamais, on se mobilise contre la transformation des outils numériques en engins de surveillance totale.
C’est sans doute notre dossier le plus important aujourd’hui, rassemblé sous la bannière de notre campagne Technopolice : comme le montrent le livre blanc de la sécurité intérieure de 2020 et le rapport publié en 2022 en annexe de la LOPMI, le ministre de l’Intérieur et le gouvernement sont bien décidés à transformer la police et les autres forces de sécurité, publiques et privées, en « cyberflics » du futur : capteurs, caméras portées, écran intégré au casque, fichiers et flux de données consultés à distance, vidéosurveillance automatisée par des algorithmes, reconnaissance faciale, micros « intelligents » dans les rues, drones… L’arsenal de la surveillance numérique est délirant, mais il attire les investissements par millions, et même la Coupe du Monde de Rugby de 2023 et les Jeux Olympiques de 2024 à Paris sont envisagés comme des vitrines et des laboratoires d’expérimentation pour l’industrie de la surveillance technologique totale « à la française ».
Mais la surveillance numérique, aussi diffuse et généralisée que la souplesse de l’outil le permet, prend aujourd’hui bien d’autres formes que la seule surveillance policière. Nous sommes en particulier très attentifs, depuis plusieurs mois, à la question des algorithmes que l’État utilise pour prendre des décisions administratives. Après une première approche des algorithmes de contrôle de la CAF, nous travaillerons cette année sur les autres applications de ces outils, qui sont l’application de politiques publiques discriminatoires et arbitraires, jamais débattues en public, et dont la place prééminente dans les services publics doit être combattue.
Parce que le monde numérisé grandit chaque jour en étendue et en complexité, parce que les dispositifs de contrôle et de surveillance entrent chaque année plus loin dans l’intimité de nos vies, soutenez l’association qui défend « nos droits et nos libertés à l’ère du numérique » : faites un don à La Quadrature du Net !
Merci et datalove <3
";s:7:"dateiso";s:15:"20221115_155525";}s:15:"20221028_104919";a:7:{s:5:"title";s:56:"Examen de la LOPMI : Refusons les policiers programmés";s:4:"link";s:93:"https://www.laquadrature.net/2022/10/28/examen-de-la-lopmi-refusons-les-policiers-programmes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=19053";s:7:"pubDate";s:31:"Fri, 28 Oct 2022 08:49:19 +0000";s:11:"description";s:268:"Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 28 octobre 2022.
La loi d’orientation et de programmation du ministère de l’Intérieur (la « LOPMI ») a été adoptée au Sénat et sera débattue à l’Assemblée…";s:7:"content";s:8983:"
Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 28 octobre 2022.
La loi d’orientation et de programmation du ministère de l’Intérieur (la « LOPMI ») a été adoptée au Sénat et sera débattue à l’Assemblée nationale dans les prochaines semaines. Ce texte soulève de sérieuses inquiétudes pour les sujets touchant aux libertés fondamentales dans l’environnement numérique.
L’Observatoire des libertés et du numérique appelle les député·es à rejeter massivement ce texte.
1. Un rapport programmatique inquiétant promouvant une police cyborg
S’agissant d’une loi de programmation, est annexé au projet de texte un rapport sans valeur législative pour décrire les ambitions gouvernementales sur le long terme et même, selon Gérald Darmanin, fixer le cap du « réarmement du ministère de l’Intérieur ». Déjà, en soi, le recours à une sémantique tirée du registre militaire a de quoi inquiéter. Véritable manifeste politique, ce rapport de 85 pages fait la promotion d’une vision fantasmée et effrayante du métier de policier, où l’agent-cyborg et la gadgétisation technologique sont présentés comme le moyen ultime de faire de la sécurité.
L’avenir serait donc à l’agent « augmenté » grâce à un « exosquelette » alliant tenue « intelligente » et équipements de surveillance. Nouvelles tablettes, nouvelles caméras piéton ou embarquées, promotion de l’exploitation des données par intelligence artificielle, sont tout autant d’outils répressifs et de surveillance que le rapport prévoit d’instaurer ou d’intensifier. Le ministère rêve même de casques de « réalité augmentée » permettant d’interroger des fichiers en intervention. C’est le rêve d’un policier-robot qui serait une sorte de caméra mobile capable de traiter automatiquement un maximum d’information. Ce projet de robotisation aura pour premier effet de rendre plus difficile la communication entre les forces de l’ordre et la population.
Cette projection délirante se poursuit sur d’autres thématiques sécuritaires. Le ministère affiche par exemple la volonté de créer des « frontières connectées » avec contrôles biométriques, drones ou capteurs thermiques. Il confirme également son obsession toujours plus grande de la vidéosurveillance en appelant à en tripler le budget à travers les subventions étatiques du fonds interministériel de prévention de la délinquance (FIPD), malgré l’inutilité démontrée et le coût immense de ces équipements.
Qu’il s’agisse de délire sécuritaire ou de calcul électoraliste, le rapport livre une vision inquiétante du numérique et de la notion de sécurité. Malgré son absence de portée normative, pour le message qu’il porte, l’OLN appelle donc les député·es à voter la suppression de ce rapport et l’article 1 dans son entièreté.
2. Un affaiblissement du cadre procédural des enquêtes policières
Ensuite, le fond des dispositions est guidé par un objectif clair : supprimer tout ce que la procédure pénale compte de garanties contre l’autonomie de la police pour faciliter le métier du policier « du futur ». La LOPMI envisage la procédure pénale uniquement comme une lourdeur administrative inutile et inefficace, détachée du « cœur de métier » du policier, alors qu’il s’agit de règles pensées et construites pour protéger les personnes contre l’arbitraire de l’État et renforcer la qualité des procédures soumises à la justice. On peut d’ailleurs s’étonner que le texte soit principalement porté par le ministère de l’Intérieur alors qu’il s’agit en réalité d’une refonte importante de la procédure pénale semblant plus relever de l’organisation judiciaire.
De manière générale, l’esprit du texte est assumé : banaliser des opérations de surveillance en les rendant accessibles à des agents moins spécialisés et en les soustrayant au contrôle de l’autorité judiciaire. Le texte permet ainsi à de nouvelles personnes (des assistants d’enquête créés par le texte ou des officiers de police judiciaire qui auraient plus facilement accès à ce statut) de faire de nombreux actes d’enquête par essence intrusifs et attentatoires aux libertés.
Par exemple, l’article 11 prévoit que les officiers de police judiciaire peuvent procéder directement à des « constatations et examens techniques » et à l’ouverture des scellés sans réquisition du procureur. Complété par des amendements au Sénat, cet article facilite désormais encore plus les interconnexions et accès aux fichiers policiers (notamment la collecte de photographie et l’utilisation de la reconnaissance faciale dans le fichier TAJ ainsi que l’analyse de l’ADN dans le FNAEG), contribuant à faire davantage tomber les barrières pour transformer le fichage massif en un outil de plus en plus effectif de contrôle des populations.
Ensuite, l’article 12 conduit en pratique à une présomption d’habilitation à consulter des fichiers pendant une enquête ou une instruction. Sous couvert d’une protection contre les nullités de procédure, cette simplification soustrait les policiers à toute contrainte formelle et supprimerait une garantie fondamentale de protection du droit à la vie privée. Cette disposition permettrait un accès total aux fichiers et viderait par ailleurs de leur substance l’ensemble des textes existants visant à limiter l’accès (pourtant déjà très souple), pour chaque fichier, à une liste de personnes habilitées et déterminées. On assiste ainsi à un « effet cliquet »: après avoir multiplié les fichages en prétextant des garanties, on vient ensuite en faciliter les accès et les interconnexions.
3. L’amende forfaitaire délictuelle : une utilisation du numérique contre les justiciables
Par cette dynamique, le gouvernement fait passer la répression et la surveillance comme l’outil principal du travail policier et affaiblit considérablement le socle de protection de la procédure pénale.
Le projet d’étendre encore un peu plus le champ d’application de l’amende forfaitaire délictuelle (AFD) en est l’une des illustrations les plus éloquentes : cette procédure — dont l’efficacité prétendue n’est mesurée qu’à l’aune du nombre d’amendes prononcées et à la rapidité de la sanction — repose sur un usage de l’outil numérique permettant d’industrialiser et automatiser le fonctionnement de la justice pénale en affaiblissant les garanties contre l’arbitraire, en entravant le débat contradictoire, et en transformant l’autorité judiciaire en simple « contrôleur qualité ».
Les forces de l’ordre sont ainsi transformés en « radars mobiles » de multiples infractions, le tout sans véritable contrôle judiciaire et en multipliant les obstacles à la contestation pour la personne sanctionnée.
L’évolution vers cette justice-là n’est pas un progrès pour notre société.
Ce projet, s’il est adopté, porterait une atteinte sérieuse au nécessaire équilibre qui doit exister entre, d’une part, la protection des libertés individuelles et collectives et, d’autre part, l’action des policiers. Les député·es doivent donc rejeter ce texte qui affaiblit le contrôle nécessaire de l’activité policière et met en danger les équilibres institutionnels qui fondent la démocratie.
Organisations signataires membres de l’OLN : Le CECIL, Creis-Terminal, Globenet,La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM).
";s:7:"dateiso";s:15:"20221028_104919";}s:15:"20221019_124740";a:7:{s:5:"title";s:87:"CAF : le numérique au service de l’exclusion et du harcèlement des plus précaires";s:4:"link";s:119:"https://www.laquadrature.net/2022/10/19/caf-le-numerique-au-service-de-lexclusion-et-du-harcelement-des-plus-precaires/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18967";s:7:"pubDate";s:31:"Wed, 19 Oct 2022 10:47:40 +0000";s:11:"description";s:226:"Depuis bientôt un an nous luttons au sein du collectif « Stop Contrôles » afin de s’opposer aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle…";s:7:"content";s:108549:"
Depuis bientôt un an nous luttons au sein du collectif « Stop Contrôles »1Il est possible de contacter le collectif « Stop Contrôles » à l’adresse suivante: stop.controles@protonmail.com pour des récits ou des problématiques actuelles face au contrôles de la CAF ou de Pôle emploi, mais également pour trouver des manières collectives de s’y opposer.afin de s’opposer aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle social. Après avoir abordé la situation à Pôle Emploi, nous nous intéressons ici au cas des Caisses d’Allocations Familiales (CAF). Nous reviendrons bientôt sur les suites de cette lutte dans laquelle nous souhaitons pleinement nous engager dans les prochains mois.
« Entre la CAF et vous, il n’y a qu’un clic ». Voilà ce que l’on pouvait lire sur une affiche de la CAF en ce début d’année. Et le sous-titre laisse rêveur : « Accédez à tous les services de la CAF 24h/24 ». Vaine promesse d’un numérique facilitant l’accès aux prestations sociales, et ce, à toute heure du jour et de la nuit. Sinistre slogan masquant la réalité d’une informatisation à outrance, vecteur d’une exclusion sociale calculée.
Alors que la généralisation des démarches en ligne s’accompagne avant tout d’une réduction des capacités d’accueil physique, mode de contact pourtant essentiel pour les personnes en situation de précarité2Voir le rapport du Défenseur des Droits « Dématérialisation des services publics: 3 ans après », disponible ici et l’appel signé par 300 associations/collectifs sur les difficultés engendrées pour les publics en situation de précarité disponible ici., c’est à un algorithme que la CAF laisse le soin de prédire quel·les allocataires seraient «(in)dignes » de confiance et doivent être contrôlé·es3Voir l’avis de la CNIL décrivant l’algorithme comme un « outil permettant de détecter dans les dossiers des allocataires les corrélations existantes entre les dossiers à risque (comportements types des fraudeurs)», disponible ici. Cet avis, positif, est par ailleurs vertigineusement vide de toute critiques portant tant sur le fond du projet et les risques de discrimination qu’il porte que sur le détournement des finalités des données des allocataires collectées initialement pour les besoins de l’état social. Il se borne globalement à recommander un chiffrement de la base de données.. Chargé de donner une note à chaque allocataire, censé représenter le «risque » qu’iel bénéficie indûment d’aides sociales, cet algorithme de scoring sert une politique de harcèlement institutionnel des plus précaires4Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250..
L’algorithme de la honte
Nourri des centaines de données dont la CAF dispose sur chaque allocataire5Pour des détails techniques sur l’algorithme et son entraînement voir l’article de Pierre Collinet « Le datamining dans les caf: une réalité, des perspectives », écrit en 2013 et disponible ici. Il y explique notamment que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude., l’algorithme évalue en continu leur situation afin de les classer, les trier, via l’attribution d’une note (« score de risque »). Cette note, mise à jour mensuellement, est ensuite utilisée par les équipes de contrôleurs·ses de la CAF pour sélectionner celles et ceux devant faire l’objet d’un contrôle approfondi6Les contrôles à la CAF sont de trois types. Les contrôles automatisés sont des procédures de vérification des déclarations des allocataires (revenus, situation professionnelle..), organisés via à l’interconnexion des fichiers administratifs (impôts, pôle emploi…). Ce sont de loin les plus nombreux. Les contrôles sur pièces consistent en la demande de pièces justificatives supplémentaires à l’allocataire. Enfin les contrôles sur place sont les moins nombreux mais les plus intrusifs. Réalisé par un.e contrôleur.se de la CAF, ils consistent en un contrôle approfondi de la situation de l’allocataire. Ce sont ces derniers qui sont aujourd’hui en très grande majorité déclenchés par l’algorithme suite à une dégradation de la note d’un allocataire (Voir Vincent Dubois, « Contrôler les assistés » p.258). Il est à noter que les contrôles sur place peuvent aussi provenir de signalements (police, pôle emploi, conseiller.ère.s…) ou de la définition de cibles-types définies soit localement soit nationalement(contrôles RSA, étudiants…). Ces deux catégories représentaient la plupart des raisons de déclenchement des contrôles avant le recours à l’algorithme..
Les quelques informations disponibles révèlent que l’algorithme discrimine délibérément les précarisé·e·s. Ainsi, parmi les éléments que l’algorithme associe à un risque élevé d’abus, et impactant donc négativement la note d’un·e allocataire, on trouve le fait7La CAF entretient une forte opacité autour des critères régissant son fonctionnement. Elle refuse même de donner plus d’informations aux allocataires ayant fait l’objet d’un contrôle suite à une dégradation de leur score. ll n’existe pas de documents présentant l’ensemble des paramètres, et leur pondération, utilisés par l’algorithme dit de « régression logistique ». Les informations présentées ici sont issues des sources suivantes: l’avis de la CNIL portant sur l’algorithme; le livre de Vincent Dubois « Contrôler les assistés »; la Lettre n°23 de la Délégation Nationale à la lutte contre la fraude disponible ici (voir pages 9 à 12); le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. L’article de Pierre Collinet « Le datamining dans les caf: une réalité, des perspectives », disponible ici détaille notamment la construction de l’algorithme. :
– D’avoir des revenus faibles,
– D’être au chômage ou de ne pas avoir de travail stable,
– D’être un parent isolé (80% des parents isolés sont des femmes)8Voir la note de l’Insee disponible ici.,
– De dédier une part importante de ses revenus pour se loger,
– D’avoir de nombreux contacts avec la CAF (pour celleux qui oseraient demander de l’aide).
D’autres paramètres comme le lieu de résidence, le type de logement (social…), le mode de contact avec la CAF (téléphone, mail…) ou le fait d’être né·e hors de l’Union Européenne sont utilisés sans que l’on ne sache précisément comment ils affectent cette note9Sur l’utilisation de la nationalité comme facteur de risque, voir le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. Y est cité une circulaire interne de la CAF (n°2012-142 du 31 août 2012) recommandant notamment de « cibl[er] les personnes nées hors de l’Union européenne ». Le rôle de la DNLF dans le développement des outils de scoring y est aussi mentionné.. Mais il est facile d’imaginer le sort réservé à une personne étrangère vivant en banlieue défavorisée. C’est ainsi que, depuis 2011, la CAF organise une véritable chasse numérique aux plus défavorisé·e·s, dont la conséquence est un sur-contrôle massif des personnes pauvres, étrangères et des femmes élevant seules un enfant10Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250..
Pire, la CAF s’en vante. Son directeur qualifie cet algorithme comme étant partie prenante d’une « politique constante et volontariste de modernisation des outils de lutte contre les fraudeurs et les escrocs ». L’institution, et son algorithme, sont par ailleurs régulièrement présentés au niveau étatique comme un modèle à suivre dans la lutte contre la « fraude sociale », thématique imposée par la droite et l’extrême droite au début des années 200011Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250..
Comment un dispositif si profondément discriminatoire peut-il être publiquement défendu, qui plus est par une administration sociale ? C’est ici que l’informatisation du contrôle social revêt un caractère particulièrement dangereux, à travers l’alibi technique qu’il offre aux responsables politiques.
Un alibi technique à une politique inique
L’utilisation de l’algorithme permet tout d’abord à la CAF de masquer la réalité sociale du tri organisé par sa politique de contrôle. Exit les références au ciblage des allocataires de minima sociaux dans les «plans annuels de contrôle ». Ces derniers font désormais état de « cibles datamining », sans que jamais ne soient explicités les critères associés au calcul des « scores de risques ». Comme le dit un contrôleur de la CAF : « Aujourd’hui c’est vrai que le data nous facilite les choses. Je n’ai pas à dire que je vais sélectionner 500 bénéficiaires RSA. C’est pas moi qui le fais, c’est le système qui le dit ! (Rires). »12Ces citations sont tirées du rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil. Concernant l’extension du droit de communication, voir pages 53-54.
La notion de « score de risque » est par ailleurs mobilisée pour individualiser le processus de ciblage et nier son caractère discriminatoire. Un responsable du contrôle de la CAF déclarait ainsi devant des député·es que « Plus que de populations à risque, nous parlons de profils d’allocataires à risque, en lien avec le data mining »13Voir le rapport « Lutter contre les fraudes aux prestations sociales » disponible ici et surtout le compte rendu des audiences menées dans ce cadre disponible ici. On notera en particulier à la page 85 la retranscription de l’échange avec des employé.e.s des services sociaux de Meurthe et Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé ‘expert de la lutte contre la fraude’. Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout.. En d’autres termes, la CAF avance que son algorithme ne vise pas les pauvres en tant que catégorie sociale mais en tant qu’individus. Une grande partie des « facteurs de risques » utilisés pour cibler les allocataires sont pourtant des critères sociodémographiques associés à des situations de précarité (faibles revenus, situation professionnelle instable…). Ce jeu rhétorique est donc un non-sens statistique comme le rappelle le Défenseur des Droits14Sur l’utilisation de la nationalité comme facteur de risque, voir le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. Y est cité une circulaire interne de la CAF (n°2012-142 du 31 août 2012) recommandant notamment de « cibl[er] les personnes nées hors de l’Union européenne ». Le rôle de la DNLF dans le développement des outils de scoring y est aussi mentionné. : « Plus qu’un ciblage sur des « risques présumés », la pratique du data mining contraint à désigner des populations à risque et, ce faisant, conduit à instiller l’idée selon laquelle certaines catégories d’usagers seraient plus enclines à frauder ».
Enfin, le recours à l’algorithme est utilisé par les dirigeant·es de la CAF pour se défausser de la responsabilité du choix des critères de ciblage des personnes à contrôler. Ielles transforment ce choix en un problème purement technique (prédire quels sont les dossiers les plus susceptibles de présenter des irrégularités) dont la résolution relève de la responsabilité des équipes de statisticien·nes de l’institution. Seule compte alors l’efficacité de la solution proposée (la qualité de la prédiction), le fonctionnement interne de l’algorithme (les critères de ciblage) devenant un simple détail technique ne concernant pas les responsables politiques15 L’algorithme utilisé, une régression logistique, est un algorithme dit à apprentissage supervisé. A l’image des algorithmes d’analyses d’images, ces algorithmes ‘apprennent’ à détecter certaines choses à partir d’exemples annotés. Ainsi un algorithme de reconnaissance de chats sur des images est, pour le dire schématiquement, simplement entraîné via l’analyse de nombreuses photos annotées chat/pas chat. La tâche de l’algorithme, on parle de phase d’apprentissage, est alors de construire un modèle statistique permettant de reconnaître dans le futur des photos de chat, sans que nul n’ait besoin d’expliciter, à priori, les critères permettant de les identifier. Le recours à un tel algorithme pour la CAF offre donc l’avantage, purement rhétorique, que les critères de ciblage (situation professionnelle, familiale, financière…) semblent ne plus être choisis à priori par la CAF (Voir Vincent Dubois, « Contrôler les assistés » cité précedemment) mais le fruit d’une analyse statistique (corrélations entre ces variables et la probabilité qu’un dossier soit irrégulier).. Un directeur de la CAF peut ainsi dire publiquement: « Nous [la CAF] ne dressons pas le profil type du fraudeur. Avec le datamining, nous ne tirons pas de conclusions », omettant simplement de dire que la CAF délègue cette tâche à son algorithme.
Un sur-contrôle anticipé des plus précaires
Voilà ce que nous souhaitons répondre aux responsables qui nient le caractère politique de cet algorithme : l’algorithme n’a appris à détecter que ce que vous avez décidé de cibler. Le sur-contrôle des plus précaires n’est ni un hasard, ni le résultat inattendu de complexes opérations statistiques. Il résulte d’un choix politique dont vous connaissiez, avant même le déploiement de l’algorithme, les conséquences pour les précarisé·es.
Ce choix est le suivant16Pour des détails techniques sur l’algorithme et son entraînement voir l’article de Pierre Collinet « Le datamining dans les caf: une réalité, des perspectives », écrit en 2013 et disponible ici. Il y explique notamment que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude.. Malgré la communication de la CAF autour de son nouvel outil de « lutte contre la fraude » (voir par exemple ici, ici ou ici), l’algorithme a été conçu non pas pour détecter la fraude, qui revêt un caractère intentionnel, mais les indus (trop-perçus) au sens large17Il semblerait qu’initialement l’algorithme ait été entraîné sur des dossiers de fraudes avérées, mais qu’il a été très vite décidé de l’utiliser pour détecter les indus au sens large (indépendamment de l’établissement d’un caractère frauduleux). Un ancien directeur du service « contrôle et lutte contre la fraude » déclarait ainsi en 2010: « Nous sommes en train de tester dans dix-sept organismes des modèles plus perfectionnés, mais fondés sur l’observation des indus et non sur celle des indus frauduleux. » devant la commission des affaires sociales de l’assemblée nationale (voir ici)., dont la très grande majorité résulte d’erreurs déclaratives involontaires18Une directrice du département Maitrise des Risques Lutte contre la Fraude déclarait ainsi dans le cadre d’une mission gouvernementale sur la fraude aux prestations sociales en 2019: « 80 % de nos indus sont liés à des erreurs sur les ressources et les situations professionnelles, majoritairement les ressources »..
Or la CAF savait que le risque d’erreurs est particulièrement élevé pour les personnes en situation de précarité, en raison de la complexité des règles de calcul des prestations sociales les concernant. Ainsi dès 200619Ces citations et appréciations sur la part des fraudes dans les indus sont extraits de trois articles écrits par un ancien directeur du service « contrôle et lutte contre la fraude » de la CNAF. Le premier « Du contrôle des pauvres à la maîtrise des risques » a été publié en 2006 et est disponible ici. Le second intitulé « Le contrôle de la fraude dans les CAF », publié en 2005, est disponible ici. Voir aussi un troisième article intitulé « Le paiement à bon droit des prestations sociales des CAF » publié en 2013 et disponible ici. On trouve des analyses similaires dans des articles publiés dès 1997 disponibles ici (1997) et là (2002)., un ancien directeur de la lutte contre la fraude de la CAF expliquait que « les indus s’expliquent […] par la complexité des prestations », ce qui est « d’autant plus vrai pour les prestations liées à la précarité » (entendre les minima sociaux). Il ajoutait que ceci est dû à la prise en compte « de nombreux éléments de la situation de l’usager très variables dans le temps, et donc très instables ». Concernant les femmes isolées, il reconnaissait déjà la « difficulté d’appréhender la notion de « vie maritale » », difficulté à son tour génératrice d’erreurs.
Demander à l’algorithme de prédire le risque d’indu revient donc à lui demander d’apprendre à identifier qui, parmi les allocataires, est tributaire des minima sociaux ou est victime de la conjugalisation20Le fait d’avoir des aides qui dépendent de la situation maritale (en couple/célibataire). des aides sociales. Autrement dit, les responsables de la CAF savaient, dès le début du chantier d’automatisation du ciblage, quels seraient les « profils à risque » que l’algorithme allait identifier.
Rien n’est donc plus faux que de déclarer, comme cette institution l’a fait en réponse aux critiques du Défenseur des Droits, que « les contrôles à réaliser » sont « sélectionnés par un algorithme neutre » qui n’obéit à « aucun présupposé »21La deuxième citation est extraite d’une intervention d’un ancien directeur de la CNAF devant la commission des affaires sociales du sénat en 2017 disponible ici.. Ou encore que « les contrôles […] issus du datamining […] ne laissent pas la place à l’arbitraire ».
Discriminer pour rentabiliser
Pourquoi favoriser la détection d’erreurs plutôt que celle de la fraude ? Les erreurs étant plus nombreuses et plus faciles à détecter que des situations de fraudes, qui nécessitent l’établissement d’un caractère intentionnel, ceci permet de maximiser les montants récupérés auprès des allocataires et d’augmenter ainsi le « rendement » des contrôles.
Pour citer une ancienne responsable du département de lutte contre la fraude de la CAF : « Nous CAF, très honnêtement, sur ces très grosses fraudes, nous ne pouvons pas être le chef de file parce que les enjeux nous dépassent, en quelque sorte ». Et de signaler un peu plus loin sa satisfaction à ce que dans la dernière « convention d’objectif et de gestion », contrat liant la CAF à l’État et définissant un certain nombre d’objectifs,22Les COG sont des contrats entre l’état de les administrations sociales qui « formalisent, dans un document contractuel, les objectifs à atteindre et les moyens à mettre en œuvre pour moderniser et améliorer la performance du système de protection sociale ». Voir par exemple la COG 2018-2022 de la CNAF disponible ici. Pour un peu plus d’horreur, on peut aussi consulter les annexes techniques de ces conventions qui incluent pour la détermination du montant financier des agents de la CAF des objectifs de recouvrement des indus. L’annexe 2021 pour la branche famille est par exemple disponible ici. existe une « distinction entre le taux de recouvrement des indus fraude et des indus non- fraude […] parce que l’efficacité est quand même plus importante sur les indus non-fraudes qui, par définition, sont de moindre importance ».
Cet algorithme n’est donc qu’un outil servant à augmenter la rentabilité des contrôles réalisés par la CAF afin d’alimenter une politique de communication où, à longueur de rapports d’activité et de communications publiques, le harcèlement des plus précaires devient une preuve de «bonne gestion » de l’institution23Comme ici où il est écrit « Pour 1€ engagé, le travail d’un contrôleur rapporte 8 fois plus« . Voir aussi ici ou là..
Déshumanisation et mise à nu numérique
Mais le numérique a aussi modifié en profondeur le contrôle lui-même, désormais tourné vers l’analyse des données personnelles des allocataires, dont le droit d’accès donné aux contrôleurs·ses est devenu tentaculaire. Accès aux comptes bancaires, données détenues par les fournisseurs d’énergie, les opérateurs de téléphone, les employeurs·ses, les commerçant·e·s et bien sûr les autres institutions (Pôle emploi, les impôts, les caisses nationales de la sécurité sociale…)24Ces citations sont tirées du rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil. Concernant l’extension du droit de communication, voir pages 53-54.: le contrôle s’est transformé en une véritable mise à nu numérique.
Ces milliers de traces numériques sont mobilisées pour nourrir un contrôle où la charge de la preuve est inversée. Bien plus que l’entretien, les données personnelles constituent désormais la base du jugement des contrôleurs·ses. Comme le dit un contrôleur de la CAF : « Avant, l’entretien, c’était hyper important. […] Maintenant le contrôle des informations en amont de l’entretien prend beaucoup plus d’importance. »25Ces citations sont tirées du rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil. Concernant l’extension du droit de communication, voir pages 53-54.. Ou encore, « un contrôleur quand il prépare son dossier, juste en allant voir les portails partenaires, avant de rencontrer l’allocataire, il a une très bonne idée de ce qu’il va pouvoir trouver ».
Refuser de se soumettre à cette transparence est interdit sous peine de suspension des allocations. Le «droit au silence numérique » n’existe pas : l’opposition à une transparence totale est assimilée à de l’obstruction. Et pour les plus réticent·es, la CAF se réserve le droit de demander ces informations directement auprès des tiers qui les détiennent.
Le contrôle devient alors une séance d’humiliation où chacun.e doit accepter de justifier le moindre détail de sa vie, comme en témoigne cet allocataire : « L’entretien […] avec l’agent de la CAF a été une humiliation. Il avait sous les yeux mes comptes bancaires et épluchait chaque ligne. Avais-je vraiment besoin d’un abonnement Internet ? À quoi avais-je dépensé ces 20 euros tirés en liquide ? »26Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici..
La note attribuée par l’algorithme agit tout particulièrement comme une preuve de culpabilité. Contrairement à ce que veut faire croire la CAF, qui rappelle à qui veut l’entendre que l’algorithme n’est qu’un « outil d’aide à la décision », un score de risque dégradé génère suspicion et sévérité lors des contrôles. C’est à l’allocataire qu’il appartient de répondre du jugement algorithmique. De prouver que l’algorithme a tort. Cette influence de la notation algorithmique sur les équipes de contrôle, fait reconnu et désigné sous le nom de « biais d’automatisation », est ici encore mieux expliquée par un contrôleur : « Compte-tenu du fait qu’on va contrôler une situation fortement scorée, certains me disaient que, bon voilà, y a une sorte de – même inconsciemment – non pas d’obligation de résultats mais de se dire : si je suis là, c’est qu’il y a quelque chose donc il faut que je trouve »27Ces citations sont tirées du rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil. Concernant l’extension du droit de communication, voir pages 53-54..
Des conséquences humaines dramatiques
Ces pratiques sont d’autant plus révoltantes que les conséquences humaines peuvent être très lourdes. Détresse psychologique, perte de logements, dépressions28Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici.: le contrôle laisse des traces non négligeables dans la vie de tous les contrôlé·e·s. Comme l’explique un directeur de l’action sociale29Voir le rapport « Lutter contre les fraudes aux prestations sociales » disponible ici et surtout le compte rendu des audiences menées dans ce cadre disponible ici. On notera en particulier à la page 85 la retranscription de l’échange avec des employé.e.s des services sociaux de Meurthe et Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé « expert de la lutte contre la fraude ». Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout. : « Il faut bien s’imaginer que l’indu c’est presque pire que le non recours ». Et d’ajouter : « Vous êtes dans un mécanisme de récupération d’indus et d’administrations qui peuvent décider aussi de vous couper l’ensemble de l’accès aux prestations sociales pendant une période de six mois. Vraiment, vous vous retrouvez dans une situation noire, c’est-à-dire que vous avez fait une erreur mais vous la payez extrêmement chèrement et c’est là que commence une situation de dégradation extrêmement forte qui est très difficile derrière à récupérer ».
Les demandes de remboursement d’indus peuvent représenter une charge intenable pour les personnes en difficulté financière, en particulier lorsqu’elles sont dues à des erreurs ou des oublis qui couvrent une longue période. À ceci s’ajoute le fait que les trop-perçus peuvent être récupérés via des retenues sur l’ensemble des prestations sociales.
Pire, les nombreux témoignages30Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici.récoltés par le Défenseur des Droits et les collectifs Stop contrôle et Changer de Cap font état de nombreuses pratiques illégales de la part de la CAF (non respect du contradictoire, difficulté de recours, suspension abusive des aides, non fourniture du rapport d’enquete, non accès aux constats) et de re-qualifications abusives de situations d’erreurs involontaires en fraude. Ces qualifications abusives aboutissent alors au fichage des allocataires identifiés comme fraudeurs·ses31Voir la délibération de la CNIL datant du 13 janvier 2011 et disponible ici. Il n’est pas certain que ce fichier existe toujours., fichage renforçant à son tour leur stigmatisation lors de futures interactions avec la CAF et dont les conséquences peuvent s’étendre au-delà de cette institution si cette information est transférée à d’autres administrations.
Numérique, bureaucratie et contrôle social
Certes les technologies numériques ne sont pas la cause profonde des pratiques de la CAF. Versant « social » du contrôle numérique de l’espace public par l’institution policière que nous documentons dans notre campagne Technopolice, elles sont le reflet de politiques centrées autour de logiques de tri, de surveillance et d’administration généralisée de nos vies32Pour poursuivre au sujet du rôle du numérique et du contrôle social qu’il engendre dans un contexte de gestion de masse des sociétés, voir notamment l’article de Felix Tréguer « Face à l’automatisation des bureaucraties d’État, l’accommodement ou le refus ? » disponible ici et le livre du groupe Marcuse « La liberté dans le Coma »..
La pratique du scoring que nous dénonçons à la CAF n’est d’ailleurs pas spécifique à cette institution. Pionnière, la CAF a été la première administration sociale à mettre en place un tel algorithme, elle est désormais devenue le « bon élève », pour reprendre les dires d’une députée LREM33Voir le rapport « Lutter contre les fraudes aux prestations sociales » disponible ici et surtout le compte rendu des audiences menées dans ce cadre disponible ici. On notera en particulier à la page 85 la retranscription de l’échange avec des employé.e.s des services sociaux de Meurthe et Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé ‘expert de la lutte contre la fraude’. Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout., dont doivent s’inspirer les autres administrations. Aujourd’hui ce sont ainsi Pôle emploi, l’assurance maladie, l’assurance vieillesse ou encore les impôts qui, sous l’impulsion de la Cour des comptes et de la Délégation nationale à la lutte contre la fraude34Sur l’utilisation de la nationalité comme facteur de risque, voir le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. Y est cité une circulaire interne de la CAF (n°2012-142 du 31 août 2012) recommandant notamment de « cibl[er] les personnes nées hors de l’Union européenne ». Le rôle de la DNLF dans le développement des outils de scoring y est aussi mentionné., travaillent à développer leurs propres algorithmes de notation.
À l’heure où, comme le dit Vincent Dubois35Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250., notre système social tend vers toujours « moins de droits sociaux accordés inconditionnellement […] et davantage d’aides […] conditionnées aux situations individuelles », ce qui appelle « logiquement plus de contrôle », il apparaît légitime de questionner les grands projets d’automatisation d’aide sociale, tel que celui de la « solidarité à la source » proposé par le président de la République. Car cette automatisation ne peut se faire qu’au prix d’une scrutation toujours accrue de la population et nécessitera la mise en place d’infrastructures numériques qui, à leur tour, conféreront toujours plus de pouvoir à l’État et ses administrations.
Lutter
Face à ce constat, nous demandons que soit mis un terme à l’utilisation de l’algorithme de scoring par la CAF. La recherche d’indus, dont la très grande majorité sont de l’ordre de quelques centaines d’euros36Voir le rapport de l’IGF sur les indus disponible ici., ne peut en aucun cas justifier de telles pratiques qui, par nature, ont pour effet de jeter des personnes précarisées dans des situations d’immense détresse.
À la remarque d’un directeur de la CAF avançant qu’il ne pouvait pas « répondre de manière précise quant aux biais » que pourraient contenir son algorithme — sous-entendant ainsi que l’algorithme pourrait être amélioré —, nous répondons que le problème n’est pas technique, mais politique37Les « biais » des algorithmes sont souvent mis en avant comme étant un simple problème technique, comme dans le cas des algorithmes de reconnaissance faciale qui reconnaissent mieux les personnes blanches. Le problème de cette critique, bien réelle au demeurant, est qu’elle élude parfois l’aspect politique des algorithmes en ramenant la problématique à des considérations techniques qu’il serait possible de corriger un jour. Cet algorithme est intéressant de ce point de vue puisqu’il a été entraîné ‘dans les règles de l’art’, voir les références ci-dessus, à partir d’une base de données issue de contrôles aléatoires. Il n’y a donc pas à priori de biais d’échantillonage, comme dans le cas des algorithmes de reconnaissance faciale. Ceci étant dit, l’algorithme répète les biais humains liés au contrôles réalisés sur ces dossiers sélectionnés aléatoirement (sévérité avec les personnes aux minima sociaux, difficulté d’identifier les fraudes complexes…). Mais il reflète surtout, comme expliqué dans l’article, la complexité des règles d’accès aux prestations sociales ce qui est un sujet purement politique que l’algorithme ne fait que révéler.. Puisqu’il ne peut tout simplement pas exister sans induire des pratiques de contrôle discriminatoires, c’est l’algorithme de notation lui-même qui doit être abandonné.
Nous reviendrons bientôt sur les actions que nous souhaitons mener pour lutter, à notre niveau, contre ces politiques. D’ici là, nous continuerons à documenter l’usage des algorithmes de scoring dans l’ensemble des administrations françaises et invitons celles et ceux qui le souhaitent, et le peuvent, à s’organiser et se mobiliser localement, à l’image de la campagne Technopolice qu’anime La Quadrature. A Paris, vous pouvez nous retrouver et venir discuter de cette lutte dans le cadre des assemblées générales du collectif Stop Contrôles, dont nous relayons les communiqués via notre site internet.
Cette lutte ne peut que profiter des échanges avec celles et ceux qui, à la CAF ou ailleurs, ont des informations sur cet algorithme (le détail des critères utilisés, les dissensions internes qu’a pu provoquer sa mise en place…) et veulent nous aider à lutter contre de telles pratiques. Nous encourageons ces personnes à nous contacter à contact@laquadrature.net.Vous pouvez aussi déposer des documents de manière anonyme sur notre SecureDrop (voir notre page d’aide ici).
Pour finir, nous tenons à dénoncer la surveillance policière dont fait l’objet le collectif Stop Contrôles. Prise de contacts téléphoniques de la part des services de renseignement, allusions aux actions du collectif auprès de certains de ses membres dans le cadres d’autres actions militantes et sur-présence policière lors de simples opérations de tractage devant des agences de la CAF : autant de mesures policières visant à l’intimidation et à la répression d’un mouvement social à la fois légitime et nécessaire.
Il est possible de contacter le collectif « Stop Contrôles » à l’adresse suivante: stop.controles@protonmail.com pour des récits ou des problématiques actuelles face au contrôles de la CAF ou de Pôle emploi, mais également pour trouver des manières collectives de s’y opposer.
Voir le rapport du Défenseur des Droits « Dématérialisation des services publics: 3 ans après », disponible ici et l’appel signé par 300 associations/collectifs sur les difficultés engendrées pour les publics en situation de précarité disponible ici.
Voir l’avis de la CNIL décrivant l’algorithme comme un « outil permettant de détecter dans les dossiers des allocataires les corrélations existantes entre les dossiers à risque (comportements types des fraudeurs)», disponible ici. Cet avis, positif, est par ailleurs vertigineusement vide de toute critiques portant tant sur le fond du projet et les risques de discrimination qu’il porte que sur le détournement des finalités des données des allocataires collectées initialement pour les besoins de l’état social. Il se borne globalement à recommander un chiffrement de la base de données.
Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250.
Pour des détails techniques sur l’algorithme et son entraînement voir l’article de Pierre Collinet « Le datamining dans les caf: une réalité, des perspectives », écrit en 2013 et disponible ici. Il y explique notamment que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude.
Les contrôles à la CAF sont de trois types. Les contrôles automatisés sont des procédures de vérification des déclarations des allocataires (revenus, situation professionnelle..), organisés via à l’interconnexion des fichiers administratifs (impôts, pôle emploi…). Ce sont de loin les plus nombreux. Les contrôles sur pièces consistent en la demande de pièces justificatives supplémentaires à l’allocataire. Enfin les contrôles sur place sont les moins nombreux mais les plus intrusifs. Réalisé par un.e contrôleur.se de la CAF, ils consistent en un contrôle approfondi de la situation de l’allocataire. Ce sont ces derniers qui sont aujourd’hui en très grande majorité déclenchés par l’algorithme suite à une dégradation de la note d’un allocataire (Voir Vincent Dubois, « Contrôler les assistés » p.258). Il est à noter que les contrôles sur place peuvent aussi provenir de signalements (police, pôle emploi, conseiller.ère.s…) ou de la définition de cibles-types définies soit localement soit nationalement(contrôles RSA, étudiants…). Ces deux catégories représentaient la plupart des raisons de déclenchement des contrôles avant le recours à l’algorithme.
La CAF entretient une forte opacité autour des critères régissant son fonctionnement. Elle refuse même de donner plus d’informations aux allocataires ayant fait l’objet d’un contrôle suite à une dégradation de leur score. ll n’existe pas de documents présentant l’ensemble des paramètres, et leur pondération, utilisés par l’algorithme dit de « régression logistique ». Les informations présentées ici sont issues des sources suivantes: l’avis de la CNIL portant sur l’algorithme; le livre de Vincent Dubois « Contrôler les assistés »; la Lettre n°23 de la Délégation Nationale à la lutte contre la fraude disponible ici (voir pages 9 à 12); le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. L’article de Pierre Collinet « Le datamining dans les caf: une réalité, des perspectives », disponible ici détaille notamment la construction de l’algorithme.
Sur l’utilisation de la nationalité comme facteur de risque, voir le rapport « Lutte contre la fraude au prestations sociales » du Défenseur des Droits disponible ici. Y est cité une circulaire interne de la CAF (n°2012-142 du 31 août 2012) recommandant notamment de « cibl[er] les personnes nées hors de l’Union européenne ». Le rôle de la DNLF dans le développement des outils de scoring y est aussi mentionné.
Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ». Sur le sur-contrôle des populations les plus précaires, voir chapitre 10. Sur l’histoire politique de la ‘lutte contre l’assistanat’, et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250.
Ces citations sont tirées du rapport « Politique de contrôle et lutte contre la fraude dans la branche Famille » publié en 2016 et écrit par Vincent Dubois, Morgane Paris et Pierre Edouard Weil. Concernant l’extension du droit de communication, voir pages 53-54.
Voir le rapport « Lutter contre les fraudes aux prestations sociales » disponible ici et surtout le compte rendu des audiences menées dans ce cadre disponible ici. On notera en particulier à la page 85 la retranscription de l’échange avec des employé.e.s des services sociaux de Meurthe et Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé ‘expert de la lutte contre la fraude’. Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout.
L’algorithme utilisé, une régression logistique, est un algorithme dit à apprentissage supervisé. A l’image des algorithmes d’analyses d’images, ces algorithmes ‘apprennent’ à détecter certaines choses à partir d’exemples annotés. Ainsi un algorithme de reconnaissance de chats sur des images est, pour le dire schématiquement, simplement entraîné via l’analyse de nombreuses photos annotées chat/pas chat. La tâche de l’algorithme, on parle de phase d’apprentissage, est alors de construire un modèle statistique permettant de reconnaître dans le futur des photos de chat, sans que nul n’ait besoin d’expliciter, à priori, les critères permettant de les identifier. Le recours à un tel algorithme pour la CAF offre donc l’avantage, purement rhétorique, que les critères de ciblage (situation professionnelle, familiale, financière…) semblent ne plus être choisis à priori par la CAF (Voir Vincent Dubois, « Contrôler les assistés » cité précedemment) mais le fruit d’une analyse statistique (corrélations entre ces variables et la probabilité qu’un dossier soit irrégulier).
Il semblerait qu’initialement l’algorithme ait été entraîné sur des dossiers de fraudes avérées, mais qu’il a été très vite décidé de l’utiliser pour détecter les indus au sens large (indépendamment de l’établissement d’un caractère frauduleux). Un ancien directeur du service « contrôle et lutte contre la fraude » déclarait ainsi en 2010: « Nous sommes en train de tester dans dix-sept organismes des modèles plus perfectionnés, mais fondés sur l’observation des indus et non sur celle des indus frauduleux. » devant la commission des affaires sociales de l’assemblée nationale (voir ici).
Une directrice du département Maitrise des Risques Lutte contre la Fraude déclarait ainsi dans le cadre d’une mission gouvernementale sur la fraude aux prestations sociales en 2019: « 80 % de nos indus sont liés à des erreurs sur les ressources et les situations professionnelles, majoritairement les ressources ».
Ces citations et appréciations sur la part des fraudes dans les indus sont extraits de trois articles écrits par un ancien directeur du service « contrôle et lutte contre la fraude » de la CNAF. Le premier « Du contrôle des pauvres à la maîtrise des risques » a été publié en 2006 et est disponible ici. Le second intitulé « Le contrôle de la fraude dans les CAF », publié en 2005, est disponible ici. Voir aussi un troisième article intitulé « Le paiement à bon droit des prestations sociales des CAF » publié en 2013 et disponible ici. On trouve des analyses similaires dans des articles publiés dès 1997 disponibles ici (1997) et là (2002).
La deuxième citation est extraite d’une intervention d’un ancien directeur de la CNAF devant la commission des affaires sociales du sénat en 2017 disponible ici.
Les COG sont des contrats entre l’état de les administrations sociales qui « formalisent, dans un document contractuel, les objectifs à atteindre et les moyens à mettre en œuvre pour moderniser et améliorer la performance du système de protection sociale ». Voir par exemple la COG 2018-2022 de la CNAF disponible ici. Pour un peu plus d’horreur, on peut aussi consulter les annexes techniques de ces conventions qui incluent pour la détermination du montant financier des agents de la CAF des objectifs de recouvrement des indus. L’annexe 2021 pour la branche famille est par exemple disponible ici.
Voir à ce sujet l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits «La lutte contre la fraude aux prestations sociales» disponible ici. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici.
Voir le rapport « Lutter contre les fraudes aux prestations sociales » disponible ici et surtout le compte rendu des audiences menées dans ce cadre disponible ici. On notera en particulier à la page 85 la retranscription de l’échange avec des employé.e.s des services sociaux de Meurthe et Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé « expert de la lutte contre la fraude ». Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout.
Pour poursuivre au sujet du rôle du numérique et du contrôle social qu’il engendre dans un contexte de gestion de masse des sociétés, voir notamment l’article de Felix Tréguer « Face à l’automatisation des bureaucraties d’État, l’accommodement ou le refus ? » disponible ici et le livre du groupe Marcuse « La liberté dans le Coma ».
Les « biais » des algorithmes sont souvent mis en avant comme étant un simple problème technique, comme dans le cas des algorithmes de reconnaissance faciale qui reconnaissent mieux les personnes blanches. Le problème de cette critique, bien réelle au demeurant, est qu’elle élude parfois l’aspect politique des algorithmes en ramenant la problématique à des considérations techniques qu’il serait possible de corriger un jour. Cet algorithme est intéressant de ce point de vue puisqu’il a été entraîné ‘dans les règles de l’art’, voir les références ci-dessus, à partir d’une base de données issue de contrôles aléatoires. Il n’y a donc pas à priori de biais d’échantillonage, comme dans le cas des algorithmes de reconnaissance faciale. Ceci étant dit, l’algorithme répète les biais humains liés au contrôles réalisés sur ces dossiers sélectionnés aléatoirement (sévérité avec les personnes aux minima sociaux, difficulté d’identifier les fraudes complexes…). Mais il reflète surtout, comme expliqué dans l’article, la complexité des règles d’accès aux prestations sociales ce qui est un sujet purement politique que l’algorithme ne fait que révéler.
";s:7:"dateiso";s:15:"20221019_124740";}s:15:"20221011_161914";a:7:{s:5:"title";s:86:"Face à la justice, la mairie de Marseille défend la vidéosurveillance algorithmique";s:4:"link";s:123:"https://www.laquadrature.net/2022/10/11/face-a-la-justice-la-mairie-de-marseille-defend-la-videosurveillance-algorithmique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18954";s:7:"pubDate";s:31:"Tue, 11 Oct 2022 14:19:14 +0000";s:11:"description";s:229:"Alors que le changement de majorité à la mairie de Marseille nous avait un temps laissé croire à l’abandon des projets technopoliciers hérités de la mandature précédente, plus le temps passe et plus la douche…";s:7:"content";s:7585:"
Alors que le changement de majorité à la mairie de Marseille nous avait un temps laissé croire à l’abandon des projets technopoliciers hérités de la mandature précédente, plus le temps passe et plus la douche est froide. Cette fois, le maire Benoît Payan (PS) et ses services ont décidé de défendre la légalité de l’expérimentation de vidéosurveillance automatisée (VSA), que nous avons attaquée en décembre 2020 devant le tribunal administratif de Marseille. Leurs arguments juridiques sont en plus complètement fallacieux, comme nous le démontrons dans notre mémoire en réplique.
Fin septembre, plus de 15 000 personnes rejoignaient notre plainte collective contre le ministère de l’Intérieur. Dans la plainte, nous dénoncions l’imbrication des différents dispositifs de surveillance mis en place ces dernières années, et notamment le recours croissant à l’intelligence artificielle pour détecter automatiquement des comportements dits « suspects » dans l’espace public urbain. Le dépôt de cette plainte collective devant la CNIL intervient alors que nous avons une autre procédure contentieuse en cours, devant le Tribunal administratif de Marseille.
Fin 2018, la précédente majorité municipale, représentée à l’époque par l’adjointe en charge de la sécurité, Caroline Pozmentier (toujours conseillère régionale en PACA sous l’étiquette « Renaissance ») signait avec la société SNEF un contrat pour installer un dispositif de « vidéoprotection intelligente » (comprendre : vidéosurveillance algorithmique). Parmi les fonctionnalités envisagées se trouvent la détection automatique de graffitis, de destruction de mobilier urbain, la possibilité de rechercher dans les archives de vidéosurveillance par filtre de photos ou de « description », la détection sonore de coups de feu ou d’explosions, la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).
Après un premier recours introduit en référé début 2020 (et rejeté pour des raisons de procédures), la mairie s’était dépêchée de lancer la rédaction d’une étude d’impact. Consultée, la CNIL avait demandé à la ville de revoir sa copie et, à notre connaissance, cette étude d’impact n’a jamais vu le jour. À ce stade, il nous semblait que l’abandon de ce projet illégal par la nouvelle majorité de gauche plurielle élue à l’été 2020 serait une simple formalité. Mais malgré nos demandes pressantes faites à Yannick Ohanessian, adjoint au maire en charge de la sécurité publique, la ville nous a fait languir. Il a donc fallu déposer un nouveau recours, en décembre 2020.
À ce moment-là, une source à la mairie avait prétendu dans une confidence à l’AFP que le projet était suspendu. Et pourtant, la ville de Marseille a fait le choix d’embaucher un cabinet d’avocats pour défendre la légalité de cette expérimentation devant le tribunal. Dans son mémoire en défense, l’avocat de la ville de Marseille répète ainsi que le déploiement de cette surveillance algorithmique serait suspendu, mais se contredit juste après en affirmant que l’expérimentation continuerait de suivre son cours malgré tout : l’IA tournerait sur « une cinquantaine de caméras fixes nouvellement installées sur le parc, dans le cadre d’une solution […] en test ». Le mémoire de la ville souligne que le flux vidéo dédié à la vidéosurveillance algorithmique est acheminé vers deux postes informatiques « installés dans un local dédié au sein du CSU [Centre de supervision urbain], et accessible uniquement par l’équipe projet », cette dernière étant semble-t-il chargée de recevoir les alertes produites par les algorithmes fournis par le prestataire de la SNEF.
En réponse aux arguments juridiques soulevés par la ville pour défendre ces technologies de surveillance – et pour démontrer une fois pour toute l’illégalité de ces technologies qui sont massivement déployées sur le territoire –, nous avons déposé cet été un mémoire en réplique.
Dans ce document, nous reprenons la position juridique que nous défendons depuis longtemps : ces technologies sont fondées sur des traitements de données biométriques interdits par le droit des données personnelles. En effet, les algorithmes utilisés analysent les caractéristiques physiques, physiologiques ou comportementales des personnes pour les isoler sur les flux d’images. À terme, ils permettront de suivre automatiquement le parcours de personnes suspectées dans la rue, en temps réel ou en faisant remonter toutes les séquences archivées où ces personnes sont reconnues par ces algorithmes. Tout aussi dangereux que la reconnaissance faciale, ces logiciels reposent sur l’analyse des corps et des attributs physiques pour repérer, catégoriser et rendre notre présence dans la ville visible aux yeux de la police.
Nous rappelons aussi une évidence, à savoir que ces technologies sont déployées en l’absence de tout cadre légal, ce qui en soi suffit largement à acter leur totale illégalité. C’est d’ailleurs ce que reconnaît la CNIL dans ses lignes directrices sur la « vidéosurveillance intelligente » – publiées en juillet dernier. Cette position de la CNIL reste scandaleuse, puisque plutôt que de condamner l’ensemble des collectivités déployant ces techniques illégales et de donner voie aux nombreuses demandes d’interdiction de ces technologies discriminatoires et déshumanisantes, l’autorité préfère accompagner leur légalisation et épouser les désirs de leurs constructeurs.
Espérons désormais que le tribunal administratif de Marseille tranchera rapidement ce contentieux, et que nous pourront collectivement faire valoir cette jurisprudence partout en France et au-delà. Et à la suite, tenir en échec toute tentative du gouvernement visant à légaliser ces technologies de surveillance massive, incompatibles avec des formes de vie démocratique.
";s:7:"dateiso";s:15:"20221011_161914";}s:15:"20220926_114422";a:7:{s:5:"title";s:55:"15 248 personnes portent plainte contre la Technopolice";s:4:"link";s:96:"https://www.laquadrature.net/2022/09/26/15-248-personnes-portent-plainte-contre-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18905";s:7:"pubDate";s:31:"Mon, 26 Sep 2022 09:44:22 +0000";s:11:"description";s:242:"La campagne Technopolice, lancée par La Quadrature du Net en septembre 2019 pour documenter la progression de la surveillance automatisée en France, a franchi un nouveau cap ce samedi 24 septembre : une plainte collective contre…";s:7:"content";s:9263:"
La campagne Technopolice, lancée par La Quadrature du Net en septembre 2019 pour documenter la progression de la surveillance automatisée en France, a franchi un nouveau cap ce samedi 24 septembre : une plainte collective contre le ministre de l’Intérieur, portée par de 15 248 personnes, a été déposée auprès de la CNIL (Commission nationale de l’informatique et des libertés). Elle demande l’interdiction des caméras de surveillance, de la reconnaissance faciale et du fichage de masse de la population française. Pour lire les plaintes, c’est ici : fichier TAJ, ficher TES et vidéosurveillance.
Dans un contexte d’abandon des politiques publiques pour lutter contre les inégalités ou la pauvreté, les dispositifs sécuritaires et répressifs apparaissent de plus en plus comme la réponse unique et monotone donnée à toutes les questions sociales. La surveillance est sans doute la manière la plus paresseuse et la moins durable de construire une société. Il existe pourtant bel et bien une volonté systématique, de la part de l’État, d’encourager la surveillance généralisée, au moyen de subventions, de consignes données aux préfets et à la hiérarchie policière, et par l’instauration d’un climat politique constamment répressif. C’est donc en attaquant directement le ministre de l’intérieur que nous passons à l’offensive contre la technopolice, en demandant à la CNIL de mettre fin aux caméras innombrables, aux logiciels de vidéosurveillance automatisée, à la reconnaissance faciale et aux méga-fichiers de citoyens.
Les raisons de contester la légalité des dispositifs de surveillance ne manquent pas. Notre droit repose en particulier sur deux conditions fortes : une mesure de surveillance ou de répression n’est légitime en droit, ou légale, qu’à condition d’être absolument nécessaire (on ne peut pas faire autrement) et d’être proportionnée au délit ou au crime qu’elle entend circonvenir (on ne chasse pas une mouche avec un porte-avions). Formellement, nous avons divisé l’attaque en trois plaintes, contre trois systèmes de surveillance disproportionnés qui se complètent et s’alimentent pour maintenir un contrôle permanent de nos activités et déplacements :
En premier, le fichier TAJ (traitement des antécédents judiciaires) qui est illégal sur deux plans. Tout d’abord, ce fichier est disproportionné : il rassemble des informations sur toute personne concernée par une enquête (plaignants, témoins, suspects), soit aujourd’hui plus de 20 millions de fiches, mais, en pratique, tout tend à démontrer que ce fichier est alimenté et utilisé en dehors des cadres légaux et qu’énormément de données sont erronées ou conservées bien plus longtemps que la loi ne le prévoit. Ensuite, ce fichier est utilisé par la police et la gendarmerie pour faire de la reconnaissance faciale plusieurs milliers de fois par jour, en dehors de tout cadre légal. Aussi, l’intrusivité et les dangers de cette technologie sont bien plus manifestes avec la vidéosurveillance omniprésente qui multiplie les possibilités d’obtenir des images de nos visages. Lire la plainte contre le fichier TAJ
La deuxième plainte vise donc cette vidéosurveillance généralisée. Nous démontrons d’abord à la CNIL à quel point l’action de l’État est essentielle et omniprésente dans le déploiement sans limite des caméras dans les villes, et maintenant dans les villages. Qu’il s’agisse de politiques actives de subventions, d’incitation à intégrer des logiciels algorithmiques à ces caméras ou de l’intervention systématique des préfectures dans les actes d’autorisations de ces dispositifs, le ministre de l’Intérieur agit à tant d’étapes de ce phénomène qu’il doit être considéré, légalement, comme responsable. Et justement, les actes préfectoraux qui sont la base légale permettant l’installation de ces caméras ne disent jamais en quoi ces dernières seraient utiles aux finalités prévues par le code de la sécurité intérieure. La vidéosurveillance est alors illégale car disproportionnée et sans justification. Nous attaquons donc le ministre de l’Intérieur qui met en place toutes ces pratiques incitatives gouvernementales qui rendent possible cette disproportion. Lire la plainte contre la vidéosurveillance
Enfin, la dernière plainte vise le fichier TES (titres électroniques sécurisés). Ce fichier rassemble les photographies de l’ensemble des personnes ayant une carte d’identité ou un passeport, c’est-à-dire à peu près tout le monde, uniquement afin de faciliter le renouvellement et la vérification des titres d’identité. Critiqué depuis sa création en 2016 au regard des énormes dangers que fait peser l’existence même d’une base centralisée de données si sensibles, nous réitérons ces alertes de deux manières. Déjà, nous pointons l’absence de nécessité et de proportionnalité de ce fichier, d’autant que depuis l’année dernière il existe une autre manière, moins intrusive, de parvenir au même objectif de facilitation de la vérification des titres (en l’occurrence, l’accès à ces données peut désormais se faire de façon décentralisée en les mettant directement sur chaque support d’identité dans une puce). Ensuite, nous dénonçons les défaillances de l’État qui a délibérément maintenu ces choix techniques, en parfaite connaissance de l’ensemble des risques posés par cette architecture centralisée sur la possibilité de détourner et utiliser abusivement le fichier (encore plus maintenant avec le perfectionnement de la reconnaissance faciale). Légalement, le ministre de l’intérieur ne remplit pas les obligations de sécurité auquel il est tenu. Lire la plainte contre le fichier TES
Nous demandons ainsi que l’ensemble de ces agissements de la police soient contrôlés, qu’il y soit mis fin et que le ministre de l’intérieur soit sanctionné pour avoir incité et laissé faire ces pratiques illégales.
La CNIL doit maintenant prendre en compte la voix des milliers de personnes qui ont rejoint la plainte et montrent leur opposition ferme à cette dynamique de surveillance et au déploiement de ces technologies qui échappent le plus souvent à tout contrôle. À l’heure où un règlement sur l’intelligence artificielle est débattu au niveau européen, où les marchands de la vidéosurveillance algorithmique poussent à une légalisation de leurs outils et où les Jeux olympiques de 2024 sont annoncés comme le prétexte pour l’expérimentation d’une panoplie de technologies toujours plus intrusives sous couvert de contexte sécuritaire, il est urgent d’inverser le rapport de force. Grâce à vous et à l’engouement que cette action collective a suscité, l’offensive est lancée mais la bataille contre la Technopolice ne fait que commencer !
";s:7:"dateiso";s:15:"20220926_114422";}s:15:"20220918_195319";a:7:{s:5:"title";s:68:"[Mediapart.Fr] Après 15 ans de luttes, La Quadrature du Net raconte";s:4:"link";s:105:"https://www.laquadrature.net/2022/09/18/mediapart-fr-apres-15-ans-de-luttes-la-quadrature-du-net-raconte/";s:4:"guid";s:105:"https://www.laquadrature.net/2022/09/18/mediapart-fr-apres-15-ans-de-luttes-la-quadrature-du-net-raconte/";s:7:"pubDate";s:31:"Sun, 18 Sep 2022 17:53:19 +0000";s:11:"description";s:218:"Fondée en 2008 par des hacktivistes s’opposant à la loi Hadopi, La Quadrature du Net a depuis été de toutes les luttes concernant le numérique. À chaque projet de texte national ou européen touchant aux…";s:7:"content";s:1184:"
Fondée en 2008 par des hacktivistes s’opposant à la loi Hadopi, La Quadrature du Net a depuis été de toutes les luttes concernant le numérique. À chaque projet de texte national ou européen touchant aux données personnelles, à la surveillance, au fichage ou à la censure, elle s’est mobilisée pour alerter les médias et l’opinion publique.
Alors qu’elle fête cette année son quinzième anniversaire, quatre de ses membres viennent de publier un livre, Internet et libertés, revenant sur l’histoire de l’association, ses premiers combats, ses victoires et ses désillusions.
Mediapart a rencontré deux de ses auteurs pour évoquer ces quinze ans de militantisme et son évolution face à un monde numérique totalement transformé. (…)
";s:7:"dateiso";s:15:"20220918_195319";}s:15:"20220916_100511";a:7:{s:5:"title";s:46:"Guide pour lutter contre la vidéosurveillance";s:4:"link";s:86:"https://www.laquadrature.net/2022/09/16/guide-pour-lutter-contre-la-videosurveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18885";s:7:"pubDate";s:31:"Fri, 16 Sep 2022 08:05:11 +0000";s:11:"description";s:263:"Cet article a été publié précédemment sur notre blog Technopolice
Technopolice publie aujourd’hui son premier guide pour lutter contre la vidéosurveillance sur la voie publique. Celui-ci ne se veut en aucun cas exhaustif : il détaille les…";s:7:"content";s:4933:"
Cet article a été publié précédemment sur notre blog Technopolice
Technopolice publie aujourd’hui son premier guide pour lutter contre la vidéosurveillance sur la voie publique. Celui-ci ne se veut en aucun cas exhaustif : il détaille les différentes actions possibles ou déjà employées par des collectifs ou des personnes seules pour lutter contre l’installation de caméras dans nos rues. Il a aussi vocation à être modifié et critiqué. Aidez-nous à l’améliorer en nous envoyant un mail à contact@technopolice.fr ou directement sur le forum Technopolice.
Depuis le lancement de la campagne Technopolice, nous avons essayé avec les collectifs mobilisés de documenter, analyser, et quelquefois lutter, contre le déploiement toujours plus rapide, toujours plus mortifère, des nouveaux outils de surveillance. Drones, intelligence artificielle, micros, biométrie… Aidés par la passivité des institutions censées appliquer un droit pourtant protecteur (en premier lieu la CNIL), encouragés par le gouvernement (à travers notamment des financements fléchés), les acteurs de la sécurité nous imposent leur fantasme d’une modernité technologique ultra-sécuritaire et oppressive.
Or, une grande partie de ces technologies repose sur une architecture déjà bien établie et ancrée dans notre quotidien : la vidéosurveillance. Ce sont les caméras déjà posées depuis près de vingt ans dans nos rues, nos villes, nos forêts même, qui sont aujourd’hui utilisées pour y ajouter une couche d’« intelligence articielle » : repérer des « comportements suspects », détecter des sons « anormaux », suivre une foule, reconnaître un visage ou une silhouette, tout cela dépend des dizaines de milliers de caméras installées au fil des années par les industries sécuritaires et certaines collectivités. La vidéosurveillance, c’est un peu la première pierre de la Technopolice.
C’est aussi la première carte du château de cartes que représente l’ensemble de ce dispositif : enlever cette carte, c’est fragiliser, et peut-être même faire tomber tout le reste. C’est pour cette raison que nous rédigeons ce guide, parce que la lutte contre la vidéosurveillance est consubstantielle à la lutte contre la Technopolice.
C’est aussi parce que cette lutte, contrairement à ce que l’on pourrait penser, est toujours bien présente, qu’elle motive encore de nombreux collectifs ou personnes individuelles qui refusent toujours de voir la vidéosurveillance s’installer chez elles. Parce que la vidéosurveillance n’est donc pas acceptée et que sa présence n’est pas oubliée, qu’elle suscite toujours une résistance. C’est ce que nous voyons depuis le début et encore aujourd’hui dans le cadre de Technopolice : une grande partie des messages et échanges que nous avons pu avoir avec d’autres collectifs, que ce soit sur Internet ou lors de rencontres physiques, tournaient autour des modalités de lutte contre les caméras.
Ce guide reprend donc les méthodes utilisées par diverses personnes et collectifs : cartographie des caméras, demande de documentation, pétitions, tracts, contentieux juridiques, plaintes à la CNIL… Il n’y a aucune volonté d’exhaustivité, simplement de faire le point et de passer en revue des méthodes de lutte, surtout celles qui ont été efficaces. Pour que chacune et chacun puisse s’en servir et visibiliser, dénoncer ou empêcher l’installation des caméras.
N’hésitez pas à nous faire part de vos retours sur ce guide, de votre expérience sur le sujet ou à proposer d’autres stratégies de lutte contre la vidéosurveillance, soit sur contact@technopolice.fr, soit sur le forum Technopolice
";s:7:"dateiso";s:15:"20220916_100511";}s:15:"20220914_120347";a:7:{s:5:"title";s:72:"J-10 avant le dépôt de la plainte collective contre la Technopolice !";s:4:"link";s:108:"https://www.laquadrature.net/2022/09/14/j-10-avant-le-depot-de-la-plainte-collective-contre-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18870";s:7:"pubDate";s:31:"Wed, 14 Sep 2022 10:03:47 +0000";s:11:"description";s:232:"Depuis le mois de mai, La Quadrature du Net collecte des mandats en vue d’une plainte collective contre le Ministère de l’Intérieur. Cette plainte sera déposée devant la CNIL et attaquera les quatre piliers de…";s:7:"content";s:4516:"
Depuis le mois de mai, La Quadrature du Net collecte des mandats en vue d’une plainte collective contre le Ministère de l’Intérieur. Cette plainte sera déposée devant la CNIL et attaquera les quatre piliers de la Technopolice : le fichage, les caméras de vidéosurveillance, la reconnaissance faciale et la vidéosurveillance algorithmique (VSA).
A ce jour, nous avons récolté plus de 12 780 mandats c’est-à-dire plus de douze mille personnes qui nous mandatent pour attaquer le ministère de l’Intérieur. Merci ! Nous déposerons la plainte devant la CNIL samedi 24 septembre à 21h30 à l’occasion du festival Technopolice à Marseille. Il reste 10 jours pour signer et faire tourner la plainte !
Pourquoi cette plainte ?
Alors que les offensives sécuritaires du gouvernement s’enchaînent, avec notamment le nouveau projet de loi du gouvernement pour l’orientation et la programmation du ministère de l’Intérieur (LOPMI) qui arrive bientôt à l’Assemblée, que les industriels de la technopolice mettent au point des technologies de surveillance et de répression toujours plus pernicieuses et que les Jeux Olympiques 2024 et la coupe du monde de rugby l’année prochaine présagent un déploiement sans précédents de policiers, gendarmes, forces de sécurité et de leurs outils numériques de surveillance, nous avons voulu montrer qu’il était temps de mettre un stop à cette entreprise sécuritaire nationale.
La plainte attaque quatre piliers de la répression et surveillance qui se renforcent les uns les autres. Le fichage, à travers les fichiers TAJ et TES qui constituent des bases de données d’une énorme partie de la population. La reconnaissance faciale, qui est utilisée depuis 10 ans par les forces de police.Les caméras de vidéosurveillance qui se déploient de manière exponentielle sur tout le territoire. Et enfin la vidéosurveillance algorithmique, qui tente de pallier l’inefficacité des caméras classiques en automatisant la détection d’infractions. Ces quatre piliers de la Technopolice entraînent une surveillance totale de l’espace public et une répression d’autant plus conséquente qu’elle dote la police d’encore plus de moyens pour réprimer la population.
Rappelons-le, tous ces outils technopoliciers ne participent pas à améliorer notre sécurité. Ils ne font qu’augmenter la surveillance et la répression sans nous octroyer plus de libertés dans nos rues, au contraire.
Faire entendre une voix collective contre la surveillance et la répression
La plainte a pour objectif de visibiliser les luttes contre la surveillance et la répression mais aussi de remettre au centre du débat les argumentaires politiques et scientifiques retraçant le déploiement de la Technopolice et expliquant les intérêts politiques et économiques qu’ils servent. Ce discours est quasiment inaudible au sein d’une scène politique où sécurité rime avec répression et technologie et où le passage à l’échelle technologique n’est pas questionné. Donc nous vous donnons rendez-vous samedi 24 septembre à Marseille pour le dépôt de la plainte. D’ici-là, n’hésitez pas à signer et partager la plainte ici : https://technopolice.fr/plainte/
";s:7:"dateiso";s:15:"20220914_120347";}s:15:"20220912_164730";a:7:{s:5:"title";s:42:"La Quadrature : 15 bougies et un livre !";s:4:"link";s:90:"https://www.laquadrature.net/2022/09/12/la-quadrature-du-net-a-quinze-ans-quinze-ans-deja/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18858";s:7:"pubDate";s:31:"Mon, 12 Sep 2022 14:47:30 +0000";s:11:"description";s:289:"La Quadrature du Net a quinze ans. Quinze ans déjà !
Des dizaines d’actions, de plaidoiries, d’articles, d’événements publics et de campagnes médiatiques nourrissent les souvenirs et les discussions des fondateurs, bénévoles, membres et salariés depuis la…";s:7:"content";s:6732:"
La Quadrature du Net a quinze ans. Quinze ans déjà !
Des dizaines d’actions, de plaidoiries, d’articles, d’événements publics et de campagnes médiatiques nourrissent les souvenirs et les discussions des fondateurs, bénévoles, membres et salariés depuis la création de l’association au printemps 2008. Cette histoire devait-elle rester dans la seule mémoire de celles et ceux qui l’ont connue ? Quatre membres de l’association ont tenté de la raconter : en trois parties, vingt-deux chapitres et deux cent soixante pages, ils retracent à leur manière ces quinze années de militantisme grave et joyeux.
Le livre Internet et libertés décrit comment une seule ambition, toujours tenue — « défendre les droits et les libertés fondamentales à l’ère du numérique » — a conduit les militants de La Quadrature à défendre le libre partage contre l’épouvantail du « piratage » (loi Hadopi, 2008) ou à mener une lutte juridique incessante contre les dispositifs de surveillance dans les rues (campagne Technopolice, 2020). À ferrailler en France et en Europe contre des lois sécuritaires poussées par des gouvernements toujours plus autoritaires (loi Renseignement en 2015, loi Surveillance en 2016). Ou encore à s’attaquer aux mastodontes planétaires que sont les GAFAM, jusqu’à obtenir des amendes record de plusieurs centaines de millions de dollars contre Google ou Amazon, pour exploitation illégale de nos données personnelles (campagne anti-GAFAM, 2018).
Comment « cinq gus dans un Garage » et des « exégètes amateurs » ont-ils pu mener tous ces combats, et en gagner un certain nombre par-dessus le marché ?
Pour traverser cette histoire apparemment décousue, le livre trace trois lignes, trois grandes séquences à la fois chronologiques et thématiques.
La période de « la défense d’Internet » (2008-2014), c’est l’époque de la lutte contre la loi Hadopi puis le combat victorieux, à l’échelle européenne, contre le traité transatlantique ACTA, qui voulait lui aussi punir les échanges non marchands. C’est la période heureuse de l’association : de jeunes gens enthousiastes, des geeks qui savent de quoi ils parlent, affrontent des États et des gouvernements qui ne comprennent rien au Web ni aux nouvelles technologies, alors que les jeunes militants mobilisent les masses grâce aux nouveaux réseaux.
Mais la période suivante (2014-2018), celle de « l’obsession antiterroriste », est nettement plus sombre : elle montre comment les gouvernements reprennent la main, pourchassent les lanceurs d’alerte et les héros du Web libre (Aaron Swartz, Julian Assange, Chelsea Manning, Edward Snowden, etc.), accumulent les lois répressives pour « civiliser Internet » et veulent soumettre l’ensemble de nos communications à des règles de surveillance et de censure, sous prétexte de lutter en ligne contre un terrorisme qui tue, de façon terriblement réelle, dans les rues des grandes capitales mondiales.
La troisième période, la plus récente (2018-2022), est celle que vous connaissez bien, puisque nous sommes encore dedans : les techniques numériques de surveillance se sont très largement étendues dans l’ensemble de la société, sous des formes parfois anodines et d’autres fois beaucoup plus inquiétantes, depuis le traçage publicitaire sur le Web jusqu’aux algorithmes administratifs qui sanctionnent arbitrairement les bénéficiaires des minima sociaux. Dans le même temps, le vieux fantasme dystopique de la vidéosurveillance permanente, si souvent dépeint dans les œuvres de science-fiction les plus pessimistes, est devenu une réalité quotidienne et tangible avec l’utilisation de drones et de logiciels d’analyse des flux vidéo en direct. Même l’épidémie mondiale de Covid-19, malgré sa gravité médicale et humaine, a été le prétexte complaisant pour mener des expériences sans précédent de surveillance numérique des personnes jusque dans leur intimité.
Voilà comment, sans jamais dévier de sa ligne de défense des droits, de la loi « Hadopi » à la loi « Sécurité globale », La Quadrature du Net a suivi de près tous les bouleversements et les drames de la société française durant ces quinze dernières années.
Cependant, Internet et Libertés n’est ni un livre d’histoire, ni un pamphlet, ni un manifeste.
Ce n’est pas un livre d’histoire : les quatre auteurs assument le côté partiel et partial de leurs témoignages. Ce livre n’est pas une histoire « officielle » de La Quadrature du Net, écrite et revendiquée par l’association. Mais il donne à lire « une histoire de La Quadrature du Net », vue par des personnes qui l’ont vécue de l’intérieur.
Ce n’est pas un pamphlet : le livre n’est pas une longue déploration des défauts du monde, qu’on pourrait corriger avec quelques « il faut » dans un futur nécessaire mais toujours reporté. C’est le récit le plus honnête possible de combats qui ont eu lieu, au nom d’idées qui éclairent le présent et peuvent guider l’action dans les années qui viennent.
Ce n’est pas un manifeste non plus : ce n’est pas un texte dans lequel l’association, en son nom propre, donnerait sa doctrine intégrale.
C’est un récit politique, une histoire commune qui ne cache pas les détours, les erreurs, les difficultés, qui montre comment les idées viennent et comment les luttes s’organisent au gré des envies, des rencontres, de l’imprévu et de la réflexion collective. C’est un livre qui raconte La Quadrature du Net. Et surtout, c’est une histoire qui n’est pas finie. À nous de l’écrire ensemble !
Le livre paraît aux éditions Vuibert ce mardi 13 septembre.
Il est dédié à Philippe Aigrain (1949-2021), ingénieur, écrivain, et membre fondateur de La Quadrature du Net.
";s:7:"dateiso";s:15:"20220912_164730";}s:15:"20220907_115249";a:7:{s:5:"title";s:69:"Classer pour dominer : petite histoire critique du fichage en France";s:4:"link";s:107:"https://www.laquadrature.net/2022/09/07/classer-pour-dominer-petite-histoire-critique-du-fichage-en-france/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18832";s:7:"pubDate";s:31:"Wed, 07 Sep 2022 09:52:49 +0000";s:11:"description";s:263:"La campagne d’action collective contre la Technopolice se termine dans quelques semaines. Notre plainte contre le Ministère de l’Intérieur (que vous pouvez encore rejoindre ici) vise notamment deux fichiers étatiques massifs : le fichier TAJ et…";s:7:"content";s:71609:"
La campagne d’action collective contre la Technopolice se termine dans quelques semaines. Notre plainte contre le Ministère de l’Intérieur (que vous pouvez encore rejoindre ici) vise notamment deux fichiers étatiques massifs : le fichier TAJ et le fichier TES. À travers eux, nous attaquons des outils omniprésents et structurants de la surveillance policière. Car ficher, c’est organiser le contrôle et la domination de l’État sur sa population. Comment expliquer que ces pratiques aient pu émerger, se maintenir et s’ancrer si profondément dans les rouages de l’administration française au point qu’elles échappent désormais à tout véritable contrôle ?
Si on peut évidemment trouver une multitudes d’explications, nous proposons de revenir ici, sans prétention d’exhaustivité, sur l’évolution à travers le temps du fichage en France.
La création d’un savoir d’État
La volonté de l’État français d’identifier formellement sa population débute au XVIIIe siècle. Le but d’origine était formellement de « lutter contre la criminalité, la mendicité ou l’errance » en imposant à certaines personnes de s’enregistrer et de détenir des « papiers » contenant leur nom patronymique1Voir « L’extension des fichiers de sécurité publique » – Pierre Piazza, 2009. Très vite, cette pratique est surtout utilisée dans un cadre judiciaire afin d’identifier les personnes mises en causes qui donneraient de fausses identités, empêchant ainsi la justice de restituer leur parcours criminel. C’est donc la poursuite et la reconnaissance des récidivistes – justification que l’on retrouvera à de nombreuses reprises au cours de l’histoire – qui incite à perfectionner les pratiques d’identification et notamment donner naissance à la police scientifique2Pour plus de détails, lire l’introduction du chapitre « Autour de la photographie par la contrainte » issu du catalogue de l’exposition « Fichés – Photographie et identification 1850-1960 » aux Archives de France.
C’est motivé par cette obsession – juridique et scientifique – de la recherche de l’identité qu’Alphonse Bertillon, agent au service photographique de la préfecture de police de Paris, propose en 1883 une nouvelle technique d’identification : l’anthropométrie. Cette méthode vise à associer à l’identité civile une description d’attributs physiques et corporels spécifiques à une personne afin de la reconnaître. Sont ainsi détaillés méticuleusement dans le signalement le visage – front, profil, oreilles, nez, bouche, menton – les cicatrices, grains de beauté, tatouages ou encore la colorimétrie de l’iris. S’ajoutent quelques années plus tard les empreintes digitales, que la police voit comme une garantie plus « intangible » de l’identité. La photographie, alors en plein essor, est aussitôt utilisée pour faire évoluer ce système d’identification. L’apparition de la technique de l’instantané vers 1880, et la photographie en petit format, permettent ainsi d’alimenter les fiches avec portraits de face et de profil. Le bertillonnage évolue alors vers sa version la plus « sophistiquée », les policiers pouvant se reposer sur une vraie visualisation de la personne plutôt qu’une simple description3 Voir dans le même catalogue d’exposition, le chapitre « La photographie dans l’identité judiciaire. Alphonse Bertillon et le modèle de la préfecture de police » par Pierre Piazza et Ilsen About. Déjà, on observe que la moindre invention technique est aussitôt utilisée par la police pour augmenter ses pouvoirs de coercition et de contrôle, phénomène qui se prolonge encore aujourd’hui avec notamment la captation vidéo ou l’intelligence artificielle. Dans l’opinion publique, des inquiétudes émergent à la fois sur les abus de la police mais aussi, déjà, sur la potentielle application de ce système anthropométrique à l’ensemble de la population. Des dessins et caricatures dénoncent ainsi le fait que toute personne soit perçu en criminel potentiel.
Ce perfectionnement du dispositif d’identification marque le début d’une pratique qui va se renforcer au sein de l’État, et pour les seuls intérêts de l’État, au cours des décennies suivantes. Fondé initialement sur la recherche des criminels, le bertillonnage est surtout à l’origine de la rationalisation des pratiques policières. Cette technique fait ainsi apparaître de nouveaux instruments de classement, telle que la fameuse fiche au format et au contenu standardisé, pour remplacer les signalements qui reposaient uniquement sur la mémoire des agents de police. Cette nouvelle « mémoire d’État » repose sur une organisation précise, et qui fonctionne désormais selon un « système réticulaire », conférant à la police la capacité de dominer visuellement un « matériau humain ». Elle dispose désormais d’un pouvoir facilité d’accéder et croiser des informations, organisé en réseau à travers les régions, alimentant le fantasme qu’aucune information ne puisse lui échapper. Le bertillonnage marque aussi la première étape de la biométrie en France, le corps devenant le principal élément d’identification et de contrôle. En maîtrisant les corps, l’administration peut localiser, inventorier, classer les humains4 Denis Vincent,« Une histoire de l’identité. France, 1715-1815», Revue d’histoire moderne & contemporaine », page 229..
Si le bertillonnage a vu le jour à Paris, ces pratiques répressives se diffusent largement dans les administrations coloniales et préfigurent le fichage des juifs cinquante ans plus tard. Ainsi, dès la fin des années 1880, le fichage se perfectionne et s’institutionnalise au sein de l’Empire colonial français. Ce « laboratoire colonial français » dont parle bien Ilsen About dans ce texte permet de mettre en pratique et à grande échelle un processus d’identification administrative homogénéisé, qui rend possible la création de sujets inférieurs et de régimes juridiques distincts. Dépassant la seule recherche des criminels et délinquants, le fichage sera notamment appliquée pour la surveillance de catégories d’individus toujours plus vastes, considérés comme « subversifs », comme les anarchistes5Surveiller, sanctionner et prédire les risques : les secrets impénétrables du fichage policier, Virginie Gautron, 2019. . et jouera un rôle crucial dans le contrôle et la répression de certaines populations.
Les fichages étatiques répressifs du XXe siècle
Les « nomades », c’est à dire les personnes n’ayant pas de résidence fixe, ont été le premier groupe social à être ciblé par les nouvelles méthodes de fichage, l’administration voulant à tout prix contrôler qui rentre et sort de son territoire. Créé dès 1907 pour remplacer une liste de « bohémiens », le système mis en place consistait à doter une large catégorie de personnes itinérantes d’un « carnet anthropométrique »6L’ensemble de cette partie est tirée du chapitre « Le contrôle des « nomades » par Emmanuel Filhol, Marie-Christine Hubert, Adèle Sutre issu du catalogue d’exposition cité plus haut.. Afin de surveiller et contrôler les déplacements, cette feuille d’identité contenait signalement, profession et photographie. Chaque modification du carnet (par exemple pour la notification d’un trajet, d’un vaccin mais aussi d’une infraction) faisait l’objet d’une notice individuelle, qui, par la suite, sont copiées et centralisées au sein d’un fichier. Ces différentes contraintes ont notamment conduit certaines familles à décider d’abandonner le mode de vie nomade qui pouvait être le leur depuis des siècles.
La surveillance s’intensifia ensuite avec la création d’un registre de visas apposé à l’entrée de chaque commune, classé chronologiquement et alphabétiquement, puis par un régime d’interdiction de déplacement d’abord pour les étrangers puis vis-à-vis de l’ensemble des « nomades » durant la Seconde Guerre mondiale. Facilitée par leur identification préalable à travers les carnets et registres instaurés depuis plusieurs décennies, l’assignation à résidence des personnes « nomades» se met en place, et sera rapidement remplacée par un internement à partir de 1940. Libérées en 1946, elles resteront cependant soumises au carnet jusqu’à son abrogation en 19697Le carnet est remplacé à ce moment là par le livret de circulation dont la suppression n’a été votée par l’Assemblée nationale qu’en 2015. Le déplacement des populations et la connaissance de qui entre et sort dans un territoire reste une des justifications majeures de l’État pour le fichage.
Durant la Seconde Guerre mondiale, le fichage a joué un rôle majeur et continu dans la persécution et le génocide de la population juive. Après la découverte du « fichier juif » par Serge Klarsfeld dans les années 1990, une commission nationale fut chargée d’enquêter sur les pratiques de la police française pendant la guerre. La lecture du rapport est édifiante : y est décrit le savoir faire rigoureux et zélé de la police française, à la fois en zone occupée et au sein du régime de Vichy, pour identifier et réprimer les personnes juives en France.
Déjà, chaque processus de fichage était précédé d’une phase d’identification, par recensement ou à travers la généralisation, à partir de 1940, de l’obligation de disposer d’une carte d’identité sur laquelle était apposée la mention « Juif » . Comme il est énoncé dans le rapport, «le binôme recensement-fichier a presque toujours servi à mieux identifier pour surveiller, contrôler, et au fil des mois, arrêter, interner, voire déporter»8 Voir page 61 du rapport.. C’est ainsi qu’en zone occupée, un recensement général a été entrepris dès l’automne 1940 afin de créer un fichier central couvrant Paris et les arrondissements de la Seine, sous la direction d’André Tulard, fonctionnaire de la préfecture de police passé par le service des étrangers et le bureau des passeports et des naturalisations. Un « dossier juif » était alors ouvert pour chaque famille et chaque personne célibataire, puis était ensuite classé méticuleusement selon quatre sous-fichiers : alphabétique (avec la lettre J sur le coin gauche) ; par nationalité (J sur le coin gauche, N sur le coin droite) ; par domicile (par rue et numéro) (J à gauche, D à droite) ; par profession (J à gauche, P à droite). La couleur des fiches permettait également de classer entre juifs français (fiche bleue) et étrangers ou apatrides (fiche orange et beige). La mise en œuvre du fichier « Tulard » impressionna à la fois les occupants allemands et les responsables de Vichy, ce qui poussa ces derniers à imposer aux préfets de la zone Sud un recensement de la population juive. Conçu sur un modèle similaire de couleurs et de catégories (français, étrangers, entreprises), le fichier de Vichy rassembla à la fin plus de 110 000 fiches.
Ces fichiers centraux étaient accompagnés d’une multitude de listes de personnes juives (par exemple, celles qui disposaient d’un appareil de télégraphie, étaient propriétaires d’une bicyclette ou avaient retiré l’étoile juive) tenues par l’administration pour contrôler le respect des lois restrictives et limiter les déplacements. Mais surtout, ils ont été un instrument direct des rafles et de la déportation à partir de 1942. S’il fallait un exemple, le sous-fichier des nationalités du fichier Tulard a permis de planifier les arrestations et internements pendant les rafles des juifs étrangers, les fiches étant extraites avant chaque action9Lors de la rafle du Vel’ d’Hiv, Tulard et les hommes de son service en sortirent 25 334 pour Paris intra-muros et 2 027 pour les communes de la proche banlieue, voir page 106 du rapport.. Si le processus de fichage a été multiple et varié au cours de la guerre, en aucun cas il n’a été ponctuel. Fruit du savoir-faire de l’administration française, le fichage était le vecteur d’une véritable politique de surveillance et de persécution des juifs, facilitant directement la déportation voulue par l’occupant allemand.
Dernier exemple de cette pratique d’État, le fichage de la population algérienne en France métropolitaine a démontré la multiplicité des manœuvres mises en place pour contrôler et surveiller des personnes à titre « préventif » en temps de conflit. Si aucun fichier central n’a vu le jour dans ce cas précis, ce n’est que faute de temps et de moyens, car plusieurs initiatives de l’administration et de la préfecture de police de Paris allèrent en ce sens. D’une part, la brigade des agressions et des violences, créée en 1953 sous le prétexte de la lutte contre la délinquance de rue, photographiait et identifiait les nord-africains interpellés à la suite de rafles, afin d’alimenter un fichier. Ensuite, pendant la guerre, une circulaire du 5 août 1957 organisait la création d’un fichier national des individus dangereux ou à surveiller résidant en métropole, appelé le « fichier Z ». Deux autres circulaires de 1957 et 1958 ont ensuite précisé les catégories d’individus à ficher, dont notamment les agents nationalistes que la police souhaitait éliminer, classés dans une sous-rubrique de ce fichier Z10Informations tirées du chapitre « Le fichage des émigrés d’Algérie (1925-1962) » par Emmanuel Blanchard dans le catalogue d’exposition précité..
D’autre part, l’État français procédait à l’identification généralisée des Français musulmans d’Algérie en métropole. Prenant le prétexte du risque de fraude, il imposait l’obligation de détenir une carte d’identité permettant en réalité de mettre en place un vaste fichier à partir de l’enregistrement des demandes de carte, renforçant la surveillance administrative. Plusieurs rafles ont également eu lieu entre 1958 et 1961 afin d’inciter les Algériens à s’adresser au Service d’assistance technique aux Français musulmans d’Algérie (SAT-FMA). Officiellement créé pour leur apporter une aide, ce service visait en réalité à alimenter le renseignement et créer des dossiers individuels. Jusqu’à 100 000 dossiers ont ainsi été créés en région parisienne et plusieurs projets de grands fichiers mécanographiques et d’enquêtes sociologiques étaient dans les cartons de ce service. Ce fichier francilien a notamment été utilisé jusqu’en juillet 1962, chaque fois qu’un Français musulman d’Algérie était appréhendé par un service de police afin de déterminer s’il avait commis des « actions anti-françaises ».11Semblables et pourtant différents.. La citoyenneté paradoxale des « Français musulmans d’Algérie » en métropole, Alexis Spire, 2003
Ces trois exemples illustrent à quel point les pratiques de fichage ont été omniprésentes dans les processus de répression, mais également comment l’administration les développaient en toute opacité. L’apparition de l’informatique fait passer le fichage à des échelles encore plus préoccupante, précipitant un nécessaire débat public.
Fichage informatisé et échec de la critique politique
Dès les années 1960, l’informatique était perçue comme un instrument de modernisation du pays et l’institution policière a rapidement voulu adopter ces nouveaux outils. Permettant de rationaliser et mettre de l’ordre dans la multitude de fichiers éparpillés, l’informatisation augmentait aussi les capacités de traitement et permettait les croisements entre fichiers là ou la mécanographie ne permettait que de simples tris12« Vers une remise en cause de la légalité du FNAEG ? », Ousmane Guey et François Pellegrini . Dans cette dynamique est créée en 1966 une « direction des écoles et techniques » afin de mener les réflexions au sein de l’institution et assurer l’unité de la formation et l’homogénéité des méthodes et techniques de la police. Ces réflexions, associées aux capacités récentes de recouper de façon automatisée un grand nombre d’informations, ont alors nourri un nouveau projet : celui d’attribuer un identifiant unique à chaque personne dans le Système automatisé pour les fichiers administratifs et répertoires des individus (SAFARI)13« Le désordre assisté par ordinateur : l’informatisation des fichiers de police en France», Cahiers de la sécurité, Eric Heilmann, 2005 .
Révélé et dénoncé en 1974 par le journal Le Monde dans l’article intitulé « « Safari » ou la chasse aux Français », le projet suscita de fortes réactions. Pour l’auteur de l’article, Philippe Boucher, la base de données donnerait une « puissance sans égal » à celui qui la posséderait, mettant au cœur du débat la question de la détention et de la centralisation par l’État d’informations sur l’ensemble de sa population. Finalement abandonné face à la controverse, le projet SAFARI déboucha sur une commission d’enquête qui donna naissance à la Commission nationale de l’informatique et des libertés (CNIL) et à la loi Informatique et Libertés du 6 janvier 1978, socle de la protection des données personnelles encore en vigueur aujourd’hui. Au-delà de la création d’un encadrement juridique, cet épisode marque une amorce de politisation sur le sujet. Cette réflexion avait d’ailleurs débuté avant ce scandale, le directeur du « service des écoles et techniques » mentionné plus haut écrivait lui-même en 1969 :
« La mise en mémoire d’un certain nombre de données n’est-elle pas attentatoire à la liberté et même à la dignité de l’homme ? Ne présente t-elle pas des dangers si nous connaissons à nouveau comme naguère la férule d’un État totalitaire, le joug d’une police politique orientée non vers le maintien de l’ordre public, la prévention et la répression des crimes, mais vers l’asservissement des citoyens libres, privés par une minorité de leurs moyens d’expression ? Le problème vaut qu’on y réfléchisse longuement et profondément.14 Cité dans l’article d’Eric Heilmann
Il apparaît alors de plus en plus évident que si une administration peut disposer, organiser, classer des informations sur les personnes, cela n’est pas politiquement neutre. Elle retire de cette connaissance un pouvoir, une possibilité de contrôle qui doit nécessairement être limitée. Cette prise de conscience et la politisation collective des enjeux, assortie d’institutions et d’un encadrement juridique novateurs, auraient pu laisser penser que la problématique du fichage avait été cernée de manière suffisamment forte par la société pour être maîtrisée, afin d’empêcher les dérives. Malheureusement ce ne fut pas le cas, ces pratiques d’identification de surveillance étant probablement bien trop ancrées dans les rouages de l’institution policière.
Dès les années 1980, avec la généralisation des ordinateurs, la police commençait à collecter des informations de façon massive et désordonnée. Plutôt que de limiter ces pratiques, il fut au contraire décidé de rationaliser et d’organiser cette quantité de données au sein de fichiers centralisés pour en tirer une utilité. C’est dans ce contexte qu’est apparue l’idée du fichier STIC (Système de traitement des infractions constatées), visant à intégrer toutes les informations exploitées par les services de police dans une seule et même architecture, accessible à tous les échelons du territoire15« Défavorablement connus », Jean-Marc Manach, Pouvoirs, 2018. Finalement mis en œuvre et expérimenté dans les années 1990, le fichier STIC cristallisa de nombreuses tensions entre le Ministère de l’Intérieur et la CNIL qui durent négocier pendant plusieurs années afin d’en fixer le cadre légal. Si la CNIL a obtenu des garanties dans un accord à l’arrachée en 1998, cette victoire a paradoxalement signé la fin de son influence et de sa légitimité. En effet, dans les années qui suivirent, toutes les réserves qu’elles avait pu obtenir ont été ostensiblement bafouées. Mais surtout, cette longue bataille qui avait concrètement ralenti et empêché le développement du fichier souhaité par le Ministère poussa le gouvernement à supprimer par la suite le pouvoir d’autorisation attribué à la CNIL afin de ne plus être gêné dans ses projets. C’est pourquoi, en 2004, la modification de la Loi pour la confiance dans l’économie numérique (LCEN) acta la suppression du pouvoir de contrainte de la CNIL pour le transformer en simple avis consultatif. Cela signifie qu’elle ne dispose plus de l’autorité nécessaire pour empêcher ou limiter la création de fichiers de police par le gouvernement. Cette modification législative marque un tournant dans le droit des fichiers et des données personnelles ainsi que dans la pratique policière. Les garde-fous ayant sauté, l’espace politique pour parvenir à une surveillance massive se libère, les limites légales devenant purement cosmétiques.
Malgré l’encadrement légal, le fichage s’emballe
Aujourd’hui, la dérive du fichage est vertigineuse et plusieurs phénomènes peuvent en témoigner. Déjà, l’inflation ahurissante du nombre de fichiers : plus de 70 fichiers créés entre 2004 et 201816Chiffre issu du rapport des députés Didier Paris et Pierre Morel-À-L’Huissier, à partir de l’annexe faisant état de 106 fichiers mis à disposition de la police. Ensuite la déconstruction progressive des principes protecteurs de la loi Informatique et Libertés, comme la proportionnalité et la nécessité, a vidé de toute effectivité les contre-pouvoirs censés limiter et encadrer les fichiers. Prenons quelques exemples symptomatiques de cette lente artificialisation du cadre protecteur des libertés.
La première illustration est une pratique législative devenue banale : un fichier est créé pour une finalité très restreinte, liée à des circonstances exceptionnelles, ce qui lui donne une apparence de proportionnalité en termes juridiques. Cependant, des réformes successives vont élargir son objet et son périmètre, transformant sa nature et son échelle La légalité originelle se retrouve alors obsolète et artificielle. L’exemple le plus significatif et affolant est celui du fichier national automatisé des empreintes génétiques (FNAEG). Créé en 1998, suite à l’affaire Guy Georges, ce fichier avait pour vocation d’identifier les personnes récidivistes des infractions sexuelles les plus graves à l’aide de leur ADN, ainsi que les personnes disparues et les corps non identifiés. Mais seulement trois années plus tard, en 2001, la loi pour la sécurité quotidienne élargit la collecte de l’ADN aux crimes graves aux personnes (crimes contre l’humanité, tortures, homicides volontaires,proxénétisme…)17voir Article 56 de la loi n°001-1062 du 15 novembre 2001 relative à la sécurité quotidienne . C’est ensuite la loi sur la sécurité intérieure de 2003 qui l’étend à de simples délits d’atteinte aux personne et aux biens (tels que les vols ou les tags)18 La loi n°2003-239 du 18 mars 2003 sur la sécurité intérieure (dite loi Sarkozy), dans son article 29, élargit l’usage du FNAEG à de simples délits (vol, tag, arrachage d’OGM, etc.) et permet aussi d’inclure des personnes simplement soupçonnées d’avoir commis des crimes contre l’humanité, violences volontaires, menaces d’atteintes aux personnes, trafic de stupéfiants, de traite des êtres humains, de proxénétisme, d’exploitation de la mendicité, d’atteintes aux intérêts fondamentaux de la nation, d’actes de terrorisme, de fausse monnaie, d’association de malfaiteurs, mais également de vols, d’extorsions, d’escroqueries, destructions, dégradations, détériorations ou menaces d’atteintes aux biens. et permet aussi d’inclure la collecte de l’ADN des personnes simplement soupçonnées d’avoir commis une de ces infractions. Alors qu’il était conçu pour des situations exceptionnelles, le FNAEG contenait en 2020 les données de 4 868 879 de personnes, soit plus de 7 % de la population française, et en 2015, 76 % de ces profils concernent des personnes non condamnées19« Vers une remise en cause de la légalité du FNAEG », Ousmane Guey et François Pellegrini, cité plus haut, page 10.. En prenant en compte la parentèle, c’est-à-dire les personnes partageant des éléments non codants d’ADN pouvant révéler des liens familiaux, ce chiffre peut être quintuplé. Conservé jusqu’à 40 ans pour les personnes condamnées, 25 ans pour les mis en causes, l’ADN peut également être partagé au niveau européen dans le cadre de la coopération permise par le Traité Prüm. Aujourd’hui l’ADN est relevé très fréquemment par la police sur toute personne en garde à vue et peut même l’être après condamnation, le refus de le donner pouvant être sanctionné par la loi.
Deuxième méthode pour étendre l’emprise d’un fichier : l’élargissement au cours du temps du nombre de personnes ayant accès au fichier ou de la nature des données collectées. Par exemple, trois fichiers de renseignement administratif (dont vous nous parlions ici) ont récemment été amendés pour que soient ajoutées aux éléments collectés les opinions politiques, l’état psychologique ou encore les informations postées sur les réseaux sociaux. Parallèlement, si les fichiers ne sont pas automatiquement croisés ou interconnectés, des interfaces ou logiciels permettent de favoriser leur lecture simultanée. L’information originellement collectée change nécessairement de nature quand elle peut être recoupée avec une autre recueillie dans un contexte totalement différent. Parmi ces outils, nous pouvons citer le système Accred (Automatisation de la consultation centralisée de renseignements et de données) qui permet la consultation automatique et simultanée de 11 fichiers dits « généraux »,20Plus précisément les fichiers EASP, PASP, GIPASP, FPR, N-SIS II, le FSPRT, le fichier des véhicules volés ou signalés (FoVES), CRISTINA, GESTEREXT, SIREX et le fichier de la DGSE. dans le cadre d’enquêtes administratives (quand on postule à un emploi lié au secteur public) ou pour une demande d’un premier titre de séjour, un renouvellement de titre de séjour ou une demande de nationalité française.
Enfin, le troisième symptôme de cette dérive est la perte de pouvoir et d’influence de la CNIL, déjà évoquée plus haut. Alors qu’elle est tenue dans ses missions officielles de vérifier la « bonne » tenue des fichiers, elle s’est progressivement désinvestie de tout contrôle de leur usage a posteriori par la police. Pourtant, par le passé, la CNIL avait pu effectuer des contrôles généraux et demander l’effacement de presque 20 % des données du fichier STIC en 200721« Défavorablement connus », Jean-Marc Manach, cité plus haut. ou, après avoir constaté les multiples erreurs et inexactitudes des fiches, à exiger une refonte des données avant sa fusion avec le JUDEX dans le TAJ en 2011. Mais aujourd’hui, la Commission a changé ses priorités et semble se consacrer principalement à l’accompagnement des entreprises et non plus au contrôle de l’administration étatique. Les seules vérifications de fichiers font suite à des demandes individuelles reposant sur le droit d’accès indirect des particuliers, soit quelques milliers de cas par an, sur plusieurs millions de fiches (ce que la CNIL commente sommairement dans ses rapports annuels22Voir par exemple, p48 du rapport annuel 2021 de la CNIL, mai 2022).
Ainsi, en pratique, les contraintes censée empêcher le fichage massif et injustifié sont devenues dérisoires face à la masse d’informations collectées et exploitées au quotidien. À travers notre plainte collective, nous voulons pousser la CNIL à retourner à son rôle originel, à imposer les limites de la surveillance d’État et à s’ériger en véritable contre-pouvoir. Le fichier TAJ — qui contient 20 millions de fiches de personnes ayant eu un contact avec la police — est l’exemple même d’un fichier devenu tentaculaire et démesuré, tout agent de police et de gendarmerie pouvant potentiellement y avoir accès. Le fichier TES, quant à lui, est l’incarnation du rêve d’identification biométrique de Bertillon, puisqu’il contient la photographie de toute personne disposant d’un titre d’identité en France, soit la quasi-totalité de la population. Officiellement créé à des fins d’authentification et de lutte contre la fraude, son modèle centralisé et son échelle constituent à eux seuls des sources de risques23L’Institut national de recherche en informatique et en automatique (Inria), avait publié une intéressante étude sur le fichier TES et les architectures alternatives qui auraient pu être choisies , ce qui a longtemps justifié qu’il ne soit pas mis en place (alors que sa création était souhaitée depuis des années, comme l’explique Jean-Marc Manach dans cet article). Par son existence même, ce fichier fait naître la possibilité qu’il soit utilisé comme base de données policière à des fins d’identification de la population et c’est pourquoi nous en demandons la suppression (plus d’informations sur ces deux fichiers sont développées sur le site de la plainte collective).
Le fichage, porte d’entrée vers la reconnaissance faciale généralisée
L’évolution du fichage en France conduit à un constat amer : la question de l’identification de la population par l’État a été consciencieusement dépolitisée, laissant toute liberté aux pouvoirs publics pour multiplier la collecte d’informations sur chacun d’entre nous, sous prétexte de prévenir tous les dangers possibles. Les limitations pensées dans les années 1970 sont aujourd’hui balayées. Aucune remise en question des moyens et finalités n’est effectuée et les rares fois où le fichage est questionné, il est systématiquement validé par le Conseil d’État qui ne voit jamais rien à redire.La seule réponse juridique aujourd’hui semble individuelle et consisterait à ce que chacun demande le retrait de son nom dans les fichiers d’État (pour cela, la caisse de solidarité de Lyon a fait un excellent travail de recensement des fichiers de police, vous pouvez lire ici leur brochure et utiliser leurs modèles de courrier afin de demander si vous êtes fichés !).
Avec l’apparition des techniques d’intelligence artificielle, et principalement la reconnaissance faciale, ce système de fichage généralisé fait apparaître de nouvelles menaces. Les deux obsessions qui ont motivé le développement du fichage tout au long du XXe siècle, à savoir la capacité d’identifier les personnes et de contrôler leurs déplacements, pourraient aujourd’hui être satisfaites avec le stade ultime de la biométrie : la reconnaissance faciale. En France, la police est autorisée depuis 10 ans à comparer quotidiennement les visages contenus dans la base de données du fichier TAJ à ceux captés par les flux de vidéosurveillance ou provenant de photos sur les réseaux sociaux. En parallèle, le système européen de contrôle d’entrée/sortie, dit EES, dont la création a été décidée en 2017 dans le cadre du projet « frontières intelligentes » (« smart borders ») et qui devrait être mis en œuvre d’ici la fin de l’année 2022, contient une base de données de visages des personnes arrivant de pays tiers. Il a pour but de de remplacer le cachet sur le passeport et rendre automatique le passage aux frontières via reconnaissance faciale24Voir la description du projet sur le site de Thalès : « La biométrie au service des frontières intelligentes » . Toujours au niveau européen, les projets de réforme des base de données Eurodac (concernant les personnes exilées demandeuses d’asile et qui permet déjà aujourd’hui la comparaison des empreintes digitales) et Prüm II (qui prévoit l’interconnexion des fichiers de police des États membres) ont pour but d’inclure l’image faciale.
La généralisation de cette technologie ne pourrait avoir lieu sans la préexistence de mégafichiers et d’une culture de la collecte d’informations, qui sont désormais toutes deux bien établies. Le fichage généralisé est aujourd’hui la porte d’entrée vers la reconnaissance faciale et l’identification des masses par les États. Au-delà de la capacité de surveillance qu’il confère à la police par l’exploitation et la transmission d’informations, c’est la fin de l’anonymat dans l’espace public et le contrôle total des déplacements individuels qui seront permis par le fichage numérique.
Afin de mettre un coup d’arrêt à ce système de surveillance avant qu’il ne soit trop tard, rejoignez la plainte collective sur plainte.technopolice.fr
Pour plus de détails, lire l’introduction du chapitre « Autour de la photographie par la contrainte » issu du catalogue de l’exposition « Fichés – Photographie et identification 1850-1960 » aux Archives de France
Voir dans le même catalogue d’exposition, le chapitre « La photographie dans l’identité judiciaire. Alphonse Bertillon et le modèle de la préfecture de police » par Pierre Piazza et Ilsen About
L’ensemble de cette partie est tirée du chapitre « Le contrôle des « nomades » par Emmanuel Filhol, Marie-Christine Hubert, Adèle Sutre issu du catalogue d’exposition cité plus haut.
Lors de la rafle du Vel’ d’Hiv, Tulard et les hommes de son service en sortirent 25 334 pour Paris intra-muros et 2 027 pour les communes de la proche banlieue, voir page 106 du rapport.
La loi n°2003-239 du 18 mars 2003 sur la sécurité intérieure (dite loi Sarkozy), dans son article 29, élargit l’usage du FNAEG à de simples délits (vol, tag, arrachage d’OGM, etc.) et permet aussi d’inclure des personnes simplement soupçonnées d’avoir commis des crimes contre l’humanité, violences volontaires, menaces d’atteintes aux personnes, trafic de stupéfiants, de traite des êtres humains, de proxénétisme, d’exploitation de la mendicité, d’atteintes aux intérêts fondamentaux de la nation, d’actes de terrorisme, de fausse monnaie, d’association de malfaiteurs, mais également de vols, d’extorsions, d’escroqueries, destructions, dégradations, détériorations ou menaces d’atteintes aux biens.
Plus précisément les fichiers EASP, PASP, GIPASP, FPR, N-SIS II, le FSPRT, le fichier des véhicules volés ou signalés (FoVES), CRISTINA, GESTEREXT, SIREX et le fichier de la DGSE.
L’Institut national de recherche en informatique et en automatique (Inria), avait publié une intéressante étude sur le fichier TES et les architectures alternatives qui auraient pu être choisies
Voir la description du projet sur le site de Thalès : « La biométrie au service des frontières intelligentes »
";s:7:"dateiso";s:15:"20220907_115249";}s:15:"20220905_154414";a:7:{s:5:"title";s:81:"Financement régional de drones policiers : l’Île-de-France dans l’embarras";s:4:"link";s:111:"https://www.laquadrature.net/2022/09/05/financement-regional-de-drones-policiers-lile-de-france-dans-lembarras/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18819";s:7:"pubDate";s:31:"Mon, 05 Sep 2022 13:44:14 +0000";s:11:"description";s:280:"En début d’année, La Quadrature du Net s’associait aux élu·es de la région Île-de-France mobilisé·es contre le subventionnement illégal de drones municipaux par la région. Mise sous pression, la majorité régionale, embarrassée, commence à admettre…";s:7:"content";s:7985:"
En début d’année, La Quadrature du Net s’associait aux élu·es de la région Île-de-France mobilisé·es contre le subventionnement illégal de drones municipaux par la région. Mise sous pression, la majorité régionale, embarrassée, commence à admettre l’illégalité de cette subvention, mais tente de gagner du temps.
Le 13 décembre dernier, le Conseil régional d’Île-de-France ouvrait les financements régionaux à l’équipement en drones des polices municipales. À la clé : 300 000 € à disposition des communes franciliennes qui voudraient équiper leurs polices municipales de drones de surveillance. Mais deux obstacles à cela : premièrement, une région n’est pas compétente pour subventionner l’équipement de police municipale car elle ne dispose d’aucun pouvoir en matière de sécurité ; deuxièmement, l’usage de drones par les forces de police municipale a été censuré par le Conseil Constitutionnel et la loi ne les autorise donc pas.
Si juridiquement cette subvention est entièrement illégale, la méthode politique pour la faire passer n’en est pas moins affolante, puisque la majorité régionale n’hésite pas à mentir, affirmant lors des débats sur le budget que de tels drones seraient légaux (alors qu’il n’en est rien, voir notre article).
Face à ce tour de force contraire aux libertés publiques et individuelles, La Quadrature du Net et le groupe de la Gauche Communiste, Écologiste et Citoyenne ont engagé une démarche commune et porté en début d’année un recours devant le tribunal administratif de Montreuil pour tenter de faire respecter l’État de droit.
La droite régionale divisée entre rétropédalage et maintien de ses mensonges
Plusieurs mois après la dénonciation de cette délibération illégale, l’exécutif régional se retrouve embarrassé. D’un côté, Frédéric Péchenard, le vice-président du Conseil régional chargé de la Sécurité et de l’Aide aux victimes, a admis publiquement en commission permanente que ces drones sont bien illégaux et que la région Île-de-France n’engagerait pas les fonds prévus. Mais, de l’autre côté, Vincent Jeanbrun, maire de L’Haÿ-les-Roses et président du groupe régional majoritaire, maintenait ses mensonges en soutenant que le droit actuel autoriserait l’usage de drones par des polices municipales. Peut-être a-t-il oublié l’interdiction, par deux fois, des drones par le Conseil d’État, bien que les élu·es communistes le lui rappellent systématiquement (voir ici et là)…
Quoiqu’il en soit, cette concession de l’exécutif de la région Île-de-France constitue bien une première victoire contre les projets sécuritaires de la droite régionale, très sensible aux lobbys de la Technopolice.
Nouvelle stratégie de la droite régionale : gagner du temps pour sauver son « bouclier de sécurité »
Derrière le financement des drones par la région Île-de-France se cache une autre bataille : celle du programme sécuritaire régional, le « bouclier de sécurité ». Depuis 2016 et l’arrivée de Mme Pécresse à la tête de la région, le Conseil régional finance massivement les équipements de polices municipales et autres programmes sécuritaires. Le financement des drones que nous avons attaqué n’est qu’un minuscule bout de cette technopolice francilienne : armes létales, vidéosurveillance dans les lycées ou encore centre de supervision XXL des caméras de vidéosurveillance.
Et ce recours dérange la région bien au-delà de la question des drones : nous avons mis en évidence l’incompétence d’une région pour financer des équipements de police municipale. Fin 2020, le tribunal administratif de Marseille avait déjà annulé une partie du budget de la région PACA en raison de cette incompétence. Le tribunal administratif de Montreuil pourrait faire de même et mettre fin au financement technopolicier régional, posant ainsi le principe, pour toutes les régions, qu’elles ne peuvent pas financer la Technopolice.
Le préfet de région ne s’était pas non plus trompé sur ce point : par un recours gracieux (c’est-à-dire adressé à la région et non à un tribunal) contre une autre partie de ce « bouclier de sécurité », il mettait en avant l’incompétence de la région pour financer l’équipement d’une police municipale (voir son recours gracieux).
À ce jour, la région n’a toujours pas défendu l’affaire des drones devant le tribunal administratif, c’est-à-dire qu’elle n’a pas répondu aux critiques que nous lui faisons, alors même qu’elle a déjà fait connaître sa position au préfet de région. Ainsi, la droite régionale gagne du temps, afin de retarder le moment où l’affaire sera jugée. Or, tant que l’incompétence de la région ne sera pas formellement affirmée par la justice, et bien que l’exécutif se soit engagé à ne pas utiliser les fonds alloués aux drones, l’ensemble du « bouclier de sécurité » restera en place.
Voilà le niveau de respect démocratique de la droite régionale : l’exécutif francilien sait que la région a prévu un financement de drones illégaux et l’admet, mais s’abstient de le dire au tribunal administratif pour retarder le moment où ce système sécuritaire devra être arrêté.
Ces dernières années, de plus en plus de pouvoirs sont offerts aux polices municipales, dans une logique toujours plus sécuritaire. Le « continuum de sécurité » théorisé par le ministère de l’Intérieur et dans lequel s’engouffre Mme Pécresse n’est qu’un appel du pied à la Technopolice, qui bénéficie alors de multiples financements. Ce recours contre les subventions de drones par la région Île-de-France aura permis de mettre en lumière des années d’illégalité de ces financements franciliens. Dans quelques semaines, La Quadrature lancera une nouvelle étape de lutte contre ces dérives sécuritaires en déposant, à l’occasion du festival Technopolice à Marseille qui se déroulera du 22 au 24 septembre prochains, une plainte collective contre la vidéosurveillance, le fichage et la reconnaissance faciale. Il est encore temps de signer la plainte et de participer à l’action collective !
";s:7:"dateiso";s:15:"20220905_154414";}s:15:"20220823_161349";a:7:{s:5:"title";s:31:"Festival Technopolice Marseille";s:4:"link";s:72:"https://www.laquadrature.net/2022/08/23/festival-technopolice-marseille/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18809";s:7:"pubDate";s:31:"Tue, 23 Aug 2022 14:13:49 +0000";s:11:"description";s:249:"Il y a trois ans, La Quadrature lançait l’initiative Technopolice avec le soutien d’une vingtaine d’associations. Cette initiative avait pour but de donner les outils aux habitantes et habitants des villes pour se saisir de…";s:7:"content";s:2017:"
Il y a trois ans, La Quadrature lançait l’initiative Technopolice avec le soutien d’une vingtaine d’associations. Cette initiative avait pour but de donner les outils aux habitantes et habitants des villes pour se saisir de la lutte contre la surveillance localement. Le premier groupe militant que nous avons vu naître est le collectif Technopolice Marseille, qui enchaîne conférences, expositions artistiques, cartographies de caméras et actions de rue contre les dispositifs de surveillance de la ville. Aujourd’hui, à l’initiative du collectif Technopolice Marseille, nous sommes heureux de vous annoncer la première édition du Festival Technopolice.
Il se déroulera du 22 au 24 septembre à Marseille et consistera en des séances de projections de films sur la surveillance des villes et la lutte contre la Technopolice. Les séances seront suivies de discussions croisées avec des chercheureuses, des réalisateurices, les militants et militantes contre la Technopolice, notamment Technopolice Belgique, Technopolice Paris et la Share Foundation, association serbe, qui se bat contre la reconnaissance faciale dans les rues de Belgrade. Au cours du festival vous pourrez participer à une promenade cartographique pour apprendre à repérer les caméras et discuter avec d’autres militants.
Le 24 septembre à 21h30, nous déposerons ensemble la plainte collective contre la Technopolice lancée le 24 mai dernier. Pensez bien à rejoindre la plainte avant cette date !
Le dépôt de la plainte sera suivi d’un concert du groupe de musique marseillais Technopolice et son garage groovy aux accents surf.
";s:7:"dateiso";s:15:"20220823_161349";}s:15:"20220729_131135";a:7:{s:5:"title";s:83:"Généralisation de la censure automatisée : le Conseil constitutionnel est saisi";s:4:"link";s:118:"https://www.laquadrature.net/2022/07/29/generalisation-de-la-censure-automatisee-le-conseil-constitutionnel-est-saisi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18799";s:7:"pubDate";s:31:"Fri, 29 Jul 2022 11:11:35 +0000";s:11:"description";s:270:" L’Assemblée nationale a adopté définitivement la proposition de loi relative à la « diffusion de contenus à caractère terroriste en ligne », issue du règlement européen de censure terroriste que nous avons longuement combattu ces dernières…";s:7:"content";s:12073:"
L’Assemblée nationale a adopté définitivement la proposition de loi relative à la « diffusion de contenus à caractère terroriste en ligne », issue du règlement européen de censure terroriste que nous avons longuement combattu ces dernières années. En réaction, des député·es viennent de saisir le Conseil constitutionnel. Il s’agit de l’ultime recours pour empêcher l’application de ce dispositif déjà jugé attentatoire à la liberté d’expression et qui mettrait fin à l’internet décentralisé.
La dernière étape d’un long combat
Entre 2019 et 2021, aux cotés de nos allié·es européen·nes, nous avons mené campagne contre le règlement de « censure terroriste ». Poussé par l’Allemagne et la France, ce texte affichait l’objectif de la lutte contre le terrorisme pour imposer un régime de censure administrative à l’ensemble des acteurs du Web, y compris les petites infrastructures qui construisent l’internet décentralisé. Adopté rapidement, malgré l’opposition de nombreuses associations, le contenu du règlement doit aujourd’hui rentrer dans le droit national français.
Que prévoit exactement ce texte ? Il donne au pouvoir administratif, et donc à la police, la capacité d’ordonner à tout hébergeur de retirer en une heure un contenu qu’elle aura identifié comme à caractère « terroriste ». Ces demandes pourront concerner une multitude de services en ligne, qu’il s’agisse de plateformes, réseaux sociaux, hébergeurs de vidéos ou de blogs, peu importe leur taille dès lors qu’ils sont localisés dans l’Union européenne. Cette injonction sera directement transmise à ces fournisseurs de services, sans que l’intervention d’un juge ne confirme ou non le bien-fondé de la demande. Si des recours sont possibles, ils n’arrivent qu’a posteriori, une fois la censure demandée et exécutée. Et si un contenu n’est pas retiré, une sanction allant jusqu’à 250 000 € par contenu non-retiré, ou 4% du chiffre d’affaires mondial annuel en cas de récidive, pourra être prononcée en France.
En France, l’autorité en charge d’envoyer ces demandes sera l’OCLCTIC, autorité déjà autorisée à demander le blocage de site en 24h depuis 2014 pour apologie et provocation au terrorisme. De plus, les hébergeurs seront tenus, et pourront être forcés par l’ARCOM (nouvelle institution fusionnant le CSA et la HADOPI), de lutter contre la diffusion de ces contenus à caractère « terroriste » sous peine de sanction de 4% du chiffre d’affaire mondial annuel. L’ARCOM pourra notamment demander de mettre en place des « mesures techniques », et les plateformes pourront utiliser des filtres fondés sur l’intelligence artificielle capables de détecter de façon automatisée certaines images ou certains textes dès leur publication.
Un texte dangereux et liberticide
Nous avons dénoncé depuis longtemps les nombreux dangers que présente ce texte. Non seulement la censure n’est ni le procédé le plus utile ou efficace pour lutter contre le terrorisme, mais sa généralisation aura des dommages collatéraux considérables sur le fonctionnement actuel d’internet. Il est évident qu’imposer une obligation de retrait en une heure à des acteurs de petite taille, ayant peu moyens humains et techniques, est irréaliste. Afin d’échapper aux sanctions, ils n’auront pas d’autre choix que d’avoir recours aux outils de détection et de censure automatisée de contenus développés par les géants du web. Ce nouveau mécanisme aura ainsi pour effet de renforcer la place dominante des grandes plateformes qui sont les seules à pouvoir mettre en place ces mesures techniques aujourd’hui.
Aussi et surtout, l’automatisation et la rapidité exigée de la censure renforceront l’invisibilisation d’expressions politiques contestataires et radicales. En effet, la notion de terrorisme est si largement définie dans le règlement qu’elle pourra servir à justifier la censure de discours radicaux ou de toute expression favorable à des actions politiques offensives ou violentes – tels que le sabotage ou le blocage d’infrastructures. Des exemples concrets ont démontré ces dernières années les abus auxquels pouvait mener une interprétation large du « terrorisme » par la police française. Le régime existant de censure administrative en 24h a ainsi pu conduire à bloquer un site militant (décision annulée par la justice l’année d’après) ou à demander le retrait d’une caricature d’Emmanuel Macron sans que l’on ne sache sur quel fondement cette demande zélée avait été faite .
Plus récemment, différentes demandes du gouvernement de dissolution administrative d’association ont illustré l’instrumentalisation de la notion de terrorisme. Ainsi, en avril dernier, le Conseil d’État a annulé la dissolution de deux associations de soutien à la Palestine voulues par le ministère de l’Intérieur. Les juges ont estimé que la manifestation de soutien à une association palestinienne et à des personnes condamnées pour des faits de terrorisme ne constituait pas des « agissements en vue de provoquer des actes de terrorisme en France ou à l’étranger ».
De façon similaire, si le Conseil d’État a validé la dissolution du CCIF (notamment pour des contenus postés par des tiers sur leurs réseaux sociaux) il a retoqué le gouvernement sur l’invocation du terrorisme comme motif de dissolution. Pour les juges, les faits avancés (tels que liens « avec la mouvance islamiste radicale», la contestation d’une arrestation du président d’une association faisant l’objet d’une dissolution ou le maintien en ligne de commentaires antisémites ou haineux) ne pouvaient constituer des « agissements en vue de provoquer des actes de terrorisme ». Cette jurisprudence est d’ailleurs citée dans le dernier rapport de la « personnalité qualifiée », c’est-à-dire l’autorité chargée d’évaluer la validité des demandes de retrait envoyées à l’OCLCTIC (d’abord rattachée à la CNIL et maintenant à l’ARCOM), signifiant que cette décision pourra servir de critères pour l’analyse des contenus qui lui sont transmis.
Ces exemples sont la preuve que l’administration, dès qu’on l’autorise à qualifier des actes de terrorisme, interprète cette notion de façon trop large et à des fins politiques. À chaque fois c’est l’intervention d’un juge qui permet de corriger ces abus. Pourquoi en serait-il autrement avec ce nouveau mécanisme de censure ?
Le pouvoir décisif du Conseil constitutionnel
Les dangers de ce nouveau régime sont grands et peuvent encore être contrés par le Conseil constitutionnel. Celui-ci n’a d’ailleurs qu’à s’appuyer sur sa propre jurisprudence pour censurer ce texte. En effet, en 2020, alors que le règlement européen de censure n’était pas encore définitivement adopté, le gouvernement français avait voulu forcer l’arrivée d’un compromis sur ce texte en anticipant son application. Il avait alors introduit au dernier moment dans la loi de lutte contre la « haine en ligne » (ou loi Avia) un régime identique de censure administrative en une heure. Mais ce tour de force s’est avéré être un pari perdu : le Conseil constitutionnel l’a jugé contraire à la liberté d’expression, sans ambiguïté.
Pour fonder sa décision, le Conseil estimait, d’une part, que la détermination du caractère illicite des contenus était soumise à la seule appréciation de l’administration. D’autre part, il constatait que si l’hébergeur voulait contester cette décision devant un tribunal, cela ne pouvait avoir d’effet « suspensif » puisqu’il est impossible qu’un juge se prononce en moins d’une heure. Il a ainsi estimé que le pouvoir de retrait et de blocage confié à l’autorité administrative portait une atteinte disproportionnée à la liberté d’expression et de communication.
Deux ans plus tard, des dispositions ayant les mêmes lacunes (qualification par une administration et absence d’intervention d’un juge avant le retrait) sont de retour devant le Conseil constitutionnel. Logiquement et afin d’être cohérent, il devrait appliquer le même raisonnement pour censurer ce dispositif. Mais, le Conseil constitutionnel refusant de contrôler, en principe, la conformité d’un texte européen à la Constitution, le risque ici est fort qu’il se défausse sur le fait que cette loi est directement issue d’un règlement européen et qu’il ne peut vérifier sa constitutionnalité. Néanmoins, il existe quelques exceptions de droit qui lui permettent de jouer pleinement son rôle : nous espérons donc que le Conseil constitutionnel aura le courage politique de mobiliser ces exceptions.
Le Conseil constitutionnel se doit d’examiner la constitutionnalité de la loi qui lui est soumise et juger, de façon identique à sa décision d’il y a deux ans, que le régime de censure administrative voté par le Parlement est inconstitutionnel. S’il s’y refuse, il acceptera que le gouvernement contourne la Constitution et se moque de l’État de droit.
";s:7:"dateiso";s:15:"20220729_131135";}s:15:"20220705_080000";a:7:{s:5:"title";s:56:"Ferons-nous tomber la Hadopi devant le juge européen ?";s:4:"link";s:57:"https://www.laquadrature.net/2022/07/05/hadopi-cjue-2022/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18784";s:7:"pubDate";s:31:"Tue, 05 Jul 2022 06:00:00 +0000";s:11:"description";s:245:"La Quadrature du Net contre la Hadopi, une histoire qu’on pourrait croire vieille comme le monde… vieille comme La Quadrature en tout cas, puisque c’est dans la lutte contre la création de cette autorité administrative…";s:7:"content";s:16724:"
La Quadrature du Net contre la Hadopi, une histoire qu’on pourrait croire vieille comme le monde… vieille comme La Quadrature en tout cas, puisque c’est dans la lutte contre la création de cette autorité administrative de protection des droits d’auteurs et droits voisins sur Internet qu’est née l’association. Autant dire que symboliquement, le dossier est fort pour nous ! Quinze ans plus tard, La Quadrature persiste dans son combat, avec ce matin une audience majeure devant la Cour de Justice de l’Union européenne (CJUE), dans le cadre d’un contentieux que nous avons débuté en 2019 contre la Hadopi avec FDN, FFDN et Franciliens.net. On vous résume ici l’affaire, et surtout ses derniers rebondissements, et un live-tweet de l’audience sera disponible.
Petit retour historique
28 octobre 2009 : la loi Hadopi 2 ( « relative à la protection pénale de la propriété littéraire et artistique sur Internet ») vient d’être promulguée. Elle fait suite à la loi « favorisant la diffusion et la protection de la création sur Internet », adoptée quelques mois plus tôt (dite loi Hadopi 1). Ensemble, ces deux lois créent la Hadopi (pour « Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet ») et, avec elle, le système de la « riposte graduée ». Au 1er janvier 2022, la Hadopi a fusionné avec le CSA : leur nom est devenu Arcom, mais le fond reste le même.
Avec ce système, l’objectif affiché par le gouvernement est d’« assurer le respect du droit d’auteur sur Internet, d’abord par l’envoi d’avertissements et, en cas d’échec, par la transmission à l’autorité judiciaire du dossier révélant des faits de nature à caractériser une infraction ». Pour nous, il s’agit surtout de mettre en place une surveillance massive d’Internet pour cibler les internautes partageant de la musique ou des films sans autorisation (si vous voulez un aperçu des débats, un historique du dossier et la liste des articles publiés par La Quadrature sur le sujet entre 2008 et 2012, on vous renvoie à cette archive).
La Hadopi, comment ça marche ?
Pour fonctionner, c’est-à-dire avertir puis éventuellement sanctionner les internautes qui partagent des œuvres sans autorisation, la Hadopi a besoin de :
– l’accès à l’adresse IP des internautes qui partagent les œuvres, telle qu’identifiée par des entreprises privées assermentées par le ministère de la culture et mandatées par les ayants-droit des œuvres concernées ;
– l’accès, à partir de cette adresse IP, aux données d’état civil des personnes ciblées (nom, prénoms, adresse postale, adresse email), obtenues auprès des fournisseurs d’accès Internet (FAI, qui ont selon la loi française obligation de conserver les données de connexion de leurs client-es pendant un an, et l’identité civile pendant toute la durée du contrat) ;
– la possibilité de traiter toutes ces informations dans un fichier qui regroupe toutes les adresses IP accusées par les ayants-droit d’avoir partagé un fichier ainsi que l’identité civile de l’internaute derrière chaque adresse.
Sans tout ceci, aucun moyen pour l’autorité de remonter à l’identité de la personne ayant partagé une œuvre. Et donc aucun moyen de la contacter et de lui envoyer les emails d’avertissement.
Juridiquement, ce système se base sur différents textes :
– un article du code de la propriété intellectuelle, qui autorise les agents de la Hadopi à accéder aux données d’état civil à partir de l’adresse IP d’un·e internaute, auprès de son FAI ;
– un décret d’application de la loi Hadopi qui autorise la création du fichier relatif à la « riposte graduée ».
2019, La Quadrature contre-attaque
En 2019, La Quadrature repartait au front, aux côtés de la Fédération des fournisseurs d’accès Internet associatifs (FFDN), de French Data Network (FDN) et de Franciliens.net. Ensemble, nous avons déposé un recours devant le Conseil d’État pour demander l’abrogation d’un décret d’application de la Hadopi, celui qui autorise le traitement relatif à la riposte graduée. Ce fameux fichier, géré par la Hadopi elle-même, regroupe les informations obtenues auprès des ayants-droits (les adresses IP) et des FAI (l’identité civile). Notre avis était que si ce décret tombait, la Hadopi ne pourrait alors plus continuer sa répression, et la fameuse « riposte graduée » serait vidée de toute effectivité.
Nous appuyions notre recours sur le fait que la riposte graduée est doublement contraire au droit de l’Union européenne. D’une part, elle repose sur un accès à l’adresse IP des internautes accusés de partager des fichiers. D’autre part, elle implique l’accès à l’identité civile de ces internautes. Or, la CJUE estime que seule la criminalité grave permet de justifier un accès aux données de connexion (une adresse IP ou une identité civile associée à une communication sont des données de connexion). L’accès par la Hadopi à ces informations est donc disproportionné puisqu’il ne s’agit pas de criminalité grave.
En outre, ce régime français d’accès aux données de connexion est rendu possible grâce à l’obligation de conservation généralisée des données de connexion qui a cours en France. Celui-ci impose aux FAI et aux hébergeurs de conserver pendant un an les données de connexion de l’ensemble de la population. C’est à partir de ces données, et notamment de l’adresse IP, que la Hadopi peut identifier les internautes « contrevenant·es ».
Or, ce régime de conservation généralisée des données de connexion est tout simplement contraire au droit de l’Union européenne. En effet, la Cour de justice de l’Union européenne a rendu en 2014, en 2016, en 2020 et en 2022 quatre arrêts qui s’opposent clairement à toute conservation généralisée et indifférenciée des données de connexion. En 2021, la CJUE a également rappelé que l’accès à ces données par les autorités ne peut se faire qu’à deux conditions cumulatives : s’il s’agit d’affaires de criminalité grave et à la condition qu’il y ait un contrôle préalable de ces accès par une autorité indépendante (pour plus de détails, voici comment nous avions présenté l’affaire début 2020).
Histoire d’enfoncer le clou, nous avions aussi profité de ce recours pour poser une question prioritaire de constitutionnalité relative au régime légal d’accès aux données de connexion (adresse IP et identité civile) par la Hadopi. Le mécanisme de la question prioritaire de constitutionnalité (QPC) permet de demander au Conseil constitutionnel de se prononcer sur la conformité à la Constitution d’une loi lorsque celle-ci est cruciale pour la résolution d’un litige. Ici, le décret de la Hadopi qui crée le fichier servant à collecter des adresses IP et l’identité civile dépend de la légalité de la loi qui autorise une telle collecte. Le Conseil d’État a donc transmis notre QPC au Conseil constitutionnel début 2020.
2020, une censure partielle et boiteuse par le Conseil constitutionnel
En mai 2020, le Conseil constitutionnel rend sa décision suite à notre question prioritaire de constitutionnalité. Et le moins qu’on puisse dire c’est que cette décision est tordue. Accrochez-vous, ça n’est pas simple à comprendre au premier abord…
Au lieu de simplement déclarer notre fameux article de loi « conforme » ou « non conforme » à la Constitution, le Conseil constitutionnel a décidé de le réécrire. Cet article (que vous pouvez aller lire ici si le cœur vous en dit) autorisait en effet dans ses alinéas 3 et 4 la Hadopi à pouvoir accéder à « tous documents » nécessaires à sa mission répressive, avant de préciser dans le dernier alinéa que les agents de la Hadopi « peuvent, notamment, obtenir des opérateurs de communications électroniques l’identité, l’adresse postale, l’adresse électronique et les coordonnées téléphoniques de l’abonné [ciblé] ». Dans sa décision, le Conseil constitutionnel a réécrit cet article en censurant l’alinéa autorisant l’accès à « tous documents » ainsi que le terme « notamment ». À première vue, cela pourrait sembler plutôt cosmétique… mais cela revient en réalité à ne laisser à la Hadopi que l’accès aux données cités juste après le « notamment » censuré, c’est-à-dire l’identité, l’adresse postale, l’adresse mail et le numéro de téléphone de la personne concernée. Lors de la publication de cette décision le 20 mai 2020, nous avions d’abord cru à une victoire franche, avant de réaliser après quelques heures d’analyse et de débats que cette victoire n’était pas forcément immédiate. La décision restreignait certes la liste des données accessibles aux agents de la Hadopi mais elle ne se prononçait pas explicitement sur les conséquences de cette restriction quant à la possibilité ou non pour la Hadopi de continuer à fonctionner.
Petit couac pour la Hadopi : cette liste n’évoque pas l’adresse IP dans les données auxquelles l’autorité est autorisée à accéder. Est-ce à dire que l’accès par la Hadopi aux adresses IP des internautes « contrevenant·es » serait illégal, et que le décret qui permet d’enregistrer ces adresses IP ne reposerait plus sur rien suite à cette censure partielle du Conseil constitutionnel ? C’est ce que nous affirmons aujourd’hui devant les juridictions.
La Hadopi peut-elle encore faire son travail légalement ?
Suite à la décision du Conseil constitutionnel, notre interprétation est qu’en l’état la Hadopi ne peut plus faire légalement son travail, en accédant aux adresses IP alors même que la loi telle que censurée ne le permet plus. Mais ça n’est pas l’avis du gouvernement ni de la Hadopi qui persistent à affirmer que l’article censuré par le Conseil constitutionnel ne concernait pas la collecte par les agents assermentés (les ayants-droit) des adresses IP.
En tout cas, en mai 2021, le Conseil d’État a programmé l’audience de notre recours en catastrophe, ne nous prévenant qu’une semaine à l’avance. Nous avons alors produit, en urgence, un nouveau mémoire, basé sur deux points :
– la Hadopi n’a selon nous plus de base légale pour traiter les adresses IP depuis la censure par la Conseil constitutionnel ;
– de toute façon, l’accès aux adresse IP par la Hadopi est disproportionné puisqu’il ne s’agit jamais que de contraventions et non de criminalité grave (seul cas prévu par le droit européen pour accéder à ces données) et qu’il n’y a pas de contrôle indépendant préalable à cet accès ;
Après un premier report d’audience, le Conseil d’État a décidé de botter en touche et de transmettre à la Cour de justice de l’Union européenne une « question préjudicielle » (c’est-à-dire une question relative à l’interprétation du droit de l’UE) sur l’accès par la Hadopi à l’identité civile à partir de l’adresse IP d’une personne. Rien concernant l’accès à l’adresse IP préalable à l’accès à l’identité civile. Rien non plus concernant la conservation de ces données, alors même que la question de l’accès est intimement liée à celle de la conservation. Par cette démarche, le Conseil d’État demande en réalité à la CJUE d’assouplir sa jurisprudence concernant l’accès à l’identité civile. Cela nous rappelle un triste précédent : en 2018, le Conseil d’État avait également préféré, par une question préjudicielle, demander à la CJUE d’assouplir sa jurisprudence relative à la conservation des données de connexion plutôt que de déclarer le droit français contraire au droit de l’UE, et avait fini, lorsque celle-ci refusa de se plier aux souhaits sécuritaires français, par opter pour un Frexit sécuritaire plutôt que de respecter le droit de l’UE.
L’audience concernant cette question préjudicielle est prévue devant la CJUE aujourd’hui, mardi 5 juillet, et elle revêt pour nous différents enjeux.
D’abord, nous espérons que la CJUE réintégrera dans sa décision les enjeux de la conservation des données de connexion et de l’accès à l’adresse IP des internautes, que le Conseil d’État a mis de côté. Et pour cause : il n’a pas respecté la décision prise par la CJUE sur ce sujet en octobre 2020 ! Nous avons donc besoin que la CJUE profite de cette occasion pour rappeler au Conseil d’État que la conservation généralisée des données de connexion existante en France est contraire au droit de l’Union européenne, et que l’exception créée par la France pour contourner ce point n’a pas lieu d’être.
Nous espérons aussi que cette décision ne laissera pas la possibilité au Conseil d’État de créer une « exception Hadopi » en France. Nous craignons pourtant qu’il veuille contourner l’exigence selon laquelle un accès aux données de connexion (ici l’adresse IP et l’identité civile associée à une communication) n’est possible qu’aux fins de lutter contre la criminalité grave, de même que l’exigence d’un contrôle préalable indépendant à l’accès à ces données.
Si cette affaire a pris une ampleur assez surprenante (en 2019, nous n’imaginions pas forcément arriver devant la CJUE), elle nous offre une opportunité assez exceptionnelle de faire d’une pierre deux coups, et pas des moindres ! Priver notre adversaire originelle de son pouvoir de nuisance puis, en rebondissant vers nos luttes plus récentes, rétablir notre droit à l’anonymat sur l’ensemble du Web (pas uniquement contre la Hadopi mais aussi contre la police et les services de renseignement). Face à une opportunité aussi rare qu’étonnante, ne le cachons pas : l’enthousiasme est au rendez-vous.
";s:7:"dateiso";s:15:"20220705_080000";}s:15:"20220613_173814";a:7:{s:5:"title";s:66:"A Putanges-le-lac comme ailleurs, la vidéosurveillance se propage";s:4:"link";s:105:"https://www.laquadrature.net/2022/06/13/a-putanges-le-lac-comme-ailleurs-la-videosurveillance-se-propage/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18759";s:7:"pubDate";s:31:"Mon, 13 Jun 2022 15:38:14 +0000";s:11:"description";s:270:" Le 25 mai 2022, nos camarades du collectif Vivre Ensemble Putanges attaquaient l’installation de caméras de vidéosurveillance prévue pour la commune devant le Tribunal administratif de Caen. Cette mobilisation s’inscrit dans le contexte d’un…";s:7:"content";s:26873:"
Le 25 mai 2022, nos camarades du collectif Vivre Ensemble Putanges attaquaient l’installation de caméras de vidéosurveillance prévue pour la commune devant le Tribunal administratif de Caen. Cette mobilisation s’inscrit dans le contexte d’un déploiement irréfrénable des caméras de vidéosurveillance partout en France. Elles sont désormais aussi installées dans des villages. Comment déconstruire et lutter contre ce discours pro-caméras et technopolice dominant ?
Le cas de Putanges-le-lac : une mobilisation contre la vidéosurveillance en milieu rural
En 2022, les habitants et habitantes de cette commune de Normandie ont appris par la presse que la mairie désirait installer 21 caméras pour les quelques 2400 âmes. Le collectif Vivre Ensemble Putanges s’est monté pour alerter la population et lutter contre l’installation de ce système de vidéosurveillance, prévu ici pour surveiller le lac de la commune, les ordures et la conduite de mobylettes, le tout pour 200 000€. S’en est suivi le lancement d’une une pétition, des tractages sur les marchés, une tentative de dialogue avec la municipalité pour signifier l’opposition de nombre d’habitantes et habitants à ce projet et questionner l’utilité d’un tel dispositif, le tout sans grande réponse. Une des solutions trouvées pour tenter de ralentir le projet fut de lancer un recours devant le tribunal administratif de Caen en contestant l’autorisation préfectorale de ces caméras.
Le recours se base sur trois arguments : tout d’abord, la municipalité n’a pas prouvé l’utilité d’un tel déploiement. Ensuite, c’est un dispositif disproportionné en terme de nombre de caméras. Enfin, il existe un soupçon de conflit d’intérêt avec le dirigeant de l’entreprise ayant conseillée la commune pour son projet de vidéosurveillance, qui siège également à la commission saisie par la préfecture avant de valider l’installation de caméras.
Même si, selon le maire de la commune, Sébastien Leroux, « Il n’y a pas à avoir peur d’être surveillé » et malgré les tentatives de discussion du collectif et la mobilisation des putangeois et puteangoises, le projet continue.
Le cas de Putanges-le-lac est hélas ordinaire : de plus en plus de petites et moyennes communes décident, pour diverses raisons – en cédant à la pression des assurances, des gendarmes ou de la préfecture, pour faire comme les autres, par facilité politique, pour faire plaisir à des entreprises locales, etc – de dépenser des sommes conséquentes pour installer des caméras de vidéosurveillance.
Comment a-t-on pu arriver en 2022 à cette expansion insensée des caméras de vidéosurveillance, et ce, jusqu’aux territoires les moins densément peuplés, pour lutter entre autres contre « le dépôt d’ordure sauvage » ? Comment expliquer qu’il existe, au bas mot, 1 million de caméras surveillant l’espace public si elles ne sont pas efficaces pour veiller à la sécurité des habitants et habitantes des villes et lutter contre ce qui est appelé « délinquance » ?
Retour historique du déploiement de la vidéosurveillance
Les caméras de vidéosurveillance dans l’espace public se sont déployées en France pour la première fois à Levallois Perret en 1991. C’est ensuite quelques années plus tard, au travers de la loi d’orientation et de programmation relative à la sécurité de janvier 1995 (dite « LOPSI »), qu’un premier cadre légal est venu les encadrer. Après un lent développement, c’est sous la présidence de Nicolas Sarkozy qu’un décret de 2007 en promeut l’utilisation et généralise leur installation un peu partout dans les métropoles et villes françaises, en en faisant « le choix prioritaire de la vidéosurveillance » 1https://www.cairn.info/revue-deviance-et-societe-2016-1-page-25.htm. Depuis lors, les métropoles françaises sont suréquipées et dépensent sans compter pour de nouvelles caméras toujours plus performantes, un réseau toujours plus connecté via la fibre, et un centre de surveillance le plus à la pointe possible, sans compter tous les opérateurs vidéos qui observent les écrans 24h/24 à la recherche d’incivilités, de mouvement de foule ou de petit vols.
En 2011, c’est la promulgation de la loi « LOPPSI 2 qui marque une nouvelle étape – le texte remplace notamment le terme « vidéosurveillance » par le terme « vidéoprotection ». Dans son annexe, la loi entend tripler le nombre de caméras de vidéosurveillance de la voie publique. C’est un texte d’une grande ambition sécuritaire qui, en plus, autorise le blocage de sites web par le ministère de l’Intérieur, prévoie la fusion des fichiers de police et de gendarmerie (STIC et JUDEX) en un méga fichier (qui deviendra le TAJ), tout en appelant à « trouver les solutions innovantes dans des domaines tels que […] la vidéoprotection intelligente [ou] la reconnaissance faciale ». À ce moment, la Cour des comptes évalue à 10 000 le nombre de caméras de vidéosurveillance sur la voie publique.
La vidéosurveillance s’est d’abord développée dans les métropoles, parfois de manière extrêmement rapide, comme à Toulouse : en 2014, la ville comptait une vingtaine de caméras. Elle en compte aujourd’hui plus de 400. Cet accroissement soudain, sous la mandature de Jean-Luc Moudenc, est allé de pair avec une politique sécuritaire et répressive volontaire 2https://www.francebleu.fr/infos/societe/securite-mobilite-equipements-les-objectifs-de-jean-luc-moudenc-pour-mieux-vivre-a-toulouse-1631695380.
Tous les six ans, la Gazette des communes réalise un classement des cinquante villes les plus vidéosurveillées. En 2020, le nombre de caméras dans les communes les plus équipées avait plus que doublé par rapport à 2013. Aujourd’hui, il n’existe pas de chiffre officiel quand au nombre de caméras présentes dans l’espace public, qu’elles soient à l’initiative d’un acteur privé ou bien d’une collectivité. La dernière tentative de comptabilisation a été réalisée en 2012, soit il y a plus de 10 ans, par la CNIL, qui comptait 800 000 caméras présentes dans l’espace public en France 3https://www.lesinrocks.com/actu/les-cinq-chiffres-fous-de-la-videosurveillance-22359-21-06-2012/. Il reste difficile d’estimer leur nombre actuel, mais au vu de l’engouement manifesté par de nombreuses villes et de l’important lobbying des entreprises concernées, on imagine facilement que ce nombre a fortement augmenté. Comment expliquer cet engouement pour la vidéosurveillance ?
Des villes aux campagnes, une surveillance absurde
Aujourd’hui, les caméras sont un moyen d’action totalement accepté et considéré comme légitime dans les politiques publiques, peu importe l’échelle (des collectivités territoriales aux grandes politiques de subventions étatiques de la vidéosurveillance). Et si les questions écologiques, politiques et philosophiques sont totalement écartées du débat public dominant, l’efficacité réelle de la vidéosurveillance l’est aussi. Les rares études4 voir le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf ou encore celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion qui analysent l’effet concret – et dérisoire – des caméras ne sont jamais mobilisées par les acteurs qui les mettent en place, tout comme les sommes faramineuses dépensées dans le tout sécuritaire sont passées sous silence.
« La littérature académique, en France et à l’international (Groombridge, 2008 ; Gill et al. 2005), a démontré que la vidéosurveillance n’a pas d’impact significatif sur la délinquance. Elle est plus souvent utilisée pour des raisons différentes que les motifs mis en avant lors de son installation. En effet, elle sert moins à lutter contre les vols et les cambriolages qu’à des fins de gestion urbaine et de vidéoverbalisation comme l’ont pointé notamment Elodie Lemaire ou Laurent Mucchielli. »5https://linc.cnil.fr/fr/comment-la-videosurveillance-se-developpe-t-elle-dans-les-villages
Pour expliquer ce hiatus, le laboratoire de recherche de la CNIL, le LINC, évoque la construction d’un système de production de croyance en l’efficacité de la vidéosurveillance. Cela signifie que c’est à travers la mobilisation et l’engouement de différents acteurs pour la vidéosurveillance que se construit cette croyance dans son efficacité et son utilité politique : préfets, gendarmes, élus, assurances, presse, entreprises… il existe une concordance de discours qui pointe la vidéosurveillance comme une solution toute trouvée.
Si tout ce monde partage les prétendus bienfaits de la vidéosurveillance, c’est aussi parce que ces acteurs y trouvent leur intérêt :
L’installation de caméras permet aux municipalités de facilement capitaliser sur ces dispositifs : la sécurité est une ressource rentable politiquement, tant comme facteur d’attractivité territoriale pour la commune que comme une mesure de court terme pouvant prétendre répondre à des problématiques sociales. En période d’élections locales notamment, la sécurité est un capital politiquement valorisable car c’est une mesure quantifiable, chiffrable et facilement mise en avant.
Du côté des entreprises de la sécurité, la vidéosurveillance représente un marché très lucratif, le secteur est en constante expansion (10% de croissance par an de prévus) : il représentait 45 milliards d’euros en 2020 et pourrait représenter jusqu’à 75 milliards d’ici 2025.
Et si aujourd’hui les grandes et moyennes villes continuent à s’équiper et à renouveler l’infrastructure de vidéosurveillance, désormais les nouveaux débouchés de ce marché des équipements sécuritaires se trouvent en zones rurales. À peu près n’importe quel fait divers peut servir à justifier l’installation de vidéosurveillance et à la mettre à l’agenda : un vol dans une boulangerie, des poubelles trop remplies, des petits délits routiers. Ici comme dans d’autres domaines, on assiste à une fuite en avant technologique, basée sur la croyance aveugle dans le progrès technique comme solution à tout. Aujourd’hui, cette fuite en avant franchit une nouvelle étape : celle de l’algorithmisation de la surveillance et de la sécurité.
Aujourd’hui en ville : l’automatisation de la sécurité urbaine numérique
Depuis le lancement de la campagne technopolice, nous avons constaté un peu partout en France la présence d’« expérimentations », pour tenter de rendre plus acceptable le déploiement de certaines technologies de surveillance et aussi pour légitimer leur opacité. Aujourd’hui, nous voyons le déploiement de la technopolice se répandre et s’imposer de plus en plus. Et la technopolice repose grandement sur cette infrastructure qu’est la vidéosurveillance.
Dorénavant, n’importe quel fait divers est instrumentalisé pour tenter de rendre acceptable l’idée que la Technopolice serait une solution à des problématiques humaines et sociales. Dernier exemple en date : pour masquer la désorganisation et les violences de la police aux abords du Stade de France dans l’actualité récente, la solution serait, d’après C. Estrosi, de généraliser la reconnaissance faciale à l’entrée des stades.
Cette volonté de généralisation de la technopolice, et notamment de la vidéosurveillance algorithmique, est présentée par ses promoteurs comme une nouvelle étape dans la surveillance. D’après eux, il y aurait trop de caméras pour qu’on soit à même de toutes les regarder. Il peut aussi y avoir des erreurs, des oublis, un manque de concentration de la part des opérateurs humains derrière les caméras. il faudrait maintenant passer au niveau supérieur : des algorithmes pour dire aux opérateurs vidéos quoi regarder et quoi voir sur ces caméras.
Ce discours sert plusieurs intérêts : tout d’abord, il justifie l’achat d’encore plus de caméras, pour mailler le territoire, et pousse à adjoindre une couche algorithmique pour tenter de rendre – enfin – efficaces tous ces objets technologiques qui seraient aujourd’hui inutiles car dénués d’intelligence artificielle. Cette rhétorique est également révélatrice de l’inutilité de cette politique pro-caméras en cours depuis plusieurs dizaines d’années. Et quel espoir laisse penser que les caméras algorithmiques seraient plus efficaces que les précédentes ? Si ce n’est, encore, une croyance aveugle en la technologie comme solution à tout ?
S’il y a vraiment trop de caméras pour qu’on puisse regarder tout ce qu’elles filment, et que sans cette couche d’algorithme elles sont en fait peu utiles, alors enlevons-les !
Peu importe que, politiquement, mettre des caméras soit significatif d’une infantilisation de la population, qu’elles ne fassent que donner plus de pouvoir à une police qui en possède déjà trop, qu’elles coûtent un pognon monstre, qu’elles ne servent à rien, qu’elles s’inscrivent et participent au désastre écologique notamment par les infrastructures qu’elles légitiment à construire… Tout est bon à prendre pour le néolibéralisme autoritaire qui voit dans le numérique et la dématérialisation une nouvelle étape du capitalisme.
Conclusion :
Ce qui se joue à Putanges, comme ailleurs, c’est l’introduction sur un territoire d’un outil technologique présenté comme une solution évidente parce qu’inscrit dans un système de croyances largement alimenté par les acteurs institutionnels et privés. Au-delà de la surveillance impliquée par les caméras, de l’infantilisation et de la délégation à des objets froids du vivre ensemble et de ce qui nous fait commun, c’est tout un système néolibéral et autoritaire que cet outil sert. Le passage à l’échelle technologique en cours tente de justifier l’existence même des caméras de vidéosurveillance, d’où l’importance de lutter et soutenir les collectifs qui combattent ce déploiement sur lequel repose une grande part de l’infrastructure de surveillance de la police : les caméras en elles-mêmes, notamment quand elles sont reliées aux fichiers et aux algorithmes.
Rejoignez la plainte contre le ministère de l’intérieur qui attaque le fichage, la vidéosurveillance, et les algorithmes de la police, dont fait partie la reconnaissance faciale, ici plainte.technopolice.fr
voir le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf ou encore celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion
";s:7:"dateiso";s:15:"20220613_173814";}s:15:"20220524_114521";a:7:{s:5:"title";s:41:"Plainte collective contre la Technopolice";s:4:"link";s:82:"https://www.laquadrature.net/2022/05/24/plainte-collective-contre-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18733";s:7:"pubDate";s:31:"Tue, 24 May 2022 09:45:21 +0000";s:11:"description";s:255:"Il y a 3 ans, La Quadrature du Net lançait l’initiative Technopolice pour recenser les nouvelles technologies policières installées dans nos villes. Aujourd’hui, la surveillance de nos rues est devenue totale, car ces technologies se…";s:7:"content";s:3209:"
Il y a 3 ans, La Quadrature du Net lançait l’initiative Technopolice pour recenser les nouvelles technologies policières installées dans nos villes. Aujourd’hui, la surveillance de nos rues est devenue totale, car ces technologies se renforcent les unes les autres : vidéosurveillance généralisée, fichage de masse, reconnaissance faciale et détection automatisée de comportements. Pour mettre un coup d’arrêt à cette surveillance totale, nous lançons une plainte collective contre le ministère de l’intérieur qui l’organise illégalement.
Rejoignez la plainte sur plainte.technopolice.fr. Vous y trouverez le détail de notre argumentaire et de la procédure.
En résumé, il s’agit d’une procédure similaire à celle que nous avions engagée il y a 4 ans devant la CNIL contre les GAFAM. Ces plaintes collectives avaient réuni 12 000 personnes et conduit à quelques belles victoires, telle que l’amende record de 746 millions d’euro contre Amazon (les autres plaintes sont encore en cours de traitement).
Aujourd’hui, nous attaquons l’État français pour demander l’arrêt de quatre dispositifs de surveillance :
les caméras de surveillance installées depuis plus de 20 ans dans toutes les villes de France, qui n’ont cessé de démontrer leur inutilité (et donc leur illégalité) ;
les logiciels qui s’ajoutent à ces caméras, dans le but de détecter des comportement « indésirables » (mendicité, maraude, regroupement, tag…) pour aseptiser nos villes et en exclure les personnes les plus vulnérables ou encore les activistes politiques ;
les fichiers de police enregistrant nos visages, qu’il s’agisse du TAJ (« traitement des antécédents judiciaires »), qui contient 8 millions de photos de personnes connues de la police, ou du TES (« titres électroniques sécurisés »), qui contient la photo de toute personne demandant un passeport ou une carte d’identité ;
l’utilisation de la reconnaissance faciale par la police (plus de 1 600 fois par jour en 2021) et par les services de renseignement, qui est en train d’abroger l’anonymat dans l’espace public.
Le but de notre action n’est pas uniquement juridique : il s’agit aussi d’imposer un rapport de force politique dans un contexte où ces technologies s’imposent dans l’opacité la plus totale. Unissons-nous massivement pour reprendre notre place dans le débat public et faire savoir que la Technopolice est illégale et doit le rester.
";s:7:"dateiso";s:15:"20220524_114521";}s:15:"20220520_122346";a:7:{s:5:"title";s:82:"Révision du règlement eIDAS : la sécurité de l’écosystème web en danger";s:4:"link";s:68:"https://www.laquadrature.net/2022/05/20/revision-du-reglement-eidas/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18717";s:7:"pubDate";s:31:"Fri, 20 May 2022 10:23:46 +0000";s:11:"description";s:287:"Une révision du règlement eIDAS, qui régule les procédures électroniques transfrontières pour l’identification, l’authentification et la certification de sites web au sein de l’UE, est en ce moment étudiée par l’Union européenne. L’article 45 de…";s:7:"content";s:14865:"
Une révision du règlement eIDAS, qui régule les procédures électroniques transfrontières pour l’identification, l’authentification et la certification de sites web au sein de l’UE, est en ce moment étudiée par l’Union européenne. L’article 45 de la proposition concerne l’un des mécanismes clés de la sécurité web pour vérifier si un site sécurisé est celui qu’il prétend être. Chaque navigateur web possède une liste d’ « Autorités de certification racine » (appelées « Root Certificate Authorities » ou « Root CAs » en anglais) jugées dignes de confiance pour, dit simplement, valider les certificats TLS (pour « Transport Layer Security », certificats destinés à garantir la sécurité de la connexion Internet) utilisés par les sites. Chaque éditeur de navigateur web – tel que Mozilla, Google, Apple et Microsoft – dirige son propre programme d’audit indépendant pour valider ces Autorités de certification.
Problème : l’article 45.2 du règlement eIDAS révisé obligerait ces programmes à valider et intégrer automatiquement certaines Autorités de certification soutenues par les États membres de l’Union Européenne, qu’elles remplissent ou non les critères de sécurité exigés jusque-là par les navigateurs web. L’adoption de cette proposition créerait un dangereux précédent mondial : le risque, bien réel, est ni plus ni moins que de rendre possible l’abaissement du niveau de sécurité web pour les internautes.
Naviguer sur un site sécurisé sur Internet est rendu possible grâce à une série d’opérations de vérification et d’audits de sécurité. Ceci permet de s’assurer que le site est bien celui qu’il prétend être et que les informations qui transitent entre le navigateur et le site en question sont chiffrées de manière confidentielle.
Pour cela, le navigateur web vérifie deux choses :
1) que le certificat TLS d’authentification utilisé par le site sécurisé est valide et digne de confiance.
2) que l’Autorité de certification qui a validé et signé ce certificat est digne de confiance.
Si ces conditions ne sont pas réunies, le navigateur vous préviendra que le site est peut-être malveillant. Ce sont les fameux messages que vous avez sans doute déjà rencontrés : « Attention risque probable de sécurité » sur Firefox ou « Votre navigation n’est pas privée » sur Chrome.
Si une Autorité de certification rencontre des défaillances en termes de sécurité, il devient possible pour des acteurs malveillants d’émettre des faux certificats TLS, par exemple pour des sites très fréquentés comme www.google.com. Les attaquants peuvent ensuite consulter le trafic des internautes qui tapent leur requête sur le site malveillant qui se fait passer pour www.google.com. Ce type d’attaque a été conduit par le passé contre de multiples Autorités de certification en raison de failles de sécurité sur leurs systèmes (par exemple DigiNotar CA et Comodo CA en 2011).
Des acteurs étatiques malveillants qui veulent mener des opérations de surveillance de masse dans leur pays peuvent aussi créer et contrôler une Autorité de certification pour contourner les protocoles de sécurité sur Internet. Tous les certificats émis par l’Autorité de certification en question peuvent alors potentiellement être utilisés pour espionner les communications des internautes ciblés.
Pour limiter les risques pour leurs utilisateur·rice·s, les navigateurs web auditent et sélectionnent de manière indépendante les Autorités de certification qui sont jugées dignes de confiance. Les critères de validation sont consultables en ligne, tel le « Root Program » de Mozilla ou celui d’Apple.
En cas de problème de sécurité, les navigateurs peuvent décider de ne pas inclure ou de retirer une Autorité de certification de leurs listes. Par exemple, une Autorité de certification gérée par le gouvernement du Kazakhstan a été bloquée de concert par Google, Apple et Mozilla en 2019. Autre exemple en 2014, lorsque Google avait détecté des faux certificats pour des noms de domaines de Google émis par le centre national d’informatique du gouvernement indien suite à une faille de sécurité : ceux-ci étaient alors inclus dans le « Root Store » de Microsoft, qui a dû les révoquer.
Le processus d’évaluation pour révoquer ou rejeter une Autorité de certification est particulièrement transparent dans le cas des programmes publics à but non lucratif : Mozilla documente ainsi publiquement les audits et les problèmes rencontrés, comme dans le cas de la révocation en 2019 du CA français Certinomis.
Que propose la nouvelle révision du règlement eIDAS ?
La version initiale du règlement eIDAS a été adoptée en 2014 pour fournir « la base des procédures électroniques transfrontières pour l’identification, l’authentification et la certification de sites web au sein de l’UE » (dossier de presse).
Concrètement, le règlement a pour ambition de réguler la manière dont les transactions électroniques s’effectuent au sein de l’Union Européenne, en établissant, pour citer l’ANSSI, un « socle commun pour les interactions sécurisées entre les citoyens, les entreprises et les autorités publiques ».
La section 8 du règlement est dédiée à l’ « Authentification de site internet ». L’article 45 présente les « Exigences applicables aux certificats qualifiés d’authentification de site internet » qui sont fixées à l’annexe IV. Ces certificats qualifiés (« Qualified Web Authentication Certificates », ou QWAC en anglais) sont délivrés par des prestataires de service de confiance (« Trust Service Providers » ou TSP) régis par le règlement eIDAS et qui sont des Autorités de certification soutenues par les gouvernements des États membres de l’Union Européenne.
L’article 45.2 de la proposition de révision pose que « Les certificats qualifiés d’authentification de site internet visés au paragraphe 1 sont reconnus par les navigateurs internet. À cette fin, les navigateurs garantissent que les données d’identité fournies au moyen de l’une des méthodes s’affichent de manière conviviale. À l’exception des entreprises considérées comme des micro et petites entreprises au sens de la recommandation 2003/361/CE de la Commission pendant leurs cinq premières années d’activité en tant que prestataires de services de navigation sur internet, les navigateurs acceptent les certificats qualifiés d’authentification de site internet visés au paragraphe 1 et garantissent l’interopérabilité avec ces derniers. »
Ceci implique que les navigateurs webs sont légalement tenus de reconnaître ces certificats qualifiés comme valides, et donc d’intégrer dans leur liste de confiance les prestataires de service de confiance régis par eIDAS.
Quelles sont les conséquences de cette révision pour les internautes ?
Malheureusement, ces certificats qualifiés d’authentification posent plusieurs problèmes de sécurité et d’interopérabilité dans leur modèle d’implémentation. Depuis leur introduction en 2014, ils n’ont donc pas été adoptés dans l’écosystème web. La Common CA Database, une initiative rassemblant plusieurs éditeurs de navigateurs web autour de la gestion des Autorités de certification et gérée par la fondation à but non-lucratif Mozilla, expose en détails les problèmes techniques rencontrés par les navigateurs avec les spécifications proposées pour les certificats qualifiés : notamment son absence de compatibilité avec le fonctionnement technique des navigateurs web et du déploiement de TLS sur les site, ainsi que ses manques en terme de respect de la vie privée des internautes.
Concrètement, l’article 45.2 reviendrait à obliger les navigateurs web à accepter des prestataires de service de confiance régis par eIDAS, même s’ils ne remplissent pas les critères de sécurité exigés habituellement par les navigateurs. Le risque que des certificats soient émis et utilisés à des fins malveillantes par des cybercriminels serait accru. C’est sur quoi alertent trente-cinq experts mondiaux en cybersécurité et en cryptographie dans une lettre ouverte adressée aux membres du Parlement Européen et publiée sur le site de l’organisation à but non lucratif Electronic Frontier Foundation en mars 2022.
Pire, si une Autorité de certification intégrée à la liste de confiance des navigateurs est vulnérable à des problèmes de sécurité, les navigateurs web ne seraient pas légalement en mesure de refuser ou de retirer l’Autorité de certification de leur liste de confiance pour protéger les internautes.
Par ailleurs, les connaissances techniques en sécurité peuvent vite évoluer : la découverte d’une nouvelle faille de sécurité peut requérir une réponse rapide de la part des éditeurs de navigateurs web afin de protéger les internautes, par exemple en retirant une Autorité de certification du « Root Store ». De plus, les règles de gestion des « Root Store » sont mises à jour régulièrement afin de suivre les évolutions technologiques et se protéger contre les tentatives des acteurs malveillants qui tentent de les contourner. Cette réactivité (quelques semaines) n’est malheureusement pas compatible avec les délais requis pour des changements législatifs (un an ou plus).
Enfin, si elle était adoptée, cette proposition de révision du règlement eIDAS créerait un précédent au niveau mondial. Les navigateurs web pourraient dès lors difficilement refuser ou retirer une Autorité de certification racine provenant d’un autre gouvernement qui ne respecterait pas les critères de sécurité requis. Des tentatives précédentes, au Kazakhstan comme mentionné précédemment ou en Iran comme l’explique l’ONG Article19, prouvent qu’il s’agit d’un danger bien réel. Autre exemple plus récent : suite au retrait de plusieurs Autorités de certification en Russie pour sanctionner la guerre qu’elle mène en Ukraine, le gouvernement russe a dû mettre en place une Autorité de certification de remplacement pour assurer le fonctionnement de plusieurs de ses sites web et a demandé aux internautes d’autoriser manuellement cette Autorité au sein de leur navigateur. Si cette opération peut être justifiée par un motif légitime et qu’il n’y pour l’instant aucune preuve qu’elle ait été rendue obligatoire et utilisée à des fins de surveillance, elle a aussi pour conséquence de rendre possible, justement, la surveillance de masse de la population russe comme le souligne l’Electronic Frontier Foundation.
Bien que cela ne soit clairement pas l’intention visée, la proposition du règlement eIDAS risque de normaliser des dispositifs jusque-là largement condamnés au sein de l’Union Européenne et hors de ses frontières.
Par ailleurs, ce n’est pas la première fois que l’Union Européenne cherche à intervenir directement sur les technologies et l’infrastructure d’Internet. Les controverses autour de la nouvelle directive Network and System of Information Security (NIS2), de la proposition d’établissement d’un DNS européen DNS4EU ou même du Digital Service Act témoignent de cette nouvelle volonté d’intervention directe de l’UE sur les technologies/l’infrastructure et de sa légitimation à travers des biais sécuritaires et économiques, mais qui peuvent aussi avoir des conséquences dommageables sur l’interopérabilité des systèmes et la sécurité des internautes.
Nous nous joignons donc à Mozilla et à l’Electronic Frontier Foundation pour alerter sur les dangers introduits par l’article 45.2 de la proposition de révision du règlement eIDAS.
Nous appelons en conséquence le gouvernement et les élus français à demander la modification ou le retrait de l’article 45.2 afin que les navigateurs web restent en mesure de protéger les internautes en appliquant des standards élevés en termes de sécurité et de transparence.
";s:7:"dateiso";s:15:"20220520_122346";}s:15:"20220506_143239";a:7:{s:5:"title";s:56:"Rétablir les connexions après une coupure d’Internet";s:4:"link";s:64:"https://www.laquadrature.net/2022/05/06/retablir-les-connexions/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18671";s:7:"pubDate";s:31:"Fri, 06 May 2022 12:32:39 +0000";s:11:"description";s:247:"
Comme nous l’avons expliqué dans notre premier article, Internet est une collection de connexions entre des ordinateurs. Alors, quand ces connexions cassent, la première chose évidente à faire est donc de réparer des câbles, d’en…";s:7:"content";s:23689:"
Comme nous l’avons expliqué dans notre premier article, Internet est une collection de connexions entre des ordinateurs. Alors, quand ces connexions cassent, la première chose évidente à faire est donc de réparer des câbles, d’en tirer de nouveaux ! Mais comment faire ?
Avant toute chose, il faut considérer quel est votre domaine d’intervention, et la raison de la coupure (pour ça on vous renvoie à notre article précédent). Si c’est une coupure logicielle, une censure, il est possible de la contourner en utilisant un VPN, ou de tenter une connexion via le logiciel Tor. Si vous savez faire, vous pouvez même mettre en place un serveur VPN.
Mais parfois ce sont les câbles qui sont endommagés, comme l’actualité récente nous le rappelle. Et, même si ces câbles sont toujours présents, il se peut que des militant·es ou des résistant·es aient décidé de s’attaquer à des infrastructures contrôlées par le gouvernement, auquel cas il ne faut pas forcément s’attendre à ce que la connexion soit rétablie rapidement.
Alors, en fonction de votre contexte, il faudra décider quelle serait la marche à suivre la plus utile : vous reconnecter à l’Internet mondial directement, ou plutôt créer un réseau de communication Internet local. Créer un réseau de communication local, sous le contrôle de votre communauté, peut être réalisé avant la coupure, pour l’anticiper, et il pourra être raccordé dans un second temps à l’Internet global, si vous vous trouvez dans un contexte ne le permettant pas dans l’immédiat.
Nous allons donc étudier comment nous ferions pour créer un réseau Internet local sous notre contrôle dans un premier temps. Puis nous verrons comment nous raccorder au reste de l’Internet. Au passage, nous verrons des solutions qui nous permettent de nous reconnecter à l’Internet global en urgence, sans avoir besoin de créer un nouveau réseau de toutes pièces.
Pour créer un réseau, le plus utile serait d’interconnecter votre quartier, votre village ou votre immeuble. Vu qu’il est rare d’avoir accès à de la fibre optique et que trouver une quantité de câbles suffisante sera compliqué dans l’urgence, il s’agit plutôt ici d’une tactique à moyen-long terme. Évidemment, faire des stocks au cas où n’est peut-être pas une mauvaise idée.
L’Internet n’étant qu’un assemblage de réseaux (Inter-Net), construire votre partie d’Internet n’est pas si difficile : vous en avez déjà un bout chez vous aujourd’hui. En cas de coupure, vous pouvez jeter un câble par la fenêtre, le brancher chez votre voisin·e, et vous voilà reparti·e.
Une solution possible serait d’aménager des points d’accès dans votre quartier, reliés entre eux par des câbles Ethernet, eux-mêmes reliés par des routeurs, le tout complété par des bornes Wi-Fi et des serveurs pour héberger des services de stockage et d’échange de données. Un bon exemple est la PirateBox, un système que n’importe quel ordinateur peut héberger et qui contient un forum, un tchat en temps réel et un service d’échange de fichiers.
C’est cette solution qui a été mise en place à Cuba, où l’Internet a été posé dans les villes par les habitant·es. Avec des switchs Ethernet, de vieux PCs et des câbles Ethernet courant d’une maison à une autre, les cubain·es ont installé ce qu’iels appelaient le Street-Net.
Et en Europe ?
L’AMAP des Internets
Pour des raisons de rentabilité et à cause de choix de politique industrielle, les quatre gros Fournisseurs d’Accès Internet français laissent de côté certaines personnes, notamment les personnes dont le droit au logement est bafoué. C’est là que les FAI associatifs jouent un rôle essentiel. Les FAI associatifs, en France comme ailleurs dans le monde, fonctionnent sans une logique de profit, mais en répondant aux besoins de leurs adhérent·es. Pour la petite histoire, le plus ancien fournisseur d’accès à Internet en France qui soit encore en activité aujourd’hui est un FAI associatif fondé en 1992 : il s’agit de French Data Network.
En Allemagne, ou en Catalogne, des réseaux similaires existent ; Guifi et Freifunk, qui permettent s’assurer une communication numérique sur des centaines de milliers de foyers même en cas de panne globale d’internet. Un article, écrit par un Jean-Noël Montagné sur son blog en dresse le portrait.
Nous avons rencontré Sacha, membre d’Aquilenet, un Fournisseur d’Accès Internet associatif bordelais. Aquilenet fait partie d’une fédération de FAI, dont FDN fait également partie, ce qui leur permet de partager une partie de leur infrastructure technique. Si un FAI a des soucis, la solidarité entre les membres de la fédération lui permettra de continuer à exister. C’est en contraste total avec la compétition entre FAI commerciaux. Les AMAP (Associations pour le Maintien d’une Agriculture Paysanne) fonctionnent également sur une principe de coopération entre fournisseurs et consommateurs, d’où ce rapprochement.
L’auto-organisation commune des FAI associatifs, des militant·es du logement et des personnes dont les droits au logement ne sont pas respectés, leur permet d’être en ligne malgré tout. Eux vivent au quotidien la coupure que nous redoutons tou·tes, voyons comment iels font face à cette situation.
Tu dis avoir installé l’Internet dans un squat, est-ce que tu pourrais nous dire pourquoi est-ce que des FAI classiques ne pouvaient pas le faire ? Les FAI classiques peuvent le faire, mais leur procédure ne le permet pas, notamment sur les aspects bancaires. Quand tu es en squat, produire un RIB n’est pas forcément évident. D’autre part beaucoup de FAI imposent un engagement sur une durée assez longue pour qu’ils puissent amortir des frais de mise en service qui sont cachés. Et dans les raisons d’annulation de cet engagement prévues par les FAI il n’y a pas la case « mon squat s’est fait expulser »…
Comment avez-vous fait, techniquement ? Comme notre FAI associatif fabrique des bouts d’Internet nous avons plusieurs solutions. On peut par exemple demander à des voisin·es s’iels veulent partager leur accès, tout en leur garantissant qu’iels ne prennent aucun risque : le squat passera par un VPN, ce ne sera jamais leur adresse IP qui sera vue. Avec cette technique, on a pu fournir de l’Internet avec un relais wifi directionnel et un « partageur » situé à quelques kilomètres… Pour un autre squat, c’est un particulier qui a payé la fibre pour un an : nous avons pris l’abonnement et fait la desserte locale avec un équipement à nous, pour utiliser une adresse IP de Aquilenet qui nous garantit d’être les premiers avertis en cas de recours judiciaire. Et nous en avons profité pour lancer des ateliers de formation numérique aux exilé·es.
Comment s’est faite l’installation, d’un point de vue organisationnel ? Souvent nous avons des personnes des squats qui nous sollicitent. Cela nous fait un contact avec qui on peut avancer. Nous savons que le matériel que nous installons peut disparaître en cas d’expulsion, généralement nos contacts le mettent de côté au moment voulu. Sinon nous avons des bénévoles qui participent à la mise en œuvre technique, nous affichons en gros sur un des murs du squat le mot de passe du wifi et c’est tout, nous les laissons en avoir l’usage qu’iels souhaitent.
Est-ce qu’il y a eu des soucis que vous n’avez pas réussi à résoudre ? Je cherche… mais je ne vois pas. Le plus dur dans le cas des partageurs c’est la peur, souvent liée à la méconnaissance. Mais s’iels sont prêts à écouter nos arguments, on arrive à trouver un terrain d’entente et cela tisse des liens entre squatteureuses et partageureuses. Enfin ce sur quoi on n’arrive pas à avancer, c’est que ces squats soient pérennisés, que l’on traite et accueille décemment des demandeureuses de logement. Nous nous rendons compte qu’après l’eau et l’électricité, Internet est important pour aider à s’organiser dans ces situations difficiles.
Penses-tu que, en dehors d’un squat, ce genre d’installation serait possible, et pourquoi ? On le fait ailleurs, c’est notre activité de FAI associatif : on est une sorte d’AMAP de l’Internet. On fait de l’hébergement associatif, on a un centre d’hébergement où tu peux venir avec ton ordi et le laisser branché sur Internet, on fournit du VPN, de l’ADSL et maintenant la Fibre. Du coup on aide pas mal de petites structures autour du numérique.
Il est donc possible avec un peu de connaissances techniques, peu de moyens et surtout l’entraide en groupe, de monter une infrastructure Internet utile et fonctionnelle. Merci à Sacha d’avoir répondu à nos questions !
Internet, sans câbles et sans électricité
Vous remarquerez que se faire un petit net est donc possible. Mais évidemment, cela demande de l’électricité. Dans les cas où les catastrophes naturelles font tomber le réseau électrique, c’est intéressant de voir comment faire tourner le nouveau réseau sur des sources d’énergie résilientes. Quitte à reconstruire le réseau, autant lui donner une meilleure résilience…
Un moyen sur lequel nous pouvons compter dans certains cas, c’est les connexions par satellite. La connexion à Internet via satellite existe depuis longtemps, mais jusqu’à récemment les prix et les performances de ces systèmes les rendaient peu accessibles au grand public. Et bien que les nouveaux systèmes du style Starlink ne soient pas encore totalement au point, ça peut être une solution pour relier son réseau local au réseau mondial. Si vous avez une telle connexion, n’hésitez pas à la partager avec votre communauté.
Les énergies renouvelables devraient nous assurer une alimentation résiliente pour nos ordinateurs. Mais pour ce qui est de l’interconnexion entre notre ordinateur et le reste de l’Internet, il reste le problème des câbles. Et le gros souci des câbles, eh bien ce sont les câbles eux-mêmes. Un câble, ça coûte cher, ça pèse son poids, c’est difficile à déplacer et à entretenir. La solution évidente à cela est de ne pas utiliser de câbles. Alors utilisons des ondes radio !
Les réseaux « mesh »
Quand le réseau câblé traditionnel fait faillite, des réseaux ad-hoc passant par ondes radio peuvent prendre le relais pour maintenir un minimum vital de communication. Ils peuvent également exister en parallèle. Les réseaux mesh, de l’anglais mesh – filet/maille -, sont, comme ces derniers, des réseaux tissés de nœuds, en proximité les uns des autres. Utiliser des réseaux radio est efficace, plus facile à déployer et plus difficile à démanteler. C’est sur cette technologie que se base un FAI associatif de New York, NYC Mesh.
Utiliser de la radio nous permet d’avoir une grande portée et donc de couvrir de larges zones sans avoir besoin de relier individuellement chaque personne voulant se connecter à un câble. Et la radio nous permet aussi de traverser des endroits qui seraient sinon difficilement franchissables par câble.
Quand on parle de radio, on peut utiliser autant de la FM traditionnelle, dite radio Très et Ultra Haute Fréquence, que de la Wi-Fi. Mais il existe aussi d’autres types d’ondes radio, comme le LoRaWAN, acronyme de long-range wide-area network (« réseau étendu à longue portée »). Et à plus petite portée le Bluetooth peut faire l’affaire. À chaque fois, c’est un compromis à trouver entre la portée et la quantité de données que l’on peut transmettre.
Un des avantage des réseaux mesh c’est qu’ils peuvent être déployés à petite échelle, avec peu de moyens ! Donc si vous vous retrouvez coupé·e d’Internet et qu’il n’existe pas de réseau sous le contrôle de votre communauté, vous pouvez utiliser votre smartphone pour en créer un rapidement.
Un exemple de communication basé sur un réseau mesh est l’application Firechat, qui a été utilisée à travers le monde, par exemple à Hong Kong en 2014. Mais le développeur n’avait pas prévu son application pour de tels cas d’usage, et après avoir averti ses utilisateurices que leur sécurité n’était pas garantie, l’application ne reçoit désormais plus de mises à jour.
Heureusement, entre-temps, la voie ouverte par Firechat a été suivie de façon plus sérieuse par le projet Briar. Disponible pour le moment sur Android et en bêta pour d’autres plateformes, Briar intègre plusieurs canaux de communications pour être « résilitant » face à la censure, aux coupures, mais aussi à la surveillance.
Selon ses créateurices ;
Briar est une application de messagerie créée pour les activistes, journalistes et toute personne désirant une manière de communiquer qui soit sécurisée, simple et robuste. A contrario des applications classiques, Briar n’a pas besoin de serveurs centralisés – les messages sont synchronisés directement en pair à pair. Si l’Internet est coupé, Briar se synchronise via Bluetooth, Wi-Fi, permettant à l’information de circuler en temps en crise. Si l’Internet est disponible, Briar peut se synchroniser via le réseau Tor, afin de protéger les utilisateurices et leurs relations de la surveillance.
Briar intègre des blogs, des forums et de la messagerie instantanée, le tout dans une seule application.
Avec le LoRa, un service comme Meshtastic vous permet de créer des groupes de discussion, et d’avoir une très haute portée sans avoir besoin d’Internet, là où Briar nécessite une densité élevée d’utilisateurices pour bien fonctionner. L’idéal serait de combiner les deux.
Vous pourriez aussi simplement créer un réseau Wi-Fi ouvert, sans mot de passe, et rediriger toutes les connexions vers un site web, hébergé localement. Et ensuite relier cet ordinateur au reste du réseau via une connexion satellite.
Lors du Printemps Arabe, un réseau de hackeureuses nommé Télécomix s’est organisé en solidarité avec les révolutionnaires pour leur permettre de rester connectés à l’Internet, épisode raconté dans un article de Médiapart. Ils ont notamment utilisé des ponts radio.
Une fois que vous avez remis en route le réseau physique, il faut maintenant qu’il y ait des sites web et des services auxquels accéder. Une chance pour nous, c’est que beaucoup d’efforts ont été faits ces derniers temps pour rendre cela plus facile.
Sans attendre une coupure, pour peu que vous sachiez héberger des sites web, n’hésitez pas à faire des copies miroir de sites web que vous visitez souvent, ou que vous considérez d’importance. C’est un peu ce que fait https://web.archive.org, mais plus on a de copies, mieux on est protégé. On se souvient des milliers de miroirs de The Pirate Bay qui ont émergés spontanément lors des tentatives de censure, ce qui fait que le site est toujours en ligne aujourd’hui.
Si en temps normal, vous utilisez les services des GAFAMs, style Google Drive, sachez qu’il existe des alternatives comme Nextcloud. Quand on fait son propre Internet, on peut installer des service comme Nextcloud et donc avoir notre « Cloud » hébergé par nos soins, ou le confier à notre communauté. Si vous avez un vieux PC, vous pouvez installer Yunohost dessus et héberger votre site web, ainsi qu’une pléthore de services. Le Collectif des Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires propose aussi des services en accès libre, pour vous aider à vous dé-Googliser.
Est-ce possible de construire un internet résilient ?
Oui ! Évidemment, si nous vous en parlons c’est parce que ça existe. Est-ce que c’est possible à grande échelle ? Tout dépend de nos besoins, de notre volonté. Mais quand c’est nécessaire, comme à Cuba, c’est possible, et ça se fait. Sachez qu’en France aussi, c’est déjà le cas dans certains endroits. Par exemple, le 19 novembre 2017, quelques bénévoles d’Illyse, un FAI associatif, se sont rendus du côté de Vaugneray pour apporter une connexion Internet en « zone blanche », grâce à un lien établi par des antennes Wi-Fi haute portée.
Maintenant, tout ceci est bien beau, mais ça demande des savoir-faire, ou d’être en contact avec des personnes sachant faire. Alors, ne faudrait-il pas aussi savoir comment faire sans ? Sans Internet ? Ou comment former des groupes pouvant s’organiser sans ? Ce sera le sujet du troisième article. Aidez-nous à l’écrire en nous rejoignant sur nos groupes de discussions.
";s:7:"dateiso";s:15:"20220506_143239";}s:15:"20220503_130038";a:7:{s:5:"title";s:67:"Le Conseil d’État sauve la reconnaissance faciale du fichier TAJ";s:4:"link";s:104:"https://www.laquadrature.net/2022/05/03/le-conseil-detat-sauve-la-reconnaissance-faciale-du-fichier-taj/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18686";s:7:"pubDate";s:31:"Tue, 03 May 2022 11:00:38 +0000";s:11:"description";s:279:"Le 26 avril 2022, le Conseil d’État a rejeté nos critiques contre l’utilisation massive de la reconnaissance faciale par la police dans le TAJ (« traitement des antécédents judiciaires »). Il s’agit d’une défaite cinglante, qui affirme…";s:7:"content";s:9780:"
Le 26 avril 2022, le Conseil d’État a rejeté nos critiques contre l’utilisation massive de la reconnaissance faciale par la police dans le TAJ (« traitement des antécédents judiciaires »). Il s’agit d’une défaite cinglante, qui affirme encore davantage le Conseil d’État dans son rôle de défenseur de la surveillance de masse, sans plus aucune considération pour le respect des droits des personnes. Nous avons l’habitude de perdre et de ne pas nous résigner : trouvons dans cette défaite les futures pistes de notre lutte.
Surveillance massive et illégale
Il y a deux ans, nous attaquions le décret de 2012 qui avait créé le fichier TAJ en fusionnant le STIC, fichier de police, et le JUDEX, fichier de gendarmerie, relatifs aux enquêtes judiciaires et administratives. Il contient des informations à la fois sur les personnes mises en cause (peu importe qu’elles aient été condamnées ou non), sur les témoins et sur les victimes impliquées dans les enquêtes. Le TAJ est aujourd’hui tentaculaire : 19 millions de fiches sont présentes dans ce méga fichier (chiffres de 2018, dont on redoute qu’ils n’aient pu qu’augmenter depuis).
Surtout, et c’était l’objet de notre recours devant le Conseil d’État, le décret TAJ autorise les policiers à utiliser des logiciels de reconnaissance faciale pour consulter sa base de données. Les policiers peuvent automatiquement comparer une image captée par une caméra de surveillance, un téléphone ou sur Internet aux 8 millions de photographies présentes sur les fiches des personnes mises en cause (chiffres de 2018). Cette comparaison a lieu dans le cadre d’enquêtes comme de simples contrôles d’identité, comme l’expliquait le ministre de l’intérieur en 2021.
Introduit dans le droit en toute discrétion il y a près de 10 ans, à une époque où les outils de reconnaissance faciale n’étaient qu’en gestation, le recours à cette technologie est aujourd’hui généralisé. La police a utilisé le TAJ pour faire de la reconnaissance faciale 375 000 fois en 2019, soit plus de 1 000 traitements par jour partout en France (on en parlait notamment dans notre article récapitulatif sur l’état de la reconnaissance faciale en France, ici). En 2020, ce chiffre montait à 1200 interrogations quotidiennes du TAJ par reconnaissance faciale.
L’utilisation massive de cette technologie est pourtant interdite en application des règles du droit des données personnelles. Seules certaines situations exceptionnelles pourraient autoriser un tel traitement et, même dans ces situations exceptionnelles, la police ne pourrait y recourir qu’en cas de « nécessité absolue » – lorsqu’il n’existe absolument aucun autre moyen de poursuivre l’enquête. Nous avons expliqué au Conseil d’État qu’aucun de ces critères n’était jamais rempli en pratique. Rien ne permet de justifier des moyens aussi intrusifs et dangereux.
La fuite en avant du Conseil d’État
Et pourtant, le Conseil d’État a rejeté nos arguments. Il n’a pas nié les innombrables abus que nous lui pointions, mais nous a invité à les soumettre au cas par cas aux autorités (juges et CNIL) chargées d’en vérifier la légalité, plutôt qu’à lui. Comme si le Conseil d’État pouvait se contenter d’examiner la légalité du TAJ de façon abstraite sans se soucier de sa mise en œuvre pratique. Pourtant, justement, en pratique, le Conseil d’État sait très bien que les abus du TAJ sont si nombreux que la CNIL n’aura jamais les moyens de les détecter et de les stopper un à un. Il lui est matériellement impossible de contrôler a posteriori 1 000 opérations policières par jour. Présenter le contrôle de la CNIL et des juges comme une garantie suffisante pour pallier ces abus est une échappatoire malhonnête pour permettre le maintien de ces pratiques. C’est le propre de la surveillance de masse que d’échapper à tout encadrement crédible, et c’est cette évidence que le Conseil d’État a niée.
Si le Conseil d’État a refusé de prendre en compte dans sa décision les abus concrets du TAJ, il a quand même cherché à justifier la « nécessité absolue » de la reconnaissance faciale. Sa démonstration est si terrible que nous la restituons telle quelle : « eu égard au nombre de personnes mises en cause enregistrées dans [le TAJ], qui s’élève à plusieurs millions, il est matériellement impossible aux agents compétents de procéder manuellement à une telle comparaison » d’images, dont l’automatisation ne peut dès lors que « s’avérer absolument nécessaire à la recherche des auteurs d’infractions et à la prévention des atteintes à l’ordre public ». Autrement dit, le recours à des logiciels d’analyse d’images automatisée serait rendu nécessaire car le TAJ, abandonné à la police depuis 10 ans et sans aucun contrôle externe, est devenu si tentaculaire et absurde qu’il ne peut plus être exploité à son plein potentiel par des humains. Une surveillance de masse (le fichage généralisé) rend nécessaire une autre surveillance de masse (la reconnaissance faciale généralisée).
Un tel raisonnement circulaire permet au Conseil d’État de se détacher de toute considération quant au respect des libertés fondamentales. À aucun moment il ne saisit l’opportunité d’évaluer sérieusement la seule utilisation connue de la reconnaissance faciale en France, pourtant dénoncée depuis plusieurs années partout en Europe pour les graves dangers qu’elle fait peser sur nos libertés. Au contraire, il sort de son rôle pour n’analyser le fichier que du point de vue de sa potentielle utilité pour la police et ne pas corriger les dégâts causés depuis 10 ans. En abandonnant son rôle de gardien des libertés, le Conseil d’État valide et inscrit dans le marbre la croyance selon laquelle il faut toujours plus en connaître sur la population, considérée comme étant suspecte par défaut.
Prochaine étape de notre lutte
Ne nous décourageons pas et, pour préparer la suite de notre lutte, cherchons les leçons à tirer de cette défaite. Premièrement, il semble risqué d’attaquer la reconnaissance faciale en tant que principe théorique sans aussi s’attaquer à ses réalisations concrètes, à défaut de quoi nos adversaires risquent d’esquiver le débat tel que se l’est ici permis le Conseil d’État.
Deuxièmement, il semble risqué d’attaquer la reconnaissance faciale sans s’attaquer en même temps à l’ensemble du système dont elle fait partie et qui la justifie : le fichage généralisé, dont la démesure a servi de prétexte au Conseil d’État, et la vidéosurveillance qui inonde nos villes et dont la démesure, tout autant scandaleuse, sert aussi de prétexte au déploiement de logiciels de détection automatisée sur les caméras déjà installées (voir notre analyse politique de la VSA).
Notre offensive va donc se poursuivre, affinée et ajustée par ces deux leçons. Cette offensive est d’autant plus urgente que l’Union européenne est en passe d’adopter un règlement sur l’IA qui viendrait légitimer les technologies de surveillances biométriques aujourd’hui interdites par le RGPD (revoir notre analyse) et que la France, actuellement présidente du Conseil de l’UE, fait tout pour défendre son industrie et son idéologie technopolicières.
Nous fêterons bientôt les 4 ans de l’entrée en application du RGPD et des règles européennes de protection des données personnelles, le 25 mai. Si ces règles ont été presque inutiles pour nous protéger de la surveillance des GAFAM, elles ont entièrement failli à nous protéger de la surveillance d’État. Peut-être devrions profiter de cet anniversaire pour essayer de renverser la situation.
";s:7:"dateiso";s:15:"20220503_130038";}s:15:"20220421_183101";a:7:{s:5:"title";s:36:"Survivre à une coupure d’Internet";s:4:"link";s:73:"https://www.laquadrature.net/2022/04/21/survivre-a-une-coupure-dinternet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18591";s:7:"pubDate";s:31:"Thu, 21 Apr 2022 16:31:01 +0000";s:11:"description";s:239:"Nous commençons aujourd’hui une nouvelle série d’articles qui explorent les perturbations du réseau Internet. Alors que l’Internet est de plus en plus régulé, il se retrouve aussi de plus en plus victime de coupures selon…";s:7:"content";s:27346:"
Bien que la légende veuille qu’il ait été conçu pour survivre à un hiver atomique dans son ensemble, localement, l’accès à Internet peut être coupé. Le réseau Internet étant construit autour d’un assemblage de réseaux autonomes mais inter-connectés, il se pourrait qu’une partie de ces sous-réseaux tombent, sans que les autres ne soient sévèrement impactés. L’information pourrait continuer à circuler dans le reste du réseau.
Parce qu’il est un outil souvent central dans la contestation d’un pouvoir illégitime, pour venir en aide aux victimes de catastrophes naturelles ou humaines, il est vital d’étudier comment faire pour maintenir les connexions et ainsi pouvoir disséminer des informations. Dans plus de 140 cas, comme nous l’apprend la page 6 du rapport de Access Now, les gouvernements ont justifié leurs coupures par “la Sécurité Nationale” ou le contrôle des “fausses informations”.
Il est souvent évident pour les observateurs qu’en réalité les autorités peuvent redouter la contestation, et donc coupent l’accès à Internet pour limiter la capacité du peuple à s’organiser et à s’exprimer, que ce soit en ligne ou non. Les données révèlent que, quand les autorités parlent de “fausse information”, rumeurs ou discours de haine, ils sont en réalité contraints d’agir en réaction à des manifestations, des élections, des violences sociales ou des activités militantes, entre autres. En utilisant ces menaces comme excuse, il semble que les gouvernements utilisent les coupures comme moyen de contrôler le débat politique et le flux d’informations.
Access now, The #KEEPITON Report, 2018
Cela démontre sans équivoque l’importance d’un tel outil. Nous allons donc commencer par étudier (dans un premier article) quels sont les différents types de coupures. Puis, dans un second temps, nous verrons comment contourner les censures et rétablir les connexions. Enfin, quand rétablir une connexion n’est pas possible, ou pas souhaitable, nous verrons comment s’organiser sans internet, voire sans ordinateurs.
Qui coupe internet ?
Il faut savoir avant toutes choses qu’Internet à une existence physique, à travers différents types d’infrastructures.
Autant les câbles sont importants, autant il existe aussi les entrepôts de données, les opérateurs transnationaux, et des opérateurs locaux, qui ont tous un rôle à jouer. C’est à travers ce mille-feuilles d’acteurs que nos connexions se font, et plus l’opérateur va être en haut de la hiérarchie des interconnexions, plus il aura de pouvoir sur le réseau.
Parlons donc coupure. Une coupure, c’est une interruption dans votre connexion au réseau Internet. Cette interruption peut être totale – rien ne passe – ou bien partielle – vous arrivez à vous connecter à certaines parties, mais pas à d’autres. Ou bien la connexion est instable, et empêche une utilisation fluide. La réduction de la vitesse de connexion peut parfois produire des effets comparables à une coupure.
Il existe plusieurs moyens de couper la connexion à Internet. Mais en réalité, il n’existe pas une seule connexion, mais des interconnexions, et de nombreuses manières de les réaliser. Et les coupures sont tout aussi variées. Elles peuvent être longues, sur plusieurs mois, comme assez courtes. Elles peuvent avoir plus ou moins de régularité.
Étudions donc quelles pourraient être les causes de ces coupures.
Le climat
Internet, c’est avant tout une interconnexion entre des ordinateurs à l’échelle du monde. Ces interconnexions se font principalement par des câbles, et à travers d’autres ordinateurs, qui sont sensibles au climat. Un incendie peut par exemple sérieusement compromettre le réseau. La crise climatique en cours, qui provoque des inondations, des glissements de terrain, et autant de choses qui peuvent compromettre nos constructions, est une menace extrêmement importante. La Chine, pays où les paiements en ligne sont monnaie courante, a dû se confronter à cette situation lors d’inondations récentes.
Une mauvaise gestion des infrastructures peut amener à des coupures. On pourrait parler de la façon dont est géré le déploiement de la fibre, fruit d’une politique économique mortifère, mais French Data Network le fera mieux que nous. Même si le réseau est là, pas sûr qu’il soit utilisable, faute d’entretien, comme à Brooklyn, USA. On se retrouve alors avec des coupures, ou une absence de raccordement à des moments critiques. On peut vous le dire, ça nous est arrivé récemment au Garage. Quand nous avons emménagé dans nos nouveaux locaux (c’est toujours « le Garage » !), notre opérateur a pris plusieurs semaines à nous raccorder. Et une fois que c’était fait, on a subi plusieurs coupures dues à la sous-traitance : les techniciens d’autres opérateurs, trop peu payés pour faire bien leur travail, ont coupé nos fibres pour installer les leurs.
Les gouvernements
Les exemples récents de coupures par des gouvernements ne manquent malheureusement pas. Nous pourrions en faire la liste ici, mais laissons Wikipédia s’en charger. Quelques exemples tout de même : au Myanmar, en Égypte, en Inde, à Cuba, à Cuba encore, en Éthiopie, au Belarus… Il existe aussi un risque d’attaque par un gouvernement hostile, notamment comme les États-Unis en Syrie. Aidés, entre autres, par des entreprises françaises. Les États autour du globe s’équipent de moyens leur permettant de couper, filtrer et censurer Internet. N’oublions pas que le gouvernement français n’est pas un ami d’Internet, comme nous avons pu en prendre acte en 2011. L’usage des coupures de réseau pour faire face à la contestation n’est plus à craindre : il est là. De là à se dire que ces techniques pourraient se généraliser à travers le monde, il n’y a qu’un pas.
Le temps qui passe
Quand toute la bonne volonté de la terre et des humains n’y suffit pas, le temps se chargera de dégrader et de mettre à terre toutes les fibres et les tours téléphoniques. Si vous habitez dans une région du monde où l’investissement dans les réseaux des télécoms est marqué par des politiques racistes, ou une forte ségrégation sociale, le temps entre deux rénovations peut suffire à vous exclure du réseau. N’oublions pas que seulement la moitié de la population mondiale a accès à Internet, et que cela reste très cher dans un certain nombre de régions du monde.
“time” by Katerina Atha is licensed with CC BY-NC-ND 2.0.
Ce tour d’horizon nous permet de voir ce à quoi nous avons affaire. Réseau omniprésent et d’une importance critique, internet n’en n’est pas moins fragile et fluctuant.
Il convient que nous nous attardions un peu plus sur les capacités des institutions à couper internet. C’est sur elles que nous allons diriger notre action, vu la difficulté pour nous à prévenir les catastrophes venues d’ailleurs.
C’est principalement à elles que nous aurons à faire face, dans une forme capitalistique ou étatique, à moins que vous ne songiez sérieusement à vous lancer dans la chasse aux requins. (C’est une mauvaise idée.)
Voyons techniquement comment s’y prendre pour interrompre certains flux internet.
Le filtrage sur le nom de domaine
En France, la censure de l’Internet est malheureusement monnaie courante. Depuis le début des années 2000, avec notamment les lois LOPPSI et HADOPI, que nousavonscombattues, les fournisseurs d’accès à internet (FAI) se trouvent obligés de bloquer des sites, sur demande d’un juge ou de la police. Cette obligation a d’abord été justifiée par le blocage nécessaire des contenus pédopornographiques, et a été utilisée la première fois pour censurer des propos négationnistes, mais a aussi été utilisée pour supprimer des positions et groupes politiques. Son évolution dans le temps est bien documentée. Et dernièrement, la lutte reprend autour de l’accès au porno.
Déjà en 2008, nous avions publié une note sur le blocage des noms de domaine, via le protocole DNS.
Avec cette technique, ce n’est pas le contenu illégal qui est filtré, mais l’intégralité du domaine internet qui l’héberge. […] Les opérations nécessaires au blocage par DNS sont relativement simples, bien que la complexité et la maintenance engendrées, et donc le coût global, dépendent là aussi des configurations actuelles des opérateurs. L’efficacité de cette technique est très limitée. Il suffit d’une manipulation triviale sur l’ordinateur de l’utilisateur pour définitivement passer outre.
La Quadrature Du Net, 2008
En effet, il suffit d’utiliser un autre système de nom de domaine que celui fourni par défaut par votre FAI pour contourner la censure. La procédure est relativement simple, et expliquée dans un article de Numerama. Nous remercions la French Data Network, qui héberge des serveurs DNS accessibles à tous et sans censure ou filtrage.
Censure de services
Parfois, il ne s’agit pas juste de sites web qui sont bloqués, mais aussi de services, comme des applications de messagerie. Ça a été le cas en Russie, où un tribunal a demandé le blocage de Telegram. Vu la façon dont Telegram se connecte à ses serveurs (utilisation des serveurs de Google, et donc de leurs adresses IP), le blocage a eu des conséquences inattendues.
« Alors que le nombre total d’IP bloquées a été fluctuant (bien que majoritairement en hausse) depuis que la Russie a modifié son approche, nous observons quelque chose comme 16 millions d’adresses bloquées en ce moment. Les services concernés incluent Viber, Office 365, les éléments du PlayStation Network, et beaucoup plus. »
En général, les services trouvent des moyens de contourner cette censure, par exemple en utilisant des IP partagées ou par utilisation de VPN notamment. Dans ce cas, la censure a eu pour effet de bloquer plein de services qui n’avaient rien à voir. Par ailleurs, le ban a été levé en 2020 visiblement parce que c’était un bel échec.
Ralentissement de la connexion
Imaginez que vous vous connectiez sur un réseau social pour prendre des nouvelles de la manifestation qui doit avoir lieu dans les prochaines heures. Mais la page semble prendre beaucoup de temps à charger, et quand la page s’affiche, certains éléments ont pris trop de temps à venir et leur chargement a été annulé. En voulant envoyer un message à vos ami·es, vous vous rendez compte que le message prend plus d’une heure à arriver ; difficile de se retrouver dans la foule dans ces conditions.
Ce genre de restrictions est beaucoup plus difficile à répertorier, car plus sournois. Il permet de restreindre l’accès sans toutefois le couper. Il se peut que ce ralentissement ne soit même pas reconnu comme intentionnel, notamment dans les endroits où le service Internet n’est pas très stable de base. Attention, tout ralentissement n’est pas dû à une censure ; on a un bel exemple avec les effets de bords de la panne de Facebook qui a engendré d’autres pannes chez les opérateurs téléphoniques.
Coupure du service 3G/4G
Pour beaucoup d’humains dans le monde, la connexion à Internet se fait d’abord par le service mobile, via des smartphones. Et il apparaît que c’est souvent ce moyen de connexion qui est ciblé, car il est principalement utilisé par les particuliers, alors que les entreprises et services d’État utilisent une connexion filaire. Le rapport d’Access Now cité en début d’article offre un panorama édifiant sur la question.
Censure de protocoles
Parfois, la surveillance et la censure vont de pair. Les protocoles que nous utilisons pour sécuriser notre connexion, comme HTTPS, permettent d’échapper à certaines formes de censure et de surveillance. Alors, il paraît logique de bloquer ces protocoles, comme c’est le cas en Chine, où le gouvernement utilise le Grand Firewall pour bloquer les versions les plus sécurisées de HTTPS. C’est un jeu du chat et de la souris, parce que des méthodes de contournement peuvent être mises en place. Cela dit, pour la majorité des gens, ces blocages peuvent être difficiles à contourner.
Le blocage des VPN est également possible, et courant.
BGP
BGP est le nom du protocole qui permet à Internet de fonctionner en tant que réseau de réseaux. Si l’on regarde une carte de l’Internet, comme celle-ci :
On peut voir les différentes couleurs, qui représentent différents réseaux. Entre ces réseaux, les connexions se font au moyen de BGP, qui est en quelque sorte la glue qui permet à l’Internet d’exister.
Hé bien, cette glue, elle peut être dissoute. Ça peut être suite à une erreur, comme au Pakistan où en 2008 un opérateur a annoncé à l’Internet tout entier que c’était chez lui qu’on pouvait accéder à Youtube le plus rapidement. Youtube a été inaccessible dans le monde entier pendant un petit moment à cause de ça. Mais parfois c’est très intentionnel, comme lors du début de l’insurrection en Syrie. Vous pouvez voir quand BGP subit des interruptions sur Twitter d’ailleurs. Récemment, Facebook a eu un souci similaire.
Des chercheurs ont par ailleurs expliqué qu’il serait possible de casser totalement et de façon grave l’Internet en exploitant des failles du protocole. Bien que compliqué à faire, ça n’en est pas moins possible. Si ça peut vous rassurer, il existe malgré tout des systèmes de surveillance et de contrôle pour éviter que le protocole ne soit abusé, ce qui rend ce genre d’attaques peu susceptibles d’aboutir.
Perquisition
Quand le blocage au niveau du réseau ne suffit pas, il reste encore l’option d’attaquer directement le serveur sur lequel est hébergé le site web. On pense aux attaques contre The Pirate Bay. C’est une pratique qui est toujours en cours, bien que moins efficace que par le passé. Cette perte d’efficacité est notamment due aux architectures distribuées, type “cloud”, où les sites web sont répartis sur une multitude de serveurs à travers le monde. Au lieu d’être disponibles sur un seul serveur, ils vont profiter d’une redondance globale, permettant à leurs bases de données ou de ressources de ne pas être toutes au même endroit.
Vous pouvez nous suivre en vous rendant sur la page Nous !
“network cables” by pascal.charest is licensed under CC BY-NC-ND 2.0
";s:7:"dateiso";s:15:"20220421_183101";}s:15:"20220407_165158";a:7:{s:5:"title";s:65:"En quoi la vidéosurveillance algorithmique est-elle illégale ?";s:4:"link";s:101:"https://www.laquadrature.net/2022/04/07/en-quoi-la-videosurveillance-algorithmique-est-elle-illegale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18558";s:7:"pubDate";s:31:"Thu, 07 Apr 2022 14:51:58 +0000";s:11:"description";s:266:"La vidéosurveillance algorithmique (VSA) s’installe dans nos villes, en toute opacité et surtout, en toute illégalité. Depuis plusieurs années, nous tentons de lutter contre ces dispositifs, notamment en les attaquant devant les tribunaux. Nous pensons…";s:7:"content";s:21502:"
La vidéosurveillance algorithmique (VSA) s’installe dans nos villes, en toute opacité et surtout, en toute illégalité. Depuis plusieurs années, nous tentons de lutter contre ces dispositifs, notamment en les attaquant devant les tribunaux. Nous pensons que les règles en vigueur permettent de s’opposer au déploiement de ces technologies pour se protéger contre les atteintes aux libertés qu’elles entraînent. Pourtant, la Commission européenne pousse à l’adoption de nouvelles règles, en faveur des industriels, pour réguler les dispositifs « d’intelligence artificielle », comprenant entre autres la VSA. Dans son sillage, la CNIL plaide pour un nouvel encadrement spécifique. Dans notre réponse à sa consultation, nous avons expliqué pourquoi il ne faut en aucun cas abandonner les règles protectrices actuelles pour de nouvelles règles sectorielles. Voici un résumé de nos arguments (voir notre position complète ici).
Les données biométriques, cœur de la protection
Le droit des données personnelles prévoit une protection particulière pour les données qu’on appelle « sensibles » au vu des informations particulièrement intimes qu’elles révèlent (telles que les orientations politiques ou sexuelles). Parmi ces données sensibles, on trouve la catégorie des données dites « biométriques », qui sont « les données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique »1Définitions prévues aux article 4§14 du RGPD et 3§13 de la Directive Police/Justice..
Cette définition peut être dissociée en trois éléments que l’on retrouve systématiquement lorsque l’on parle de VSA.
Tout d’abord, il faut que les données fassent l’objet d’un traitement technique spécifique.
Cela permet d’englober les systèmes de VSA puisqu’ils interviennent en addition du traitement général qui consiste à filmer l’espace public et poursuivent un objectif particulier (voir plus bas) . Aussi, le traitement technique est spécifique en ce qu’il consiste en la mise en oeuvre d’un algorithme ou programme informatique appliqué aux flux vidéos afin d’isoler, caractériser, segmenter ou encore rendre apparente une information relative à une personne physique filmée ou à extraire du flux vidéo, même a posteriori, des données concernant cette personne.
Ensuite, les données doivent se rapporter aux caractéristiques physiques, physiologiques ou comportementales d’une personne.
Toutes ces données sont bien celles que la VSA capte :
les informations physiques ou physiologiques peuvent se rapporter au corps d’une personne filmée au sens large, tels que des visages, des silhouettes ou toute caractéristique isolée du corps, telle que la couleur des cheveux, la couleur de peau, la couleur des yeux, la forme du visage, la taille, le poids, l’âge ;
les données comportementales visent toute information relative à l’action du corps dans l’environnement et l’espace. Pourront être qualifiés de biométriques un vêtement ou un accessoire porté par la personne à un instant T, un geste, une expression d’émotion, une direction de déplacement, une position dans l’espace et le temps (assis, debout, statique, allure de la marche…).
Enfin, le traitement doit avoir pour but l’identification unique de la personne. D’après le comité européen de la protection des données (CEPD, l’autorité qui regroupe les CNIL européennes), cette fonction ne se limite pas à révéler l’état civil de la personne mais à individualiser celle-ci au sein d’un environnement pour la reconnaître sur plusieurs images2Voir les lignes directrices sur les vidéos contenant des données personnelles 3/201, version 2.0, point 82 p. 19 https://edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-32019-processing-personal-data-through-video_fr.
Concernant la VSA, chaque système est programmé pour réunir des éléments spécifiques (silhouette, couleur des habits, position, direction, comportement) pour :
reconnaître une personne sur plusieurs images ou plusieurs flux vidéos , soit dans le temps, soit dans l’espace, en lui attribuant une empreinte numérique qui permettra de caractériser ses attributs ou son comportement, et l’isoler sur les images. L’exemple le plus typique est le suivi d’une personne dans l’espace public filmé par plusieurs caméras ;
effectuer une action ciblée sur la personne grâce aux informations sur les caractéristiques physiques ou comportementales obtenues par la VSA. Ces informations pourront être transmises à des agents sur le terrain, elles leur permettront de « reconnaître » de façon unique la personne et d’effectuer une action sur elle (« l’homme au chapeau bleu est dans la rue principale, contrôlez-le »).
Dans les deux cas, la personne est identifiée de façon unique par rapport à son environnement, un groupe de personnes ou une scène.
En conclusion, les fonctionnalités des systèmes de VSA portant sur des personnes impliqueront systématiquement un traitement de données biométriques.
La VSA est toujours disproportionnée
Une fois que l’on a démontré qu’il s’agissait d’un traitement de données biométriques, la protection plus forte accordée aux données sensibles peut s’appliquer. Grâce à ce cadre spécifique, les données sensibles ne peuvent être traitées qu’à condition de respecter une exigence de « nécessité absolue »3Voir article 10 de la Directive Police/Justice..
En pratique, cette exigence signifie que le traitement ne sera considéré comme licite que s’il n’existe aucun autre moyen moins attentatoire aux libertés qui permettrait d’atteindre l’objectif poursuivi. Cette exigence de nécessité absolue n’est pas une nouveauté juridique et a déjà permis de limiter ou interdire les technologies les plus intrusives.
Par exemple, lorsque la région PACA avait tenté de mettre en place une expérimentation de reconnaissance faciale à l’entrée de deux lycées, la CNIL avait jugé que la finalité de sécurisation et de fluidification des entrées au sein des lycées « peut incontestablement être raisonnablement atteinte par d’autres moyens », concluant que le dispositif était disproportionné.
De la même manière, dans un avertissement à la ville de Valenciennes révélé par Mediapart, la CNIL avait jugé que le dispositif de VSA mis en place par la ville était disproportionné, notamment car la nécessité n’avait pas été prouvée et l’absence d’alternative n’avait pas été documentée.
Le Conseil d’État avait fait le même raisonnement lorsque nous avions attaqué, aux cotés de la LDH, l’utilisation des drones par la police lors des manifestations. Pour les juges, le ministère n’apportait « pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement, dans les circonstances actuelles, en l’absence de recours à des drones»4Conseil d’État, 446155, lecture du 22 décembre 2020, §11..
Enfin, ce mécanisme a aussi été efficacement mobilisé contre la vidéosurveillance dite « classique » – et non biométrique – dans la commune de Ploërmel, la ville ne justifiant, selon la Cour d’appel, d’aucune statistique ou de preuves de risques particuliers qui expliqueraient la nécessité de ce dispositif.
En l’occurrence, concernant la VSA policière, il y aura toujours d’autres moyens d’assurer la sécurité autrement que par une technologie automatisée surveillant le comportement des individus dans la rue. Nous en parlions notamment dans notre article expliquant les raisons politiques de s’opposer à la VSA, la sécurité des personnes ne peut être trouvée que dans l’action humaine et sociale, l’attention aux autres, le soin.
La mise en balance exigée par le contrôle de proportionnalité permet donc de limiter et d’exclure tout dispositif de VSA abusif puisque l’atteinte à la vie privée engendrée par le traitement de données biométriques ne pourra être que très rarement, voire jamais, évaluée comme strictement nécessaire pour atteindre l’objectif poursuivi. Ce critère de nécessité absolue est donc aujourd’hui un mécanisme juridique documenté et
efficace pour interdire l’utilisation abusive des technologies par la police dans l’espace public.
Ne pas changer de paradigme
À travers le projet de règlement sur l’intelligence artificielle ainsi que les velléités affichées des dirigeants de modifier le cadre actuel pour favoriser les intérêts industriels et économiques du secteur, c’est une destruction du socle protecteur de nos droits qui est menée.
Ces acteurs tentent de défendre une approche fondée non plus sur la nécessité comme décrite plus haut mais, désormais, sur les risques : le cadre juridique serait non pas unique comme c’est le cas actuellement mais différent en fonction des objectifs et finalités des technologies. Autrement dit, cela impliquerait d’autoriser plus ou moins largement l’usage de certaines technologies en fonction des risques effectifs qu’elles feraient peser sur les droits et libertés de la population.
Par exemple, dans son projet de règlement, la Commission propose une classification des utilisations de la reconnaissance faciale et de la VSA en fonction des circonstances de leur application (dans l’espace public, en temps réel, à des fins répressives…), peu importe qu’elles soient nécessaires ou non. C’est un renversement total de la façon dont nos droits et libertés sont protégées, comme nous l’expliquions il y a quelques mois. Ce serait aux personnes concernées de démontrer le dommage qui leur est causé et non plus aux pouvoirs publics mettant en œuvre ces technologies de démontrer systématiquement que l’usage n’est pas disproportionné. La charge de la preuve serait renversée, à la défaveur de nos libertés.
Or, il ne suffit pas qu’une technologie soit « peu risquée » pour que celle-ci devienne « nécessaire » ni même souhaitable. Surtout, ces acteurs tentent de justifier cette logique en avançant que des garanties permettraient de limiter ces risques. De tels mécanismes sont illusoires et ne pourraient jamais suffire à pallier un traitement non nécessaire.
Nous le voyons depuis plusieurs années, les garanties ne suffisent jamais à limiter des technologies la plupart du temps déjà déployées, parfois à grande échelle, alors mêmes qu’elles ne sont pas légales. Quand bien même elles seraient contestées, elles auront déjà produit leurs effets illicites et nocifs. Les analyses d’impact, les pouvoirs de contrôle de la CNIL, les soit-disant contre-pouvoirs locaux, les droits d’information du public, aucune de ces garanties n’empêche les autorités de violer la loi.
Si l’approche fondée sur les risques finissait par être adoptée, elle donnerait le signal attendu par l’ensemble des acteurs de la VSA pour déployer massivement et au pas de course l’ensemble de leurs systèmes. Demain comme aujourd’hui, seules les mesures d’interdiction, fondées notamment sur la nécessité, pourront nous protéger. C’est d’ailleurs l’avis de autorités européennes de protection des données (Comité européen pour la protection des données et Contrôleur européen pour la protection des données) sur le projet de règlement sur l’intelligence artificielle, qui appellent toutes deux à interdire complètement les technologies de VSA.
En conclusion, remplacer changer de paradigme en remplaçant l’approche actuelle fondée sur la nécessité par une approche nouvelle fondée sur les risques conduira à présenter comme potentiellement licites des traitements dont l’illégalité ne fait aujourd’hui aucun doute. Ce changement de contexte entraînerait le déploiement massif de systèmes de VSA illicites sans qu’aucune garantie ne puisse en limiter les effets nocifs pour la population. C’est pourquoi nous défendons le maintien du cadre juridique actuel, qui permet l’interdiction de ces pratiques et est à même de protéger la population contre les abus des autorités en matière de surveillance.
Voir les lignes directrices sur les vidéos contenant des données personnelles 3/201, version 2.0, point 82 p. 19 https://edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-32019-processing-personal-data-through-video_fr
Conseil d’État, 446155, lecture du 22 décembre 2020, §11.
";s:7:"dateiso";s:15:"20220407_165158";}s:15:"20220406_142721";a:7:{s:5:"title";s:105:"Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF »";s:4:"link";s:131:"https://www.laquadrature.net/2022/04/06/controles-discriminatoires-nous-demandons-le-demantelement-des-pratiques-illegales-des-caf/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18549";s:7:"pubDate";s:31:"Wed, 06 Apr 2022 12:27:21 +0000";s:11:"description";s:235:"Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta!. Nous appelons à signer et faire circuler l’appel correspondant.
Contrôles abusifs…";s:7:"content";s:19118:"
Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta!. Nous appelons à signer et faire circuler l’appel correspondant.
Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La CAF oublie ses missions initiales de protection et de soutien pour devenir un outil de police numérique. Une tribune du collectif « Changer de cap ».
La numérisation à marche forcée des services publics contribue à faire des Caisses d’allocations familiales (CAF) un instrument de la mise en place d’une société de surveillance et de pénalisation des plus pauvres. Alors que la protection sociale est un droit universel depuis le Conseil national de la Résistance, les CAF développent une politique de plus en plus dure de contrôle des personnes en situation de précarité.
Tous fichés…
Plus de 1 000 données par personne sont collectées pour 13 millions de foyers1Vincent Dubois, Contrôler les assistés, Raisons d’agir, 2020, p. 257., grâce à l’interconnexion de dizaines de fichiers administratifs (impôts, éducation, police, justice…) Les contrôleurs ont en outre le pouvoir de consulter nos comptes bancaires, nos factures de téléphone et d’énergie… Toutes ces données sont traitées à notre insu.
Chaque allocataire fait l’objet d’un profilage établi par un logiciel, mais selon des variables définies par des décisions humaines. Des algorithmes déterminent des « scores de risque » de fraude, qui débouchent sur un véritable harcèlement des personnes en difficulté. Sont qualifiés de « risque » les variations de revenus, les situations familiales atypiques, la naissance hors de France… Il en résulte un ciblage des contrôles sur les personnes précaires, handicapées ou vulnérables.
Plus de 32 millions de contrôles automatisés ont été réalisés par les CAF en 2020. Les témoignages collectés confirment la concentration de ces contrôles sur les femmes seules avec enfants, les chômeurs, des personnes handicapées, d’origine étrangère…
Des contrôles indignes et illégaux
Les méthodes de contrôle sont tout aussi inacceptables. La plupart de ces contrôles sont déclenchés automatiquement, sans en informer les allocataires et parfois sans notification, ce qui est contraire à la loi. Juridiquement la fraude doit être intentionnelle, mais ici les incompréhensions, les difficultés face au numérique, les erreurs, y compris celles des CAF, sont assimilées à de la fraude2Comme le soulignait le Défenseur des Droits dès 2017 : lutte contre la fraude aux prestations sociales : à quel prix pour les usagers ? Voir ici..
Les procès-verbaux sont remplacés au mieux par des notifications sommaires, qui ne précisent ni les modalités de calcul de l’indu, ni les délais de réponse, ni les voies de recours. Dans de nombreux cas, les allocations sont suspendues pendant toute la durée du contrôle, sans respect du reste à vivre légalement imposé à tous les créanciers. Les contrôleurs sont pourtant dotés de larges pouvoirs juridiques et d’investigation, mais le calcul de leur prime d’intéressement dépend du montant des indus frauduleux détectés.
Ces dérives sont amplifiées par la désorganisation des CAF, suite à la numérisation et aux réductions d’effectifs. Les allocataires connaissent de nombreux retards, des erreurs, des versements à tort, des absences de réponses, l’impossibilité de trouver un interlocuteur. On imagine le mal-être et la dégradation des conditions de travail des agents soucieux de défendre un service public humain.
Les conséquences de telles orientations sont dévastatrices sur le plan social. La Fondation Abbé Pierre montre comment des familles ont été expulsées suite à des recouvrements qui ne tenaient pas compte du reste à vivre3Fondation Abbé Pierre, 2020, Prestations sociales de la CAF et logement. Enquête sur les freins rencontrés 2020. Voir ici.. Rappelons que 10 millions de personnes vivent sous le seuil de pauvreté, que 12 % des Français souffrent de difficultés psychiques. L’action présente de la CAF y contribue, comme le montrent les témoignages recueillis.
Une police et une justice parallèles
Ainsi, à la faveur de la numérisation, une police et une justice numérique parallèles se mettent en place, insensibles à des situations humaines parfois dramatiques. Ces pratiques ne respectent pas les principes fondamentaux du droit, et sont entachées d’illégalité4Cabinet DBKM. Incompatibilité des mesures nationales de lutte contre la fraude aux prestations sociales avec le Pacte des droits civils et politiques. Rapport au comité des droits de l’homme des Nations unies. Voir ici.. Elles découlent de la convention d’objectifs et de gestion 2018-2022 de la CNAF qui assimile les CAF à des entreprises et considère les prestations sociales comme des coûts à réduire. Tout en pratiquant en permanence le double langage, le pouvoir politique considère toujours « qu’on met un pognon de dingue dans des minima sociaux »5Emmanuel Macron, 12 juin 2018 : « La politique sociale, regardez : on met un pognon de dingue dans des minima sociaux, les gens ils sont quand même pauvres. On n’en sort pas. Les gens qui naissent pauvres, ils restent pauvres. Ceux qui tombent pauvres, ils restent pauvres. On doit avoir un truc qui permette aux gens de s’en sortir ». Source..
Transparence, légalité, solidarité
On ne peut que s’inquiéter de l’intention de l’actuel président, s’il est réélu, de généraliser le versement automatique des aides sociales. S’il s’agit d’étendre ce type de pratiques, ce projet de maltraitance institutionnelle est inacceptable et monstrueux.
C’est pourquoi nous demandons le démantèlement des pratiques illégales qui se sont développées, l’instauration de sanctions contre ceux qui les ordonnent délibérément et un retour aux missions fondatrices de la Sécurité sociale et des services publics, dans une logique de confiance et de solidarité.
Toute la transparence doit être faite sur la récolte et le traitement des données personnelles des allocataires par la CAF, ainsi que sur le rôle des logiciels et des algorithmes dans la prise de décision. Il est indispensable de remettre les humains au cœur du service public, tout particulièrement dans les CAF, et de faire du numérique un outil pour rendre effectif l’accès de chacun à ses droits sociaux, tout en respectant son intimité.
Premiers signataires
Isabelle Maurer, Archipel des sans voix, allocataire multi-controlée
Farida Amrani, syndicaliste CGT
Hichem Atkouche, SUD Commerces et Services Ile de France
Geneviève Azam, économiste, essayiste
Miguel Benasayag, philosophe, collectif Malgré tout
La Quadrature du Net
Fathi Bouaroua, AprèsM, ex directeur régional de la fondation Abbé Pierre en PACA
Alima Boumediene-Thiéry, avocate porte parole de Femmes plurielles
Henri Braun, avocat au Barreau de Paris
Dominique Cabrera, réalisatrice
Alexis Corbière, député
Jean-Michel Delarbre, comité national LDH, co-fondateur RESF
Lætitia Dosch, comédienne
José Espinosa, gilet jaune
Txetx Etcheverry, mouvement Alda de défense des habitants des milieux et quartiers populaires au Pays basque
Jacques Gaillot, évêque de Partenia
Marie-Aleth Grard, présidente d’ATD Quart Monde France
Laurent Klajnbaum, vice-président de Changer de cap
François Koltès, auteur
Michèle Leflon, présidente de la Coordination Nationale des Comités de défense des hôpitaux et maternités de proximité
Pierre-Edouard Magnan, délégué Général Mouvement national Chômeurs et précaires (MNCP)
Boris Mellows, SUD Culture Solidaires
Didier Minot, président du Collectif Changer de cap
Francis Peduzzi, directeur de la scène nationale de Calais
Evelyne Perrin, Stop précarité, économiste
Alice Picard, porte parole d’Attac
Nicole Picquart, présidente du Comité national de liaison des régies de quartier
Serge Quadruppani, auteur, traducteur
René Seibel, responsable national AC !
Clément Terrasson, avocat
Roger Winterhalter, Maison de la citoyenneté mondiale Voir la liste complète.
Cabinet DBKM. Incompatibilité des mesures nationales de lutte contre la fraude aux prestations sociales avec le Pacte des droits civils et politiques. Rapport au comité des droits de l’homme des Nations unies. Voir ici.
Emmanuel Macron, 12 juin 2018 : « La politique sociale, regardez : on met un pognon de dingue dans des minima sociaux, les gens ils sont quand même pauvres. On n’en sort pas. Les gens qui naissent pauvres, ils restent pauvres. Ceux qui tombent pauvres, ils restent pauvres. On doit avoir un truc qui permette aux gens de s’en sortir ». Source.
";s:7:"dateiso";s:15:"20220406_142721";}s:15:"20220401_143821";a:7:{s:5:"title";s:62:"Pourquoi s’opposer à la vidéosurveillance algorithmique ?";s:4:"link";s:95:"https://www.laquadrature.net/2022/04/01/pourquoi-sopposer-a-la-videosurveillance-algorithmique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18542";s:7:"pubDate";s:31:"Fri, 01 Apr 2022 12:38:21 +0000";s:11:"description";s:310:"La vidéosurveillance algorithmique (VSA) s’installe en France avec l’aide de l’État, des collectivités territoriales et de la CNIL (relire notre article « Qu’est-ce-que la VSA ? »). L’opposition s’organise, que ce soit au niveau local autour de la…";s:7:"content";s:28260:"
La vidéosurveillance algorithmique (VSA) s’installe en France avec l’aide de l’État, des collectivités territoriales et de la CNIL (relire notre article « Qu’est-ce-que la VSA ? »). L’opposition s’organise, que ce soit au niveau local autour de la campagne Technopolice ou par notre réponse à la consultation récemment organisée par la CNIL à ce sujet. Les raisons de rejeter la VSA sont variées (nous avons d’ailleurs recueilli vos motivations personnelles et avons transmis à la CNIL 175 de vos contributions). Pour l’heure, voici l’état actuel de nos motivations politiques contre la VSA.
Comme fil rouge à notre raisonnement, confrontons le discours de nos adversaires qui prétendent chercher le juste équilibre entre la « sécurité » que produirait la VSA et la mesure de « liberté » qu’il faudrait lui sacrifier. En notre sens, il s’agit d’un faux dilemme : la VSA va réduire à la fois nos libertés et notre sécurité. Elle réduira la sécurité d’une large partie de la population tout en échouant à repousser les dangers qu’elle prétend combattre.
Effets négatifs sur la sécurité
La VSA pose trois menaces pour la sécurité de la population : elle met en danger les populations qui sont déjà les plus vulnérables, elle favorise structurellement les comportements violents de la police contre la population, elle offre au pouvoir exécutif une puissance telle qu’aucun contre-pouvoir ne pourra en empêcher les abus.
Mise en danger des populations les plus vulnérables
Comme tout système de surveillance de l’espace public, la VSA surveillera en priorité les personnes qui passent le plus de temps en extérieur – les personnes qui, par manque de ressources, n’ont pas ou peu accès à des lieux privés pour sociabiliser ou pour vivre. De plus, la VSA détecte des comportements d’autant plus efficacement qu’elle a pu s’entraîner à partir d’une grande quantité de séquences d’images représentant une même action. Ainsi, les comportements les plus efficacement détectés seront ceux que l’on rencontre le plus souvent dans la rue et les transports – les comportements typiques des populations qui y passent le plus de temps, peu importe que ces activités soient licites ou illicites.
Ce sont précisément ces comportements que les fournisseurs de VSA mettent en avant1Par exemple, la RATP a récemment expérimenté dans la salle d’échange du RER des Halles un système pour repérer les personnes statiques pendant plus de 300 secondes. : maraudage, mendicité, réunions statiques. C’est le mode de vie des populations précaires ou populaires qui sera visé en priorité, alors qu’il ne constitue quasiment jamais un délit ou un crime. La VSA jouera le rôle de contrôle au faciès automatisé basé sur des critères sociaux, permettant de multiplier les alarmes sonores ou les contrôles humains et d’exclure une partie de la population de l’espace public, détériorant encore davantage leur sécurité – qu’il s’agisse de dégrader2L’exclusion par la surveillance s’ajoute aux politiques d’urbanisme et d’aménagement urbain déjà déployées contre les populations précaires et populaires. leur cadre de vie ou de les éloigner de l’accès aux soins et aux autres services publics.
81455195
La focalisation de la VSA sur les populations les plus pauvres n’est pas le simple « effet de bord » d’une technologie immature qui aurait encore quelques « biais ». Au contraire, la VSA est précisément vendue comme permettant de lutter contre des comportements définis comme « anormaux » qui, bien qu’étant parfaitement communs et « normaux » pour une large partie de la population, permettent de dénigrer les populations qui adoptent ces comportements. Ainsi, la VSA est autant un outil d’exclusion sociale qu’un outil de propagande politique, dont l’effet sera d’installer le sentiment que certaines populations (choisies arbitrairement par les fournisseurs de VSA et leurs clients) ne sont pas « normales » et doivent être exclues de l’espace public.
Déshumanisation de la population
La VSA renforce la distance qui sépare la police de la population. Cette distance est d’abord physique : l’interaction passe par des écrans et ne se réalise que dans une seule direction. La distance est aussi intellectuelle : les agents n’ont plus à comprendre, à évaluer ou à anticiper l’action des autres humains quand une machine le fait à leur place3Gregoire Chamayou. « Théorie du drone », 2013. L’auteur revient notamment sur la perte d’empathie entraînée par la distance entre le pilote de drone et ses cibles.. Déresponsabilisée, déshumanisée, la police est réduite à un outil d’action mécanique sur les corps, détachée de l’empathie et de la considération sans lesquelles les violences policières ne peuvent qu’exploser. Cette même empathie sans laquelle encore davantage de personnes auraient perdu la vie face aux pires crimes commis par la police (tel que notamment documenté4En plus des divers initiatives individuelles de policiers pendant l’occupation, le cas de la rafle manquée de Nancy illustre comment l’empathie d’un groupe de policiers a sauvé des centaines de personnes. pour la période de collaboration nazie).
De façon plus diffuse, cette mise à distance technologique accompagne une politique générale d’austérité. La collectivité assèche ses dépenses d’accompagnement et d’aide aux individus pour ne plus financer que leur gestion disciplinaire. Dans un courrier à la CNIL, la région PACA défendait l’expérimentation de la reconnaissance faciale aux abords de deux lycées en affirmant que ce projet constituait « une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique ». Le personnel encadrant, soucieux et à l’écoute, est remplacé par des machines dont le seul rôle est d’ouvrir et de fermer des accès. Ou encore à Nîmes, où la métropole a ponctionné presque 10 millions d’euros sur le budget d’investissement « eau » pour les dépenser à la place dans l’achat d’un logiciel de Détection Automatique d’Anomalie en temps réel.
La vidéosurveillance algorithmique accentue la déshumanisation du contrôle social qui était déjà une critique faite à la vidéosurveillance dite classique. Cette course sans fin s’inscrit dans la fuite en avant technologique générale qui anime à la fois l’effondrement des services publics et le désastre écologique en cours.
C’est aussi la population qui est déshumanisée : elle est utilisée comme cobaye pour entraîner les algorithmes. Non content de voir les habitants des villes comme une masse de données à rentabiliser pour le compte d’entreprises de mort, les populations permettent malgré elles de rendre le logiciel plus performant et donc de l’exporter sur le marché international de la surveillance. Par exemple, la multinationale Idémia, affine ses dispositifs de reconnaissance faciale aux aéroports français avec les dispositifs PARAFE ou MONA pour ensuite vendre des équipements de reconnaissance faciale à la Chine et participer à la surveillance de masse et le génocide Ouïghour.
Effacement des limites contre les abus de la police
Aujourd’hui, le nombre limité d’agents de police contraint celle-ci à concentrer une large part de ses ressources sur ses missions les plus importantes et les plus légitimes (crimes, violences aux personnes). Elle ne dispose ainsi que d’un temps et de ressources limitées pour poursuivre des activités peu légitimes (contre les populations vulnérables, contre les manifestants) ou qui constituent des abus de son pouvoir (répression d’opposants politiques, persécution de minorités).
Demain, la VSA promet d’effacer cette limite matérielle en décuplant les capacités opérationnelles de la police pour poursuivre les missions de son choix, que ces missions soient peu légitimes ou qu’elles constituent des abus. Par exemple, s’il est aujourd’hui extrêmement coûteux de détecter en manifestation l’ensemble des pancartes critiquant le gouvernement, la VSA promet à terme de rendre la chose triviale (facilitant les interpellations sur place ou, couplée à la reconnaissance faciale, permettant de poursuivre en masse les opposants trop expressifs). De même, si le suivi visuel d’opposants politiques implique aujourd’hui des moyens humains si importants que ces opérations ne peuvent rester qu’exceptionnelles, la VSA rend la chose triviale en permettant de suivre, à coût quasi-nul, une personne sur l’ensemble des caméras d’une ou plusieurs villes.
Ce changement d’échelle transforme considérablement la manière dont les pouvoirs de police sont exercés. D’une action précise répondant à des « besoins » pouvant être débattus démocratiquement, nous assistons à l’apparition d’une police omnisciente disposant de la capacité de surveiller et d’agir sur l’ensemble de la population. Avec la VSA, les 250 000 policiers et gendarmes actuels verraient leur autorité atteindre celle qu’auraient eu des millions d’agents non-équipés de telles technologies. De quoi atteindre le ratio police/population typique des États policiers.
Cette multiplication considérable des capacités de la police ne sera nullement compensée par une multiplication équivalente des capacités de contrôle de ses contre-pouvoirs. Dès aujourd’hui, l’installation des équipements de VSA se fait à un rythme bien trop important pour que la CNIL ou que des associations comme la nôtre puissent en prendre connaissance à temps et avec suffisamment de détails. Demain, la situation sera encore plus dramatique concernant l’utilisation quotidienne de ces systèmes : aucune autorité, aucun juge, aucun parlement ne pourra vérifier que chacune des innombrables détections réalisées chaque jour ne contribue pas à un abus de pouvoir. Personne ne pourra vérifier que la VSA ne permet pas à la police de réduire illégalement les conditions de sécurité de larges parties de la population.
En plus des risques d’abus policiers, ce changement d’échelle dans la surveillance de l’espace public contribue à criminaliser un nombre croissant de comportements. Ainsi, par exemple, la plupart des logiciels de VSA cherchent à détecter des dépôts d’ordure sauvage, le non-port du masque, des personnes qui sont statiques dans l’espace public, sans que ces évolutions aient été actées démocratiquement, résultant principalement d’initiatives d’entreprises privées.
Absence d’effet positif sur la sécurité
Les dégradations dramatiques engendrées par la VSA ne sont compensées par aucun avantage en terme de sécurité. Il s’agit d’un outil inadapté pour lutter contre les violences sur les personnes, que ce soit de par son objet, l’espace public, ou de par son fonctionnement, l’automatisation.
Cette double inadaptation repose sur une vision faussée du concept de « sécurité » qui, dans le discours des promoteurs de la VSA, se limite à un pur argument marketing déconnecté de la façon dont la population pourrait concrètement protéger sa santé physique et mentale, ses conditions de vie, son logement et ses capacités d’épanouissement.
Inadéquation de l’objet surveillé
L’objet de la VSA est l’espace public. Pourtant, pour l’essentiel, ce n’est pas dans l’espace public que se réalisent les violences sur les personnes. Tandis que les agressions sexuelles se déroulent presque toujours dans un contexte privé (91% sont perpétrées par une personne connue de la victime), la grande majorité des homicides, en excluant les conflits entre criminels, interviennent eux aussi en dehors de la voie publique5Voir statistiques pour la région parisienne entre 2007 et 2013, graphique 25..
Cette inadéquation entre l’objet surveillé et la finalité poursuivie est au cœur des nombreuses évaluations qui, depuis une décennie, concluent unanimement à l’inefficacité de la vidéosurveillance classique (voir notamment le rapport de la Cour des compte, du LINC et d’autres chercheurs).
Ce décalage est accentué en matière de VSA qui, pour fonctionner, doit s’entraîner sur un grand nombre de séquences vidéos représentant les comportements à détecter. Or, les violences sur les personnes sont beaucoup moins nombreuses dans l’espace public que de simples actes de dégradations, de maraudage ou de mendicité. Dès lors, l’algorithme aura beaucoup moins d’occasions de s’entraîner à détecter des actes de violences sur les personnes et les détectera beaucoup moins efficacement que d’autres actes plus anecdotiques (dont la surveillance, comme vu précédemment, dégradera les conditions de sécurité des populations les plus vulnérables).
Inadéquation de la méthode
La prévention des violences sur les personnes repose sur un travail humain et social : accompagnements personnalisés, soins, enquêtes de terrain, analyses sociologiques, réduction des inégalités ou même simplement présence sur le terrain. Ce travail humain a un coût nécessairement conséquent et déjà largement sous-investi, particulièrement dans les zones du territoire ou la précarité est la plus élevée.
À l’inverse, la VSA, probablement moins chère à court terme, n’est capable que de détecter certaines infractions (et parmi les moins graves), sans être capable d’en traiter les causes plus profondes en amont. Une façon de donner l’illusion de traiter les symptômes, sans rien changer sur le long terme.
C’est sans doute là que se trouve l’un des rares avantages de la VSA : offrir aux élus en manque de projet politique enthousiasmant un discours qui fera illusion à court terme. Ce discours est d’autant plus séduisant pour les élus que l’industrie de la VSA a préparé depuis plusieurs années les bons éléments de langage et l’imaginaire suffisamment confus pour espérer tromper le public. Sont décrits comme « anormaux » des comportements parfaitement banals mais typiques des populations les moins riches. Est présenté comme « sécurité » un objectif qui a bien plus à voir avec la « propreté » de la ville et la « sécurité » des biens qu’avec celle des personnes. Est dite « augmentée » ou « intelligente » une surveillance policière qui, au contraire, sera « réduite » à de pures tâches mécaniques et défaite de toute l’empathie et de toute la considération qui font l’intelligence humaine.
En conclusion, à l’exact opposé de ce que prétendent ses promoteurs, la VSA est une grave menace pour notre sécurité. Elle nuira aux conditions de vie d’une large partie de la population, ouvrira des risques politiques sans précédent, et cela sans même réussir à nous protéger par ailleurs. En plus d’être une grave menace pour notre sécurité, la VSA balaiera du même geste notre liberté d’aller et de venir, de nous rassembler, d’exprimer nos opinions politiques ou d’avoir la vie privée de notre choix. Nous reviendrons en détails sur les atteintes aux libertés causées par la VSA dans un futur article juridique reprenant l’analyse développée dans notre réponse à la consultation de la CNIL.
Par exemple, la RATP a récemment expérimenté dans la salle d’échange du RER des Halles un système pour repérer les personnes statiques pendant plus de 300 secondes.
L’exclusion par la surveillance s’ajoute aux politiques d’urbanisme et d’aménagement urbain déjà déployées contre les populations précaires et populaires.
Gregoire Chamayou. « Théorie du drone », 2013. L’auteur revient notamment sur la perte d’empathie entraînée par la distance entre le pilote de drone et ses cibles.
En plus des divers initiatives individuelles de policiers pendant l’occupation, le cas de la rafle manquée de Nancy illustre comment l’empathie d’un groupe de policiers a sauvé des centaines de personnes.
Voir statistiques pour la région parisienne entre 2007 et 2013, graphique 25.
";s:7:"dateiso";s:15:"20220401_143821";}s:15:"20220325_155914";a:7:{s:5:"title";s:60:"Pourquoi s’opposer à la création de Mon Espace Santé ?";s:4:"link";s:92:"https://www.laquadrature.net/2022/03/25/pourquoi-sopposer-a-la-creation-de-mon-espace-sante/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18533";s:7:"pubDate";s:31:"Fri, 25 Mar 2022 14:59:14 +0000";s:11:"description";s:254:"Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022.…";s:7:"content";s:27012:"
Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.
Que contient Mon Espace Santé ?
Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :
* Un Dossier Médical Partagé (DMP), ou espace de stockage et de partage d’informations médicales : il contient les traitements, les résultats d’examens, les antécédents médicaux, les compte-rendus d’hospitalisation, qui peuvent être partagés avec les professionnel·les de santé. Cet espace de stockage permet également de conserver des documents tels que la synthèse médicale produite par le ou la médecin généraliste, le carnet de vaccination ou l’historique des remboursements alimentés automatiquement par l’Assurance maladie (sources). Le Dossier Médical Partagé existait déjà depuis 2011 (sous le nom de Dossier Médical Personnel jusqu’en 2015) mais n’était ouvert que sur demande ; aujourd’hui, il est ouvert par défaut, en même temps que Mon Espace Santé, pour l’ensemble de la population.
Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).
* Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.
* Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.
* Un catalogue de services numériques de santé : concrètement, la personne usagère pourra autoriser des applications tierces à accéder à son espace santé. Ces applications seront validées et autorisées par le Ministère de la santé. Développées par des acteurs publics et privés de la santé, elles incluront des éditeurs de logiciels et d’applications mobiles, des plateformes de télémédecine, des plateformes de prise de rendez-vous en ligne (qui s’intégreront probablement à l’agenda santé), des portails patients des établissements de santé (ETS) et portails de pré-admission, et même des fabricants d’objets connectés. Cette fonctionnalité nous inquiète particulièrement sur le plan de l’accès aux données personnelles, comme nous l’expliquons plus bas.
Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.
Un recueil accessoire du consentement des personnes
À la création du compte
Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.
Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?
Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.
Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».
Dans le partage des données avec les professionnel·les de santé
Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.
Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».
Illustration : la configuration par défaut du compte à sa création
Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :
L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.
En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.
Un cloisonnement des informations insuffisant vis-à-vis du personnel soignant
Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.
Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).
Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.
Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.
Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.
Une mise en danger du secret médical pour certains ouvrants droits ?
Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.
En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.
Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.
Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?
Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.
Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).
Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.
Un futur écosystème d’applications aux nombreuses inconnues
La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.
Un futur accès plus difficile au service public de santé ?
Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.
Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?
La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.
Conclusion
Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.
Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »
Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.
Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.
";s:7:"dateiso";s:15:"20220325_155914";}s:15:"20220323_140124";a:7:{s:5:"title";s:54:"Qu’est-ce que la vidéosurveillance algorithmique ?";s:4:"link";s:88:"https://www.laquadrature.net/2022/03/23/quest-ce-que-la-videosurveillance-algorithmique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18493";s:7:"pubDate";s:31:"Wed, 23 Mar 2022 13:01:24 +0000";s:11:"description";s:246:"La semaine dernière, La Quadrature du Net a transmis à la CNIL sa position relative à la vidéosurveillance dite « algorithmique », ainsi que plus de 170 contributions de personnes nous ayant mandatées dans le cadre d’une…";s:7:"content";s:27992:"
La semaine dernière, La Quadrature du Net a transmis à la CNIL sa position relative à la vidéosurveillance dite « algorithmique », ainsi que plus de 170 contributions de personnes nous ayant mandatées dans le cadre d’une contre-consultation populaire. Nous allons revenir prochainement sur le détail des arguments qui conduisent, selon nous, à combattre toute légitimation de ces dispositifs. En attendant, il est essentiel de revenir sur ce que signifie ce terme et sur la nature exacte de ces technologies déployées depuis plusieurs années en France. Alors, de quoi parle t-on ?
Définitions
Selon la CNIL, la « vidéo augmentée désigne ici des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra. »
Vidéosurveillance/Vidéoprotection « augmentée » ou « intelligente », comme l’écrivent les institutions et les industriels ou encore vidéosurveillance « algorithmique » ou « automatisée » (VSA) comme nous préférons la nommer. Tous ces termes recouvrent une même réalité aux contours plus ou moins flous et aux promesses plus ou moins concrétisées. Il s’agit de l’ajout d’une couche d’algorithme aux caméras de vidéosurveillance dites « classiques ». Et ce, dans le but de rendre automatique l’analyse des images captées par caméras, jusqu’à présent réalisée par des humains, des opérateurs vidéo au sein de centres de supervision urbains (CSU). Alors pourquoi ces différences de langage ?
Parce que les mots ont un poids fort, nous préférons « automatisation » – ce terme déconstruit la notion d’intelligence qu’apporterait soi-disant la technologie. L’automatisation n’est pas un procédé neutre et en dehors du monde social mais qui transporte1Florent Castagnino, Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon, Sciences Po, 2019. avec lui les représentations et normes de celui-ci. Et « algorithmique » pour rendre visible l’ajout de ces logiciels fabriqués par des start-ups et multinationales dont on ne sait pas grand-chose.
Cette surcouche algorithmique vise à faire de l’analyse vidéo, que ce soit en temps réel ou après coup, et à repérer… ce que la police a envie de repérer. Cela va de la « détection de comportement suspect », au « maraudage » (le fait d’être statique dans l’espace public), en passant par le « dépassement d’une ligne », le suivi de personne, la détection d’objet abandonné, d’une bagarre, d’un vol, etc.
Le déploiement de la VSA dans les villes
Que ce soit à Toulouse en 2016 avec IBM (projet abandonné en 2019), à Nîmes depuis 2015 avec Briefcam, à Marseille dès 2018 avec la SNEF, à Paris avec la RATP qui autorise des entreprises à tester leurs algos sur les utilisateur·ices des métros, ou encore avec la municipalité de Suresnes qui met à disposition sa population en tant que cobaye pour la start-up parisienne XXII, la vidéosurveillance algorithmique se déploie un peu partout en France. S’il reste compliqué de quantifier le nombre de villes qui utilisent la VSA, en raison du manque criant de transparence de ces dernières, il est possible d’en repérer au moins une cinquantaine, le vrai nombre devant malheureusement dépasser la centaine, rien qu’en France.
Depuis plusieurs années, nous suivons ce déploiement, souvent très opaque (toutes les municipalités ne sont pas aussi loquaces que celle d’Estrosi). Alors que la VSA faisait l’objet jusqu’il y a peu de très nombreuses expérimentations sauvages, la CNIL a explicitement demandé en janvier 2022 aux industriels du secteur de lui faire des retours sur l’usage de ces technologies « afin d’accompagner leur déploiement », prenant clairement un parti : celui des industriels de la sécurité. La VSA semble en passe d’inonder le marché de la sécurité urbaine numérique.
Et ce marché de la VSA prend forme : si des acteurs comme IBM à Toulouse n’ont pas réussi à rendre efficace leur produit et semblent s’être retirés, l’entreprise israélienne Briefcam (entité du groupe Canon) prétend dominer le marché en France tandis que des villes signent des partenariats avec des start-up ou firmes françaises, soutenues par les décideurs politiques, afin de rendre les industries françaises concurrentielles sur le marché international de la sécurité urbaine numérique.
Les exemples de Briefcam et Two-I
Briefcam est une entreprise qui produit des logiciels de vidéosurveillance algorithmique très bien implantée en France, aux États-Unis et dans une quarantaine de pays. En 2020, déjà plus de 35 villes françaises utilisaient son logiciel, dont voici une démonstration assez révélatrice.
Dans cette vidéo, l’entreprise affirme être capable de condenser des heures de vidéos en quelques minutes, de pouvoir faire du suivi de personnes en fonction d’attributs (femme, homme, sac, chapeaux, couleurs d’habits…). On sait aussi que le logiciel de Briefcam est doté d’une option de reconnaissance faciale, que les élus à la sécurité sont très impatients d’enclencher.
Two-I de son côté est une start-up française, basée du côté de Metz. Ayant d’abord tenté de se faire une place dans la détection d’émotions (notamment l’expérimentation avortée à Nice de détection d’émotions dans les tramways), elle s’est finalement lancée dans la vidéosurveillance algorithmique et la conception de ce que les industriels appellent une « plateforme d’hypervision ». Ces plateformes mettent en carte et traduisent les nombreuses données collectées par les caméras et les algorithmes, dans le but « d’optimiser la gestion de la ville ». En somme, ces plateformes permettent de rendre utilisable la vidéosurveillance algorithmique, via une mise en carte des données et alertes captées par les caméras et algorithmes.
Hyperviseur de Two-I, voir la vidéo de présentation ici.
L’exemple des logiciels de Briefcam ou encore de Two-I (qui ne sont que deux exemples parmi une dizaine d’autres entreprises sécuritaires du même type) est révélateur de ce nouveau marché de la sécurité mais aussi d’un basculement dans le concept de sécurité. Dorénavant, ce sont des entreprises privées qui, concevant les algorithmes vendus aux collectivités territoriales, décident ce qu’il y a derrière une alerte pour « comportement anormal ou suspect ». À travers l’automatisation, les entreprises acquièrent un pouvoir de police et d’édiction des normes et des comportements dans l’espace public, s’inscrivant parfaitement dans l’expansion des politiques sécuritaires.
Les effets de la vidéosurveillance algorithmique
L’ajout d’algorithme à la vidéosurveillance « classique » n’est pas anodin. Cela témoigne d’un changement d’échelle dans la surveillance par les caméras qui, jusqu’à présent, comme le décrit Tanguy Le Goff2Tanguy Le Goff, « Dans les « coulisses » du métier d’opérateur de vidéosurveillance », Criminologie, vol. 46, n°2, 2013, p. 91-108., était un « travail de surveillance […] jugé ennuyeux et monotone » au sein duquel les opérateurs vidéo mettaient en place des stratégies pour réaliser ce travail de manière partielle.
L’automatisation de cette surveillance est censée décupler les yeux derrière l’écran des caméras. Et cela se traduit notamment par la criminalisation de comportements jusqu’alors anodins ou presque comme le dépôt d’ordures sauvage, le non port du masque ou encore les déjections canines. L’automatisation permet à la police d’étendre sa capacité d’action à de nouveaux champs sur lesquels elle a maintenant un pouvoir de répression. La police peut décupler sa capacité à normaliser l’espace public : si le maraudage, c’est-à-dire le fait de rester statique plus de 300 secondes, alerte les forces de l’ordre, on peut craindre pour les personnes qui ne peuvent pas voir la rue comme un « simple endroit de passage », car ils y vivent ou en font un repère social nécessaire. Nous reviendrons dans un prochain article sur le fait que les algorithmes sur les caméras augmentent la répression policière sur les populations déjà particulièrement ciblée par les forces de l’ordre.
Un autre aspect de la VSA est la tendance croissante à être mis en données. Au-delà de la surveillance de l’espace public et de la normalisation des comportements qu’accentue la VSA, c’est tout un marché économique de la data qui se frotte les mains. Le prétendu « encadrement » des dispositifs promis par la CNIL permettrait aux entreprises de la Technopolice d’utiliser les espaces publics et les personnes qui les traversent ou y vivent comme des « données sur pattes ». Et aux industries de la sécurité de se faire de l’argent sur nous, d’améliorer leurs algorithmes de répression et ensuite de les vendre sur le marché international. C’est ce que fait la multinationale française Idémia, qui affine ses dispositifs de reconnaissance faciale aux aéroports français avec les dispositifs PARAFE ou MONA pour ensuite vendre des équipements de reconnaissance faciale à la Chine et ainsi participer à la surveillance de masse et au génocide des Ouïghours, ou encore pour remporter les appels d’offres de l’Union Européenne en vue de réaliser de la biométrie aux frontières de l’UE.
De quoi la VSA est-elle le nom ?
Vidéosurveillance automatisée et Smart City nourrissent la même fiction : celle d’une ville dont les capteurs mettent en données, où les algorithmes trient et détectent et où une plateforme centrale permettrait à la police de gérer la ville à distance.
La vidéosurveillance algorithmique, c’est un marché de la sécurité qui tente de s’accroître en devenant « numérique » c’est-à-dire avec de l’IA et des algorithmes. Et comme le montre Myrtille Picaud3 Myrtille Picaud Peur sur la ville. La sécurité numérique pour l’espace urbain en France [Rapport de recherche] 01/2021, Chaire « Villes et numérique », École urbaine de Sciences Po, 2021., les industriels et décideurs politiques français font pression pour structurer une filière industrielle sécuritaire forte afin d’être concurrentielle sur le marché international, qui représente un marché économique énorme. Les grands événements sportifs comme les Jeux Olympiques de Paris en 2024 ou encore la coupe du monde de Rugby en 2023 représentent une aubaine pour accélérer le développement de technologies sécuritaires, offrir une vitrine aux industriels français et normaliser ces dispositifs.
Pour les industriels, la VSA représente la possibilité de justifier le déploiement de centaines de milliers de caméras en France. Déploiement largement décrié4Voir ces trois études : celle de Guillaume Gormand commandée par le CREOGN, l’étude sur la vidéosurveillance dans les villages, novembre 2021 et le rapport sur les polices municipales, d’octobre 2020. même par les institutions publiques, mais qui, par un tour de magie, prendrait tout son sens avec l’ajout d’algorithmes (argument absurde, nous y reviendrons dans un prochain article). La VSA permettrait d’utiliser les caméras à leur plein potentiel et même d’accélérer leur déploiement : il en faudra plus et il faudra aussi remplacer les anciennes qui ne seraient pas d’assez bonne qualité pour les algorithmes ; et surtout s’assurer de poursuivre l’installation démesurée de caméras qui continueront à rapporter beaucoup d’argent aux entreprises du secteur.
En plus de constituer une justification à la multiplication des caméras de vidéosurveillance, la VSA forme une ressource rentable5Laurent Mucchielli, Vous êtes filmés, Armand Colin, 2018, page 80. politiquement, expliquant l’engouement immodéré des élus locaux pour la vidéosurveillance. La VSA est une mesure de court terme que les élus locaux peuvent mobiliser pour montrer qu’ils agissent. La sécurité numérique constitue6Guillaume Faburel, Les métropoles barbares, Paris, Le passager clandestin, 2020 [2018], page 46. également une source d’attractivité et de distinction dans la concurrence territoriale, dans la recherche de capital symbolique pour attirer tourisme et classe créative.
La vidéosurveillance algorithmique, c’est un renouveau dans la croyance en la « prophétie technologique7Ibid. » intégrée dans la Smart City. Cette croyance permet de continuer à déployer des caméras et, surtout, de trouver toujours plus de débouchés économiques.
Pour conclure :
En somme, la vidéosurveillance algorithmique est une technologie en passe d’être largement déployée en France et qui l’est peut être déjà beaucoup plus que ce que nous pouvons en douter, qui sert à justifier l’existence de l’immense parc de vidéosurveillance français, en tentant de le rendre plus performant, via l’automatisation de la détection d’infractions. Cette technologie s’intègre dans la fiction plus large de la Smart City, qui base la gestion de la ville sur l’IA et représente un énorme marché économique. Ces technologies d’automatisation réduisent encore les espaces de liberté dans les rues et sur les places des villes, augmentant la répression sur les populations les plus visées déjà par la police. Nous reviendrons plus en détail sur ce pour quoi nous sommes contre cette technologie et comment il est possible de lutter contre son déploiement.
Florent Castagnino, Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon, Sciences Po, 2019.
Myrtille Picaud Peur sur la ville. La sécurité numérique pour l’espace urbain en France [Rapport de recherche] 01/2021, Chaire « Villes et numérique », École urbaine de Sciences Po, 2021.
";s:7:"dateiso";s:15:"20220323_140124";}s:15:"20220225_170644";a:7:{s:5:"title";s:47:"Données de connexion : une victoire en retard";s:4:"link";s:84:"https://www.laquadrature.net/2022/02/25/donnees-de-connexion-une-victoire-en-retard/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18451";s:7:"pubDate";s:31:"Fri, 25 Feb 2022 16:06:44 +0000";s:11:"description";s:276:"Dans sa décision de ce matin, le Conseil constitutionnel vient de censurer, comme Franciliens.net et La Quadrature le lui demandaient, une partie de l’obligation de conservation généralisée et indifférenciée des données de connexion, c’est-à-dire la…";s:7:"content";s:5432:"
Dans sa décision de ce matin, le Conseil constitutionnel vient de censurer, comme Franciliens.net et La Quadrature le lui demandaient, une partie de l’obligation de conservation généralisée et indifférenciée des données de connexion, c’est-à-dire la surveillance de masse des télécommunications. Cette censure est une bonne nouvelle, mais ne va pas, en pratique, mettre tout de suite fin à cette surveillance illégale.
Depuis sept ans, La Quadrature du Net et d’autres associations se battent contre cette surveillance des réseaux de télécommunications. Celle-ci permet aux services de police, de renseignement et à la Hadopi/Arcom d’accéder, pendant une année, à toutes les traces numériques que nous laissons en utilisant un téléphone ou un ordinateur. Pourtant, l’obligation imposée aux opérateurs et hébergeurs de conserver toutes ces données pour les besoins de la police était jugée illégale et disproportionnée depuis 2014 par la Cour de justice de l’Union européenne.
En sept ans de procédure, nous avons essuyé mépris et échec devant les juridictions françaises. Mépris de l’État de droit, d’abord, mis à mal par le gouvernement. Celui-ci ne veut pas respecter cette jurisprudence européenneconfirmée par la victoire obtenue difficilement par La Quadrature, FDN, FFDN et igwan.net devant la Cour de Justice de l’Union européenne en 2020. En invoquant des inepties juridiques, la France demandait au Conseil d’État de ne pas appliquer une décision de justice qui, pourtant, s’impose sans discussion à elle.
Échec, ensuite, parce qu’en 2021, prétextant un état d’urgence permanent qui justifierait les pires mesures de surveillance, le Conseil d’État préféra finalement donner raison aux velléités sécuritaires du gouvernement.
Aujourd’hui, le Conseil constitutionnel vient toutefois de prendre un autre chemin. Il avait à se prononcer sur la question de la constitutionnalité d’une précédente version de la loi encadrant cette obligation de conservation généralisée et indifférenciée. En considérant que celle-ci est disproportionnée, le Conseil constitutionnel s’aligne donc avec la ligne jurisprudentielle européenne que nous défendons depuis le début de cette bataille. Après toute cette résistance de la part du gouvernement et du Conseil d’État, ce sursaut est une bonne nouvelle.
Cette censure arrive toute fois un peu tard. Déjà, le Conseil constitutionnel n’était saisi que de l’ancienne version de l’article L. 34-1 du code des postes et des communications électroniques. Celle-ci constituait la base juridique de l’affaire pénale à l’occasion de laquelle la question avait été posée. Mais, entre-temps, cet article a été réécrit à l’été 2021 par l’adoption de la loi renseignement. Si la conservation des données est toujours prévue par les nouvelles dispositions, la manière dont elle est encadrée est plus complexe et suit l’interprétation opportuniste du Conseil d’État. Nous ne pouvons donc pas affirmer que la décision d’aujourd’hui amène forcément à une inconstitutionnalité de la nouvelle version de cet article.
Ensuite, le Conseil constitutionnel a décidé de se limiter au champ pénal seulement, ce qui veut dire que ni la surveillance à des fins de lutte contre le piratage, ni celle à des fins de renseignement ne sont concernées par la décision d’aujourd’hui. Or, comme on le voit depuis 2015, et plus récemment avec la question du partage de renseignements, le Conseil constitutionnel n’a jamais voulu entraver le travail de ces services de renseignement, quitte à nier les droits fondamentaux.
Nous accueillons donc positivement la décision du Conseil constitutionnel qui permet de poser une nouvelle pierre à l’édifice de protection de la vie privée mais nous devons garder à l’esprit ses limites pratiques. L’effet et le coût politique sont à relativiser : il est facile pour le Conseil constitutionnel de censurer des dispositions qui ne sont plus en vigueur. De fait, cette victoire juridique arrive trop tard puisque les pratiques de surveillance ont été validées par les initiatives du Conseil d’État, du gouvernement et de sa majorité au Parlement. Nous allons suivre de près les suites qui pourraient être données à cette décision, ce travail n’étant possible que grâce à votre aide.
";s:7:"dateiso";s:15:"20220225_170644";}s:15:"20220218_103238";a:7:{s:5:"title";s:69:"IA et réforme de l’État : vers des bureaucraties sans humains ?";s:4:"link";s:99:"https://www.laquadrature.net/2022/02/18/ia-et-reforme-de-letat-vers-des-bureaucraties-sans-humains/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18438";s:7:"pubDate";s:31:"Fri, 18 Feb 2022 09:32:38 +0000";s:11:"description";s:253:"Texte publié en novembre 2021 sur AOC media.
Depuis quelques années, à grand renfort d’un vocable issu du monde des « start-ups », on assiste à la consolidation d’un nouvel avatar de la réforme néo-libérale de l’État. À…";s:7:"content";s:64336:"
Texte publié en novembre 2021 sur AOC media.
Depuis quelques années, à grand renfort d’un vocable issu du monde des « start-ups », on assiste à la consolidation d’un nouvel avatar de la réforme néo-libérale de l’État. À travers les concepts d’« État plateforme » ou de « start-up d’État »1Voir par exemple : Algan, Yann et Cazenave, Thomas, 2016. L’Etat en mode start-up. Paris : Eyrolles. Bertholet, Clément et Létourneau, Laura, 2017. Ubérisons l’État ! Avant que d’autres ne s’en chargent. Malakoff : Armand Colin. Pezziardi, Pierre et Verdier, Henri, 2017. Des startups d’État à l’État plateforme. CreateSpace Independent Publishing Platform., les nouveaux réformateurs comptent sur les « corporate hackers » et l’innovation disruptive pour transformer de l’intérieur les bureaucraties publiques, laisser libre cours à la créativité, renouer avec la transparence, déployer des méthodes « agiles » et s’adapter à un environnement en perpétuelle transformation, le tout à moindre coût. L’« État digital » – concept vanté en juin 2017 par Emmanuel Macron lors d’une ode à la « startup nation » restée célèbre – est aussi et surtout un État en voie d’automatisation : pour accompagner l’horizon du non-remplacement de près de 50 000 fonctionnaires d’ici à 2022, le plan Action Publique 2022 lancé en octobre 2018 misait sur des « technologies telles que l’intelligence artificielle et les RPA (‘‘robotic process automation’’ »), et ce afin de « d’automatiser les tâches répétitives et à faible valeur ajoutée »2Action Publique 2022 : Notre stratégie pour la transformation de l’action publique. Octobre 2018. Paris: Gouvernement français..
Le contexte est en effet propice à l’automatisation de nombreuses fonctions administratives. Outre la conversion d’une partie des élites politiques et administratives au concept de « gouvernance par les données », l’offre technologique des prestataires privés s’est aussi structurée, grâce notamment au développement rapide des techniques dites d’« intelligence artificielle » (IA). Du côté des « administrés », ce projet rencontre une plus grande acculturation de la population française au numérique 3Près de 10 millions de résidents français ne bénéficient toutefois pas d’accès à Internet (soit parce qu’ils ne disposent pas d’abonnement, soit qu’il ne disposent pas d’équipements adéquats). Voir le baromètre du numérique réalisé par l’Arcep, juillet 2021, p. 308 : https://www.arcep.fr/uploads/tx_gspublication/rapport-barometre-numerique-edition-2021-infographie.pdf. Trois français sur dix s’estiment incompétent pour réaliser des démarches administratives en ligne. Charrel, Marie, et Zeliha Chaffin. 7 septembre 2021. « Illectronisme : les laissés-pour-compte du tout-numérique ». Le Monde. https://www.lemonde.fr/economie/article/2021/09/07/illectronisme-les-laisses-pour-compte-du-tout-numerique_6093657_3234.html., avec un taux d’équipement important et de nombreux programmes pour la « former » aux outils numériques, que ce soit à l’initiative des pouvoirs publics ou d’entreprises comme Google (entreprise accueillie à bras ouverts par plusieurs villes françaises pour installer ses « ateliers numériques »).
Ces différents facteurs poussent à une multiplication des « assemblages algorithmiques » dans les administrations4Sur la notion d’« assemblage algorithmique », voir Ananny, Mike, et Kate Crawford. 2018. « Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability ». New Media & Society 20(3): 973‑89.. Que ce soit la dématérialisation de nombreuses démarches administratives, l’automatisation partielle de l’affectation post-Bac avec Parcoursup, l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel » expérimenté par Pôle Emploi, l’automatisation de la lutte contre la fraude sociale par les caisses d’allocation familiale ou de la lutte contre la fraude sociale par le fisc, l’automatisation du contrôle d’identité via la reconnaissance faciale des bornes PARAFE installées dans plusieurs aéroports, ou encore l’automatisation des communications ou comportements suspects au sein des services de police ou de renseignement, nombre de pratiques administratives sont aujourd’hui de plus en plus articulées à des algorithmes semi-autonomes.
Face à ce processus, des craintes s’expriment dans certains segments de la société. Sont notamment évoqués les risques pour la vie privée, l’avènement d’une « société de contrôle » appuyée sur l’informatique, l’opacité des assemblages algorithmiques, les formes aggravées de déshumanisation induites par l’automatisation ou encore l’accentuation des inégalités structurelles. Au sein même des bureaucraties concernées par ces transformations, la peur du déclassement de l’humain par la machine, le surcroît de procédures, le risque de bugs techniques ou le phénomène rampant de privatisation suscitent également leur lot de résistances parmi les agents.
Dans le même temps, les avancées dans le domaine de l’IA ont conduit à la multiplication de travaux dédiés aux enjeux sociaux, éthiques et juridiques de ces technologies de plus en plus intégrées au fonctionnement des grandes organisations. L’objectif consiste à poser les règles minimales garantes de l’« acceptabilité sociale » de cette nouvelle étape du processus d’informatisation. Au travers d’un certain nombre de procédures, il s’agit par exemple de formaliser les choix éthiques réalisés dans le cadre du développement d’algorithmes, de garantir leur transparence, leur « explicabilité » ou leur « auditabilité », ou encore de réduire autant que faire se peut les risques pour les droits fondamentaux au travers d’approches dites de « privacy-by-design » et autres « chartes éthiques ».
L’échec de l’approche procédurale
Ces réflexions ont conduit à la multiplication de rapports, de livres blancs ou de textes de soft-law émanant du secteur privé, d’organismes de protection des données comme la CNIL, d’institutions comme le Parlement européen mais aussi d’organisations internationales comme le Conseil de l’Europe ou le Conseil des droits de l’Homme des Nations Unies. Au niveau international, entre 2016 et 2019, plus de soixante-dix chartes éthiques dédiées à l’intelligence artificielle ont ainsi été publiées par divers organismes, adoptant souvent une approche probabiliste et quantifiable des risques associés à l’IA5Renn, Ortwin, Andreas Klinke, et Marjolein van Asselt. 2011. « Coping with Complexity, Uncertainty and Ambiguity in Risk Governance: A Synthesis ». AMBIO 40(2): 231‑46. Budish, Ryan. 2020. « AI & the European Commission’s Risky Business ». Berkman Klein Center for Internet and Society. https://medium.com/berkman-klein-center/ai-the-european-commissions-risky-business-a6b84f3acee0.. Du côté des administrations publiques, ces travaux ont parfois débouché sur des dispositions législatives ou réglementaires ad hoc, à l’image de l’évaluation de l’« incidence algorithmique » désormais imposée aux administrations fédérales canadiennes6Voir la présentation de l’« outil d’évaluation de l’incidence algorithmique » sur le site Web du gouvernement canadien, https://archive.md/wip/uJuZ7., mais aussi de la loi française qui, depuis 2016, garantit un principe de transparence des algorithmes publics servant à fonder des décisions administratives individuelles7Article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique..
En dépit de l’impression qui domine généralement d’avoir à faire à des défis tout à fait inédits, il est frappant d’observer la similitude des controverses actuelles avec celles ayant marqué le premier cycle d’informatisation de la société, dans les années 1970. Or, qu’il s’agisse des premières lois sur la protection des données personnelles face au fichage informatique ou les progrès de la transparence administrative pour compenser le surcroît d’opacité induite par l’informatisation de l’État, ces aménagements procéduraux ont passablement échoué à atteindre les objectifs qu’on leur avait assignés.
Cet échec s’est produit dans un contexte politique et technologique plutôt favorable : une période où, en réponse aux contestations d’alors, les États adoptaient de grandes législations libérales censées étendre les droits et libertés, et où la mise sur le marché des micro-ordinateurs et l’avènement de réseaux télécoms décentralisés conduisaient de nombreux commentateurs à prédire une avancée historique dans le processus de démocratisation. Quarante ans plus tard, à l’heure où le Big Data ou l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, à l’heure où l’accumulation des crises et des législations d’exception conduit à l’hypertrophie du pouvoir exécutif et à la consolidation d’un contrôle policier de plus en plus polycentrique, un tel découplage entre pouvoir et informatique paraît moins probable que jamais.
Malgré ce contexte peu engageant, les controverses contemporaines continuent de miser sur les mêmes remèdes, faits de garde-fous pour les droits et libertés et d’obligations de transparence. Récemment, l’un des rapporteurs au Parlement de la proposition de loi dite « sécurité globale » résumait bien la situation en évoquant sa conviction qu’en dépit de leurs dangers, l’usage des drones de surveillance par la police pourrait être encadré par des garanties appropriées : « J’essaie de trouver », expliquait-il alors, « des accommodements raisonnables, c’est-à-dire ‘‘oui, mais’’ ». C’est ainsi qu’à chaque débat parlementaire sur l’informatisation bureaucratique, on choisit de « prendre le risque », en tentant d’y parer par l’éternel retour des « accommodements raisonnables ». À tel point qu’on aimerait opposer à la logique du « oui, mais » le vieux dicton latin : « Errare humanum est, perseverare diabolicum » (« l’erreur est humaine, persévérer [dans son erreur] est diabolique »).
L’histoire n’est pourtant pas la seule discipline riche d’enseignement quant à l’inadéquation de ces « accommodements » pour la défense des valeurs démocratiques. Certains travaux en sociologie des sciences et des techniques ont également montré la faible portée pratique de ces approches procédurales, les règles ainsi posées étant souvent inapplicables, contournées, ou privées de leurs effets. Sur le plan juridique enfin, l’expérience montre également que les « gardes-fou » adoptés par le législateur ou les juges s’avèrent très fragiles. Compte tenu des logiques bureaucratiques d’optimisation (fonctionnelle, budgétaire, etc.) des tâches administratives, l’innovation technologique (dans le contrôle d’identité, le placement des bacheliers, etc.) tend systématiquement à créer un besoin, lequel se traduit tôt ou tard par des réformes visant à légaliser des usages qui paraissaient auparavant inenvisageables techniquement ou inacceptables socialement.
Des fonctionnaires dispensables
En réduisant les enjeux à des questions de procédures – donc à des questions souvent techniques sur la manière dont réguler l’usage d’un dispositif – et en se focalisant sur les artefacts technologiques en négligeant leur environnement institutionnel, les controverses actuelles tendent également à éluder certains problèmes politiques soulevés par l’automatisation bureaucratique. Par exemple, il est une question fondamentale dont il est rarement débattu : quelle serait la signification politique d’une bureaucratie presque entièrement automatisée ? La critique des tendances anti-démocratiques du pouvoir bureaucratique a occupé une place importante dans la théorie politique depuis le XIXè siècle. Mais sans minimiser les formes de violences associées aux bureaucraties passées et présentes, il n’en demeure pas moins qu’en pratique, leur potentiel dystopique peut être en partie contenu par les femmes et les hommes en leur sein.
C’est ce que soulignent de nombreux travaux en sociologie politique. Pour Michael Mann par exemple, la critique de Max Weber à l’encontre des bureaucraties exagère l’ampleur du pouvoir qu’elles peuvent imprimer sur la société : selon lui, puisque l’État doit procéder au recrutement massif de fonctionnaires pour garnir les rangs de bureaucraties toujours plus tentaculaires, le « pouvoir infrastructurel » de l’État sur la « société civile » se développe au prix d’une pénétration de ses propres structures administratives par cette même société civile, qui aux travers de ces fonctionnaires toujours plus nombreux est en mesure d’influencer l’État8Mann, Michael. 2012. The Sources of Social Power: Volume 2, The Rise of Classes and Nation-States, 1760-1914. Cambridge University Press, p. 59.. Dans une approche qui a le mérite d’éviter une opposition trop binaire entre État et « société civile », Timothy Mitchell évoque lui aussi les formes de résistance internes nourries par des « sujets politiques […] formés au sein de la sphère organisationnelle dénommée État »9Mitchell, Timothy. 2018. « Les limites de l’État : Au-delà des approches étatistes et de leurs critiques ». In Etat et société politique : Approches sociologiques et philosophiques, éd. Bruno Karsenti et Dominique Linhardt. Paris: Editions de l’Ecole des Hautes Etudes en Sciences Sociales, p. 372.
De manière plus empirique, la sociologie de l’action publique a largement souligné le rôle joué par les « street-level bureaucrats » – c’est-à-dire les agents placés au contact direct des administrés – dans le travail d’interprétation et d’adaptation des règles aux réalités des publics et des terrains10Voir par exemple : Dubois, Vincent. 2013. « Le rôle des street-level bureaucrats dans la conduite de l’action publique en France ». In La France et ses administrations. Un état des savoirs, éd. Jean-Michel Eymeri–Douzans et Geert Bouckaert. Bruxelles: Bruylant, 169‑77. Au sein de la discipline, un débat a cours depuis une vingtaine d’années pour élucider les effets de l’introduction des technologies informatiques vis-à-vis de ce travail d’interprétation11Snellen, Ignace. 2002. « Electronic Governance: Implications for Citizens, Politicians and Public Servants ». International Review of Administrative Sciences 68(2): 183‑98. Buffat, Aurélien. 2015. « Street-Level Bureaucracy and e-Government ». Public Management Review 17(1): 149‑61.. Si ces effets apparaissent ambivalents, il reste que, dans un certain nombre de contextes, la technologie rend d’ores et déjà quasiment impossible une telle herméneutique. Et quand bien même davantage d’études de terrain seraient nécessaires pour l’évaluer précisément, on peut s’attendre à ce que l’automatisation croissante de certaines tâches administratives en lien avec les dernières innovations technologiques rognent encore davantage sur les marges de manœuvre laissées aux « street-level bureaucrats ».
Ce pourrait d’ailleurs être là l’un des ressorts tacites du mouvement d’automatisation bureaucratique. Si, comme le suggère l’anthropologue David Graeber, la bureaucratie est « faite, d’abord et avant tout, d’agressions contre ceux qui persistent à défendre d’autres schémas ou des interprétations différentes » 12Graeber, David. 2015. Bureaucratie: L’utopie des règles. Les Liens qui libèrent, chapitre 2., il n’est guère surprenant qu’elle appréhende la subjectivité de ses agents comme un aléas dispensable, en abordant le fonctionnaire et ses dilemmes moraux comme un bug à corriger13On retrouve ce parti pris dans la doctrine juridique. Voir par exemple Michoud, Léon. 1914. « Étude sur le pouvoir discrétionnaire de l’administration », Rev. gén. adm., sept.-déc. 1914, p. 11 : « En théorie, il n’existe qu’une seule solution exacte ; toute autre repose sur une erreur d’appréciation. Il s’agit seulement de dégager la véritable règle de droit et de l’appliquer à un fait. La divergence possible des solutions a pour cause unique l’insuffisance, l’incertitude des jugements humains ».. Dans une bureaucratie automatisée, aucune désobéissance possible dans l’application de la règle inscrite dans le dispositif, plus aucun lanceur d’alerte dont la conscience pourra être à ce point heurtée par la violence bureaucratique qu’il ou elle se décidera à porter l’affaire à la connaissance du public. En évinçant l’élément humain dans l’application des règles rationnelles et impersonnelles, l’automatisation bureaucratique a le potentiel de faire advenir le gouvernement totalement déshumanisé que décrivait Hannah Arendt au tournant des années 1960 : « dans une bureaucratie pleinement développée, il ne reste plus personne avec qui l’on puisse discuter, à qui l’on puisse présenter des griefs (…) »14Arendt, Hannah. 2003. Du mensonge à la violence. Paris : Presses Pocket.
Cette analyse conduit à une autre interrogation : le fait d’accepter d’être administré par des machines ne conduit-il par à rompre avec l’horizon politique de l’humanisme, en acceptant de nous concevoir nous-mêmes – personnes administrées – comme des machines, c’est-à-dire comme les objets d’un gouvernement plutôt que des sujets politiques ? Dans un colloque récent auquel je participais et où certains s’inquiétaient de l’impossibilité d’accorder une responsabilité juridique à un dispositif autonome (par exemple une voiture « intelligente »), un directeur de recherche au CNRS, spécialiste de l’aide à la décision, estimait que de telles inquiétudes étaient infondées. Selon lui, on ne peut pas non plus – en tout cas pas toujours – expliquer les motivations, le raisonnement et les décisions d’un individu. Or, cela n’empêche pas, en l’état actuel du droit, de considérer ces mêmes individus comme des sujets de droit. De son point de vue, il n’y aurait donc pas de problème particulier à appréhender un ordinateur comme une personne juridiquement responsable.
Gouvernés comme des machines
Si innocent qu’il puisse paraître, ce genre d’assertion assume en réalité une rupture avec les principes humanistes au fondement du droit libéral15Delmas-Marty, Mireille. 2010. Libertés et sûretés dans un monde dangereux. Seuil, p. 84 et suivantes.. Ce dernier considère en effet que, même si les motivations et les état mentaux d’autrui ne peuvent pas toujours être sondés, ils sont en fait équivalents aux nôtres. Selon cette conception, autrui est réputé doué des mêmes facultés que nous, animé lui aussi par une volonté et des désirs. C’est ce qui fait de lui un pair devant jouir de droits et d’une dignité égale à la nôtre. Même si le fait d’être administré par des organisations bureaucratiques constitue bien une forme de dépossession et de violence, au moins est-elle en partie rendue plus tolérable (car plus « négociable ») par l’existence d’interlocuteurs humains (en espérant que ces personnes pourront user à bon escient d’une certaine marge d’interprétation).
Dès lors que cet « élément humain » disparaît, dès lors que ne subsiste plus que le fonctionnement froid et impénétrable d’un algorithme fondé sur des simplifications abstraites et une approche quantitative et probabiliste du réel (fut-il paramétré par un ingénieur), cette capacité à négocier avec un pair disparaît. Comme le notait Arendt, il devient dès lors impossible de faire valoir nos situations spécifiques, nos subjectivités et nos affects en comptant sur l’empathie d’autrui. En édifiant des bureaucraties toujours plus automatisées, nous risquons donc de solder cette « anthropologie humaniste » au fondement du droit libéral pour lui substituer une anthropologie guerrière et cybernétique au sein de laquelle, comme le souligne le philosophe des sciences Peter Galison, chacun est considéré comme une « boîte noire », avec « des entrées et des sorties et sans accès à la vie intérieure d’autrui16Galison, Peter. 1994. « The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision ». Critical Inquiry 21(1): 228‑66. Voir aussi : Bruno, Fernanda, Maurício Lissovsky, et Icaro Ferraz Vidal Junior. 2018. « Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité ». Reseaux n° 211(5): 105‑35. ». Ce qui revient, en fin de compte, à accepter de nous considérer les uns les autres comme des machines.
La focale procédurale et le primat donné aux dispositifs socio-techniques dans l’évaluation des « risques » écarte aussi d’autres enjeux soulevés par la logique d’optimisation bureaucratique. Par exemple, l’une des justifications les plus courantes à l’informatisation des administrations tient à des objectifs comptables et budgétaires : en réalisant un saut qualitatif dans l’automatisation, l’IA permettrait de faire « passer à l’échelle » tel ou tel process bureaucratique en réalisant des économies d’échelle. Ainsi, dans un courrier à la CNIL, la région PACA défendait récemment l’expérimentation de la reconnaissance faciale aux abords des lycées en affirmant que ce projet constituait « une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique »17Voir le courrier envoyé par la Région Sud à la CNIL. 7 mars 2018. https://data.technopolice.fr/fr/entity/hi661p1k6s9.. De même, les applications dite de « backtracking » popularisées lors de la pandémie de COVID-19 consistent à automatiser les stratégies de contact-tracing traditionnellement menées par des professionnels de santé ou des bénévoles afin d’identifier les chaînes de contamination – des approches qu’il est financièrement coûteux de massifier. Quant à la détection automatique de la fraude sociale et fiscale à partir de l’analyse des publications sur les réseaux sociaux actuellement expérimentées par le fisc français, elle intervient dans un contexte où plus du quart des quelques 12 000 postes dédiés au contrôle fiscal a été supprimé18Desbois, Dominique. 2019. « Drague fiscale sur les réseaux sociaux : de nouveaux algorithmes d’apprentissage pour traquer la fraude ». Terminal. Technologie de l’information, culture & société. https://hal.archives-ouvertes.fr/hal-02406386. Marzolf, Émile. 2021. « L’intelligence artificielle se fait lentement sa place dans la lutte contre la fraude fiscale ». Acteurs Publics. https://www.acteurspublics.fr/articles/lintelligence-artificielle-se-fait-lentement-sa-place-dans-la-lutte-conte-la-fraude-fiscale..
Ce ne sont pas là des cas isolés : Romain Boucher, un « data scientist » ayant pris part en tant que consultant à de nombreux projets de « transformation de l’action publique », résume son expérience en ces termes :
« Au bout d’un moment on se rend compte que les types de mission qui reviennent sont des missions de surveillance et de rationalisation d’effectifs (…) On nous demandait de réaliser de belles présentations pour montrer à la Transformation publique combien on économisait. La logique d’amélioration du service public n’existait plus »19Cité dans Delaunay, Matthieu. 4 mai 2021. Du « Consulting for good » aux potagers corses. Club de Mediapart. https://blogs.mediapart.fr/delaunay-matthieu/blog/050421/du-consulting-good-aux-potagers-corses..
Intimement liée aux politiques d’austérité, l’automatisation poursuit ainsi le mouvement néo-libéral de sape du service public mais aussi de précarisation et de déqualification d’une partie de la fonction publique, victime d’une atomisation croissante et du démantèlement de ses capacités d’action collective.
Parmi les autres enjeux fréquemment éludés par la focale procédurale, on pourrait encore évoquer le coût écologique engendré par le processus d’automatisation (l’un des arguments opposés par les abonnés Enedis à l’automatisation des relevés de leur consommation électrique via les compteurs connectés), la privatisation de l’expertise et l’affaiblissement des compétences des agents publics dès lors que les algorithmes sont le plus souvent conçus par des prestataires externes (ce dont ont pu se plaindre des syndicats policiers opposés à des partenariats avec des entreprises spécialisées dans des technologies de surveillance20« Réaction du SDPM à l’interdiction par la CNIL de l’application Reporty à Nice ». Syndicat de Défense des Policiers Municipaux (mars 2018). http://www.sdpm.net/2018/03/reaction-du-sdpm-a-l-interdiction-par-la-cnil-de-l-application-reporty-a-nice.html.), l’incapacité fréquemment constatée des grands chantiers de dématérialisation et d’automatisation à atteindre l’objectif de « simplification » et leurs effets bien réels sur l’aggravation des ingéalités21Deville, Clara. 2018. « Les chemins du droit : Ethnographie des parcours d’accès au RSA en milieu rural ». Gouvernement et action publique, 7(3): 83‑112. Voir aussi : Vallipuram, Taoufik. 29 décembre 2019. « Non, il ne faut pas combattre la fracture numérique ». Libération. https://www.liberation.fr/debats/2019/12/29/non-il-ne-faut-pas-combattre-la-fracture-numerique_1771308/, Charrel, Marie et Chaffin, 2021. Art. cit. et Brygo, Julien. 2019. « Peut-on encore vivre sans Internet ? » Le Monde diplomatique. https://www.monde-diplomatique.fr/2019/08/BRYGO/60129., ou encore la légitimité des revendications de celles et ceux qui refusent de répondre aux multiples injonctions technologiques et souhaitent continuer à bénéficier des services publics au travers de guichets physiques, peuplés d’humains en chair et en os22d’Allens, Gaspard, et Alain Pitton. 3 février 2020. « Des humains plutôt que des machines : usagers et cheminots contestent la numérisation des gares ». Reporterre, le quotidien de l’écologie. https://reporterre.net/Des-humains-plutot-que-des-machines-usagers-et-cheminots-contestent-la-numerisation-des..
Si l’automatisation bureaucratique aggrave les tendances totalitaires de la domination bureaucratique, et si la multiplication de procédures pour en contenir les effets délétères a fait la preuve de sa trop grande inefficacité, alors il est peut être temps d’en tirer les conséquences. Sans forcément renoncer à dépasser l’antagonisme entre bureaucratie et démocratie23Pour des pistes de réflexion, voir par exemple : Bourgault, Sophie. 2017. « Prolegomena to a Caring Bureaucracy ». The European journal of women’s studies 24(3): 202‑17., il s’agirait alors de nous en tenir à un principe de précaution en joignant nos voix à celles et ceux qui, en différents endroits du monde social, disent haut et fort leur refus d’un « État digital » et du projet technocratique dont il procède.
Voir par exemple : Algan, Yann et Cazenave, Thomas, 2016. L’Etat en mode start-up. Paris : Eyrolles. Bertholet, Clément et Létourneau, Laura, 2017. Ubérisons l’État ! Avant que d’autres ne s’en chargent. Malakoff : Armand Colin. Pezziardi, Pierre et Verdier, Henri, 2017. Des startups d’État à l’État plateforme. CreateSpace Independent Publishing Platform.
Près de 10 millions de résidents français ne bénéficient toutefois pas d’accès à Internet (soit parce qu’ils ne disposent pas d’abonnement, soit qu’il ne disposent pas d’équipements adéquats). Voir le baromètre du numérique réalisé par l’Arcep, juillet 2021, p. 308 : https://www.arcep.fr/uploads/tx_gspublication/rapport-barometre-numerique-edition-2021-infographie.pdf. Trois français sur dix s’estiment incompétent pour réaliser des démarches administratives en ligne. Charrel, Marie, et Zeliha Chaffin. 7 septembre 2021. « Illectronisme : les laissés-pour-compte du tout-numérique ». Le Monde. https://www.lemonde.fr/economie/article/2021/09/07/illectronisme-les-laisses-pour-compte-du-tout-numerique_6093657_3234.html.
Sur la notion d’« assemblage algorithmique », voir Ananny, Mike, et Kate Crawford. 2018. « Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability ». New Media & Society 20(3): 973‑89.
Renn, Ortwin, Andreas Klinke, et Marjolein van Asselt. 2011. « Coping with Complexity, Uncertainty and Ambiguity in Risk Governance: A Synthesis ». AMBIO 40(2): 231‑46. Budish, Ryan. 2020. « AI & the European Commission’s Risky Business ». Berkman Klein Center for Internet and Society. https://medium.com/berkman-klein-center/ai-the-european-commissions-risky-business-a6b84f3acee0.
Mitchell, Timothy. 2018. « Les limites de l’État : Au-delà des approches étatistes et de leurs critiques ». In Etat et société politique : Approches sociologiques et philosophiques, éd. Bruno Karsenti et Dominique Linhardt. Paris: Editions de l’Ecole des Hautes Etudes en Sciences Sociales, p. 372.
Voir par exemple : Dubois, Vincent. 2013. « Le rôle des street-level bureaucrats dans la conduite de l’action publique en France ». In La France et ses administrations. Un état des savoirs, éd. Jean-Michel Eymeri–Douzans et Geert Bouckaert. Bruxelles: Bruylant, 169‑77
Snellen, Ignace. 2002. « Electronic Governance: Implications for Citizens, Politicians and Public Servants ». International Review of Administrative Sciences 68(2): 183‑98. Buffat, Aurélien. 2015. « Street-Level Bureaucracy and e-Government ». Public Management Review 17(1): 149‑61.
On retrouve ce parti pris dans la doctrine juridique. Voir par exemple Michoud, Léon. 1914. « Étude sur le pouvoir discrétionnaire de l’administration », Rev. gén. adm., sept.-déc. 1914, p. 11 : « En théorie, il n’existe qu’une seule solution exacte ; toute autre repose sur une erreur d’appréciation. Il s’agit seulement de dégager la véritable règle de droit et de l’appliquer à un fait. La divergence possible des solutions a pour cause unique l’insuffisance, l’incertitude des jugements humains ».
Galison, Peter. 1994. « The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision ». Critical Inquiry 21(1): 228‑66. Voir aussi : Bruno, Fernanda, Maurício Lissovsky, et Icaro Ferraz Vidal Junior. 2018. « Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité ». Reseaux n° 211(5): 105‑35.
Desbois, Dominique. 2019. « Drague fiscale sur les réseaux sociaux : de nouveaux algorithmes d’apprentissage pour traquer la fraude ». Terminal. Technologie de l’information, culture & société. https://hal.archives-ouvertes.fr/hal-02406386. Marzolf, Émile. 2021. « L’intelligence artificielle se fait lentement sa place dans la lutte contre la fraude fiscale ». Acteurs Publics. https://www.acteurspublics.fr/articles/lintelligence-artificielle-se-fait-lentement-sa-place-dans-la-lutte-conte-la-fraude-fiscale.
Cité dans Delaunay, Matthieu. 4 mai 2021. Du « Consulting for good » aux potagers corses. Club de Mediapart. https://blogs.mediapart.fr/delaunay-matthieu/blog/050421/du-consulting-good-aux-potagers-corses.
« Réaction du SDPM à l’interdiction par la CNIL de l’application Reporty à Nice ». Syndicat de Défense des Policiers Municipaux (mars 2018). http://www.sdpm.net/2018/03/reaction-du-sdpm-a-l-interdiction-par-la-cnil-de-l-application-reporty-a-nice.html.
Deville, Clara. 2018. « Les chemins du droit : Ethnographie des parcours d’accès au RSA en milieu rural ». Gouvernement et action publique, 7(3): 83‑112. Voir aussi : Vallipuram, Taoufik. 29 décembre 2019. « Non, il ne faut pas combattre la fracture numérique ». Libération. https://www.liberation.fr/debats/2019/12/29/non-il-ne-faut-pas-combattre-la-fracture-numerique_1771308/, Charrel, Marie et Chaffin, 2021. Art. cit. et Brygo, Julien. 2019. « Peut-on encore vivre sans Internet ? » Le Monde diplomatique. https://www.monde-diplomatique.fr/2019/08/BRYGO/60129.
d’Allens, Gaspard, et Alain Pitton. 3 février 2020. « Des humains plutôt que des machines : usagers et cheminots contestent la numérisation des gares ». Reporterre, le quotidien de l’écologie. https://reporterre.net/Des-humains-plutot-que-des-machines-usagers-et-cheminots-contestent-la-numerisation-des.
Pour des pistes de réflexion, voir par exemple : Bourgault, Sophie. 2017. « Prolegomena to a Caring Bureaucracy ». The European journal of women’s studies 24(3): 202‑17.
";s:7:"dateiso";s:15:"20220218_103238";}s:15:"20220216_162229";a:7:{s:5:"title";s:43:"Pourquoi il faut soutenir Nantes Révoltée";s:4:"link";s:82:"https://www.laquadrature.net/2022/02/16/pourquoi-il-faut-soutenir-nantes-revoltee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18422";s:7:"pubDate";s:31:"Wed, 16 Feb 2022 15:22:29 +0000";s:11:"description";s:230:"Gérald Darmanin a annoncé il y a trois semaines sa volonté de dissoudre le collectif « Nantes Révoltée ». Selon lui, cette attaque serait justifiée par des appels, sur le site du collectif, à se rendre à…";s:7:"content";s:12598:"
Gérald Darmanin a annoncé il y a trois semaines sa volonté de dissoudre le collectif « Nantes Révoltée ». Selon lui, cette attaque serait justifiée par des appels, sur le site du collectif, à se rendre à une manifestation anti-autoritaire pendant laquelle deux vitrines de boutiques ont été dégradées. Nous apportons notre soutien à Nantes Révoltée et dénonçons la façon dont le mécanisme de dissolution d’association est détourné de sa fonction historique afin de faire disparaître du débat démocratique les oppositions de gauche considérées trop fortes, trop franches, trop radicales.
Des valeurs renversées
Le cadre juridique de la dissolution d’association a été posé en 1936 pour combattre les milices privées d’extrême-droite qui venaient d’échouer à renverser la IIIème République lors des émeutes du 6 février 1934. Telle qu’elle l’a toujours fait, la République française s’est donnée les moyens de vaincre ceux, monarchistes comme fascistes, qui militent explicitement pour sa disparition. Jusqu’à aujourd’hui, le gouvernement a continué de dissoudre divers groupes monarchistes et fascistes dont la violence défrayait la chronique.
Hélas, au fil des années, le gouvernement a dévoyé cette tradition pour dissoudre de plus en plus d’associations dont l’activité ne visait ni à rétablir la monarchie ni à glorifier des dictatures fascistes. La dissolution d’association s’est de plus en plus tournée contre des groupes qui ne cherchaient pas à détruire les aspects démocratiques de la République, mais qui se contentaient de rejeter des valeurs morales (religieuses, sexuelles, économiques, familiales) imposées par la classe politique dominante.
Si les groupes d’extrême-droite font toujours l’objet de dissolutions fréquentes, la lumière est volontairement mise depuis une dizaine d’années sur les associations liées à la religion musulmane comme le Collectif contre l’islamophobie en France (CCCIF, auquel nous apportions notre soutien l’année dernière) ou la Coordination contre le Racisme et l’Islamophobie, au soutien d’une politique anti-musulmans de moins en moins cachée.
Dans ces deux derniers cas, les décrets de dissolutions parlent d’eux-même : il n’est pas reproché aux deux associations de fomenter un coup d’État ni même d’organiser l’indépendance d’un territoire sécessionniste. Il leur est simplement reproché de « dénoncer la partialité des forces de l’ordre, de la municipalité et des magistrats présentés comme islamophobe » ou de diffuser « un message incitant à percevoir les institutions françaises comme islamophobes ». Même les personnes qui refusent de considérer que l’État français poursuit des politiques islamophobes doivent bien admettre une chose : lutter contre le racisme d’État n’implique pas de détruire la République.
Une responsabilité indirecte
Un autre dévoiement pris pour dissoudre ces organisations vise à imputer des faits de personnes tierces pour présumer d’une action répréhensible de l’association et la rendre responsable. Par exemple, l’absence de « condamnation ni de modération ou de suppression » de commentaires Facebook sous des publications, de la part des responsables de l’association, « doivent ainsi être regardés comme les cautionnant ». Les décisions du Conseil d’État n’ont pas remis en question une telle approche, celui-ci ayant validé comme motif de dissolution du CCIF l’absence de modération des réactions sur leurs réseaux sociaux.
Pour mesurer l’absurdité d’une telle approche, il suffit d’imaginer l’appliquer à d’autres institutions. Le ministre de l’Intérieur compte-t-il dissoudre la police et l’ armée lorsqu’elles refusent de se désolidariser des si nombreux commentaires racistes et antirépublicains qui accompagnent son action, parfois en son propre sein ?
Probablement pas. D’ailleurs, cette présence au sein de ces institutions montre que les conséquences soit-disant positives qu’auraient les dissolutions de groupe d’extrême droite sont largement illusoires, tant le contexte politique leur est favorable. Pour dissoudre des associations, le droit prévoit des motifs suffisamment larges pour laisser une marge d’appréciation presque totale à l’administration pour choisir ses adversaires, tel que le fait d’avoir pour but d’« attenter par la force à la forme républicaine du Gouvernement ».
Ces objectifs peuvent ainsi facilement s’insérer dans un phénomène plus large, poussé par Emmanuel Macron et son gouvernement, consistant à envisager la participation à la société de manière nécessairement clivée : soit on « adhère » aux valeurs morales de la classe dirigeante, soit tout mouvement de lutte, de contestation ou de révolte contre le modèle imposé par ces valeurs sera considéré comme une violence qui nécessite d’être écartée ou supprimée. Les « valeurs de la République » sont devenues les valeurs morales de la classe qui dirige la République.
Cette définition de la « République », pourtant synonyme de démocratie et d’égalité dans la tradition politique française, est ainsi de plus en plus détournée par les gouvernements successifs pour délégitimer les contre-discours populaires, véhéments ou radicaux, qui cherchent pourtant souvent à promouvoir ces valeurs de démocratie et d’égalité.
Le « contrat d’engagement républicain » mis en place en début d’année en application de la loi dite « Séparatisme » symbolise le parachèvement de cette logique. Désormais, toute association recevant des subventions publiques doit formellement s’engager à « respecter les principes de liberté, d’égalité, de fraternité et de dignité de la personne humaine, ainsi que les symboles de la République » ou encore à « s’abstenir de toute action portant atteinte à l’ordre public. » Cette fois-ci, l’« adhésion » est donc très concrète : il s’agit d’un contrat que l’on signe ou non. Parmi les engagements énoncés, on trouve ainsi celui du « respect des lois de la République », les associations ne devant « ni entreprendre ni inciter à aucune action manifestement contraire à la loi, violente ou susceptible d’entraîner des troubles graves à l’ordre public ». Au nom de la « fraternité et du civisme », les associations doivent également, dans leur fonctionnement interne comme dans leurs rapports avec les tiers, « ne pas provoquer à la haine ou à la violence envers quiconque et à ne pas cautionner de tels agissements. ». Une association pourra perdre ses financements pour des faits commis par des personnes de plus en plus nombreuses, indirectes et lointaines du cœur de son activité : « ses dirigeants, ses salariés, ses membres ou ses bénévoles ».
Des effets anti-démocratiques
Dans un contresens historique total, on peut redouter que, au nom de la défense de la République, une association serait sanctionnée du seul fait qu’une personne dans son entourage ait exprimé un mépris trop important contre des militants monarchistes ou fascistes dont l’ambition assumée est pourtant de détruire la République. Dans le même ordre d’idée, lors de la manifestation couverte par Nantes Révoltée, dégrader une vitre pour dénoncer la participation de Zara au crime contre l’humanité perpétré contre les Ouïghours a semblé constituer un acte d’une violence inadmissible en démocratie qui justifierait de dissoudre le média libre. Les « valeurs de la République » sont-elles si dévoyées qu’elles protègent désormais les esclavagistes ?
On se retrouve face à une inversion totale des intérêts et personne à défendre et on perçoit la même logique que dans les mécanismes de dissolution : utiliser un lien indirect interprété de manière partiale pour délégitimer une source de critiques trop radicale et la transformer en « ennemi de la République ».
Ce n’est pas la première fois que l’État franchit la frontière faisant passer la liberté d’expression et d’information en un délit de radicalité quand il s’agit de mouvements de gauche. En 2017, utilisant le système de censure administrative des sites faisant l’apologie du terrorisme, le site internet collaboratif Indymedia s’était vu enjoindre , sous peine de blocage, de retirer un texte revendiquant l’incendie d’un commissariat. Finalement annulé par la justice un an et demi plus tard, cet exemple de censure est une démonstration limpide des abus que permet l’attribution toujours plus importante d’un pouvoir d’appréciation et de contrôle trop large à l’administration, classiquement dévolu à un juge.
Cette dynamique ne cesse de s’aggraver. Aujourd’hui, ce sont les outils judiciaires de la lutte antiterroriste et les procédures pénales qui sont utilisés abusivement dans un but de répression et d’intimidation. Qu’il s’agisse de l’incrimination d’« association de malfaiteurs » vis-à-vis de militants engagés au Rojava ou d’autres suspectés de dégradation d’infrastructure de télécommunication, ou bien les plaintes et perquisitions visant les médias relayant des soutiens à ce type d’action, l’arsenal répressif laissé à la police permet de poursuivre de façon arbitraire et brutale tout type de contestation trop radicale.
Nous avons toujours contesté les pouvoirs de censure confiés à la police et à l’administration et condamnons aujourd’hui fermement le dangereux mouvement d’intimidation du monde associatif auquel nous assistons. Cet élargissement incontrôlé des pratiques de dissolution s’est tant banalisé que le fait que le ministre de l’Intérieur souhaite ouvertement faire taire des discours de gauche radicale ne suscite que peu d’émotions. C’est pourquoi nous apportons un soutien plein et entier à Nantes Révoltée et vous invitons à signer la pétition s’opposant à leur disparition.
";s:7:"dateiso";s:15:"20220216_162229";}s:15:"20220215_164805";a:7:{s:5:"title";s:66:"Données de connexion : recours devant le Conseil constitutionnel";s:4:"link";s:103:"https://www.laquadrature.net/2022/02/15/donnees-de-connexion-recours-devant-le-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18412";s:7:"pubDate";s:31:"Tue, 15 Feb 2022 15:48:05 +0000";s:11:"description";s:283:"Ce matin, La Quadrature du Net était, aux côtés de Franciliens.net devant le Conseil constitutionnel au soutien (voir nos premières puis secondes observations) d’une question prioritaire de constitutionnalité (QPC) contre l’obligation faite aux opérateurs de…";s:7:"content";s:5501:"
Ce matin, La Quadrature du Net était, aux côtés de Franciliens.net devant le Conseil constitutionnel au soutien (voir nos premières puis secondes observations) d’une question prioritaire de constitutionnalité (QPC) contre l’obligation faite aux opérateurs de télécommunication de conserver pendant un an les données de connexion (ce qui entoure une communication). Cette obligation généralisée et indifférenciée est la pierre angulaire de la surveillance policière numérique, de même que le socle de la « riposte graduée » de l’Arcom (anciennement Hadopi). La Cour de justice de l’Union européenne (CJUE) avait estimé en 2020 que ce régime de surveillance est contraire aux droits fondamentaux : nous avons donc appelé aujourd’hui le Conseil constitutionnel à censurer ces dispositions législatives.
Sept ans après le premier recours de La Quadrature, French Data Network, FFDN et igwan.net, cette histoire commence à dater… En France, les opérateurs de communication (dont les fournisseurs d’accès à Internet) doivent, en application de l’article L. 34-1 du code des postes et des communications électroniques (CPCE), conserver de façon généralisée et indifférenciée les données de connexion de leurs utilisateur·rices pendant un an. Il s’agit tout simplement de la suppression de l’anonymat sur Internet et dans la rue : pendant un an après une communication, la police ou une autorité administrative (comme l’Arcom) peuvent savoir qui a écrit un message, ou bien géolocaliser rétrospectivement votre téléphone. Les abus de ces pouvoirs sont régulièrement documentés : dernièrement, la presse nous apprenait que la traque des acheteur·euses (et non des vendeur·euses) de faux passes sanitaires passait notamment par une analyse de la géolocalisation téléphonique des personnes, c’est-à-dire grâce à cette obligation de conservation des données de connexion.
En octobre 2020, la CJUE disait stop à cette surveillance de masse : elle estimait que le droit français contrevenait au droit à la vie privée, au droit à la protection des données personnelles et au droit à la liberté d’expression en prévoyant une surveillance aussi large. Cela n’a pas empêcher au Conseil d’État de valider le système français de surveillance en avril dernier, réinterprétant de la manière qui l’arrangeait l’arrêt de la CJUE et exposant la France à une condamnation par l’UE en raison de ce Frexit sécuritaire.
Aujourd’hui, c’est au tour du Conseil constitutionnel de devoir se prononcer sur ce régime de surveillance. Il a entre ses mains le devenir de la France dans l’UE : quelle crédibilité accorder à une France qui reproche à la Pologne ou la Hongrie de s’asseoir sur le droit européen mais qui elle-même n’hésite pas à contourner le juge de l’UE lorsque cela l’arrange ? Alors que la Belgique a, elle, appliqué la décision de la CJUE et censuré son régime de surveillance, que l’Allemagne a annoncé l’abandon de son régime de conservation des données de connexion, la France persiste dans sa position sécuritaire au détriment de l’État de droit. Le Conseil constitutionnel ne doit pas se défiler et a la responsabilité de mettre le holà à la dérive française. La décision sera rendue le 25 février prochain.
La France s’entête à vouloir donner à sa police tous les moyens pour user et abuser de surveillance des télécommunications. Pendant ce temps, l’État de droit accuse le coup : rien ne semble vouloir arrêter ce gouvernement qui, en cinq ans, n’a fait qu’accentuer la surveillance, sur Internet et au-delà. Alors pour nous permettre malgré tout de continuer cette lutte, nous avons toujours autant besoin de votre aide.
";s:7:"dateiso";s:15:"20220215_164805";}s:15:"20220208_151426";a:7:{s:5:"title";s:63:"Les députés doivent refuser la censure sans juge en une heure";s:4:"link";s:102:"https://www.laquadrature.net/2022/02/08/les-deputes-doivent-refuser-la-censure-sans-juge-en-une-heure/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18396";s:7:"pubDate";s:31:"Tue, 08 Feb 2022 14:14:26 +0000";s:11:"description";s:250:"Demain, mercredi 9 février, la commission des lois de l’Assemblée nationale discutera de la proposition de loi concernant la « diffusion de contenus à caractère terroriste en ligne », introduisant en droit français le…";s:7:"content";s:6974:"
Demain, mercredi 9 février, la commission des lois de l’Assemblée nationale discutera de la proposition de loi concernant la « diffusion de contenus à caractère terroriste en ligne », introduisant en droit français le règlement européen de censure terroriste. La Quadrature du Net a envoyé aux membres de cette commission la lettre reproduite ci-dessous pour appeler au rejet de ce texte.
Lettre aux députés : Rejetez la loi censure antiterroriste
Mesdames, Messieurs les député·es,
Membres de la commission constitutionnelle, de la législation et de l’administration générale de la République,
Vous examinerez mercredi prochain la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne.
Ce texte vise à introduire dans le droit français les dispositions du règlement 2021/784 de censure antiterroriste. Ce règlement, très débattu et contesté au niveau européen, crée de graves dangers pour la liberté d’expression et d’information en ligne. Surtout, les mesures qu’il introduit s’opposent frontalement à la décision du Conseil constitutionnel du 18 juin 2020 ayant largement censuré la loi visant à lutter contre les contenus haineux sur Internet telle que proposée par la députée Laetitia Avia.
La Quadrature du Net vous appelle donc à rejeter ce texte.
Un texte contraire à la décision du 18 juin 2020 du Conseil constitutionnel
En effet, dans sa décision du 18 juin 2020, le juge constitutionnel a expressément censuré une disposition identique à celle constituant le cœur de la proposition de loi dont vous allez débattre : le pouvoir confié à l’autorité administrative d’ordonner à toute plateforme en ligne le retrait ou le blocage en une heure d’un contenu que cette autorité aurait qualifié de terroriste, sans le contrôle préalable d’un juge.
Pour le Conseil constitutionnel, cette obligation de retrait portait une atteinte disproportionnée à la liberté d’expression et de communication, pour deux raisons : la détermination du caractère illicite des contenus était soumise à la seule appréciation de l’administration et la contestation de cette décision devant un tribunal n’avait pas d’effet suspensif, alors même qu’aucun tribunal ne saurait se prononcer en moins d’une heure. Aucune garantie n’empêchait qu’une décision illégale de l’administration n’entraîne la censure de propos légitimes, en totale violation des principes les plus élémentaires de séparation des pouvoirs.
Or, la proposition de loi qui fera l’objet de la discussion en commission reprend exactement le même mécanisme puisqu’elle permet à l’autorité administrative d’émettre des injonctions de retrait de contenus en une heure à destination de « fournisseurs de contenus et hébergement » sous peine d’être sanctionné d’une amende et sans recours suspensif.
Voté en l’état, le texte serait donc clairement contraire à la Constitution. Une telle analyse est d’ailleurs partagée dans son rapport d’activité 2020 par la personnalité qualifiée de la CNIL, c’est à dire l’autorité actuellement chargée de contrôler la censure administrative des sites internet et dont le pouvoir serait désormais confié à l’ARCOM.
Une disposition régulièrement dénoncée par organisations et institutions
Les dangers du règlement ont été régulièrement dénoncés par de nombreuses organisations et institutions. 61 organisations européennes et 11 organisations françaises avaient d’ailleurs demandé son rejet au regard des risques qu’il posait.
D’une part, l’obligation de retrait aura pour effet de motiver les acteurs du Web à censurer en amont tout contenu potentiellement illicite, et ce en adoptant une définition la plus large possible du terrorisme pour ne pas recevoir des ordres de retraits impossibles à satisfaire en pratique. Cette proposition de loi donne d’ailleurs à l’ARCOM la possibilité d’imposer à ces fournisseurs des « mesures techniques » pouvant correspondre à des filtres automatisés, pour respecter cette obligation de retrait en une heure. En pratique, un tel délai et de tels filtres automatisées ne pourront être gérés que par des acteurs géants comme Facebook, Google et Amazon, auxquels le reste du Web deviendra encore plus dépendant
D’autre part, le texte renforce la censure administrative confiée à la police, en l’occurrence l’OCLCTIC, alors que toute demande de retrait d’un contenu ne devrait être émise que par un juge, seul garant de la liberté d’expression. Des exemples concrets ont démontré ces dernières années les abus auxquels pouvaient aboutir cette censure illégale et non contrôlée, comme par exemple la censure d’un site militant sous couvert d’une interprétation abusive de la notion de terrorisme, finalement annulée par un juge administratif un an et demi après les faits.
En conclusion, l’adoption telle quelle de la proposition de loi aurait non seulement de graves conséquence pour la liberté d’expression en ligne, mais aussi pour la confiance dans les institutions. Voter ce texte signifierait expressément que le Parlement refuse le rôle du Conseil constitutionnel et viole en connaissance de cause les garde-fous qu’il érige pour la protection de nos droits et libertés.
Nous vous invitons à ne pas céder à cette négation de l’État de droit et à rejeter ce texte en votant contre l’article unique de cette proposition de loi.
";s:7:"dateiso";s:15:"20220208_151426";}s:15:"20220203_154514";a:7:{s:5:"title";s:59:"Emmanuel Macron, cinq années de surveillance et de censure";s:4:"link";s:98:"https://www.laquadrature.net/2022/02/03/emmanuel-macron-cinq-annees-de-surveillance-et-de-censure/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18369";s:7:"pubDate";s:31:"Thu, 03 Feb 2022 14:45:14 +0000";s:11:"description";s:288:"A l’approche de l’élection présidentielle, nous revenons sur le bilan en matière de surveillance et de censure d’Emmanuel Macron, de son gouvernement et de sa majorité à l’Assemblée nationale.
Détailler le nombre impressionnant de textes législatifs…";s:7:"content";s:31124:"
A l’approche de l’élection présidentielle, nous revenons sur le bilan en matière de surveillance et de censure d’Emmanuel Macron, de son gouvernement et de sa majorité à l’Assemblée nationale.
Détailler le nombre impressionnant de textes législatifs ou réglementaires qui leurs sont dus et qui ont accentué la censure et la surveillance est un exercice sinistre. Il est néanmoins révélateur du monde fantasmé par les personnes au pouvoir et dans lequel elles veulent nous précipiter : un État et une police tout-puissants, ivres du pouvoir que leur promettent les nouvelles technologies, se plaçant au-dessus de la justice et de la contestation populaire et travaillant main dans la main avec une poignée d’entreprises sécuritaires pour surveiller et censurer tout et tout le temps.
En cinq ans, Emmanuel Macron, aussi bien par sa propre action que par celle de son gouvernement, ou par la domination qu’il aura exercée sur une majorité parlementaire entièrement dévouée, aura directement contribué au basculement, toujours plus rapide, toujours plus profond, vers une société sécuritaire reposant sur la surveillance et la censure, qu’elle soit d’origine étatique ou privée, les deux étant ici souvent mêlées.
S’il leur reste encore quelques mois pour empirer une situation déjà bien inquiétante, il est possible de dresser dès maintenant un bilan de ses actions. Celui-ci est évidemment loin d’être exhaustif. Premièrement, car il se limite aux sujets sur lesquels La Quadrature du Net a pu travailler ces cinq dernières années et qui sont liés à son objet social : la défense des libertés dans l’environnement numérique. Deuxièmement, car, même limité au front numérique, l’extension de ce sujet dans chaque recoin de nos vies rend la veille difficile.
Le bilan d’Emmanuel Macron est néanmoins particulièrement lourd : extension des pouvoirs des services de renseignement, nouveaux fichiers de police et bases de données massives, accélération du pouvoir de censure de l’administration, partenariats multiples avec des entreprises sécuritaires pour démultiplier la surveillance sur Internet ou dans nos rues, utilisation massive de la reconnaissance faciale policière…
Précisions que si cet effondrement démocratique est le fait du gouvernement actuel, il ne doit pas en porter seul la responsabilité : cette orientation a été initiée par Nicolas Sarkozy dans les années 2000 avant d’être déployée à grande échelle par François Hollande. Toutes ces dérives n’auraient pas pu se déchaîner aussi facilement si l’extrême-droite n’avait pas imposé ses obsessions d’exclusion et de violence dans le débat public et si tant d’élu·es de gauche n’avaient pas échoué à défendre un contre-modèle à la Technopolice dans leur ville et leur région.
2017
14 mai 2017 : Emmanuel Macron commence son mandat de président de la République française ;
22 septembre 2017 : invoquant une provocation au terrorisme, le ministère de l’Intérieur ordonne directement aux sites Indymedia Nantes et Grenoble le retrait d’un communiqué anti-autoritaire publié sur leur site sous peine de blocage par les fournisseurs d’accès à Internet (notre article ici). Le tribunal administratif de Cergy-Pontoise donnera finalement raison aux deux sites en janvier 2019 ;
30 octobre 2017 : promulgation de la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme ». Le texte intègre dans le droit commun plusieurs mesures de l’état d’urgence décidé depuis 2015 tout en prolongeant la durée de vie des « boîtes noires » de surveillance des télécommunications, ces sondes algorithmiques créées en 2015 pour surveiller automatiquement l’ensemble d’un réseau de télécommunications ;
14 novembre 2017 : le gouvernement annonce avoir déployé une première « boîte noire » permettant la surveillance de masse des télécommunications (voir notre réaction).
2018
9 mars 2018 : promulgation de la loi relative à l’orientation et à la réussite des étudiants (ORE), qui instaure une sélection de fait à l’entrée des études supérieures, et autorise les établissements supérieurs à recourir à des algorithmes pour trier les candidatures. Suite à une QPC de l’UNEF a laquelle La Quadrature s’est jointe, le Conseil constitutionnel a réinterprété en 2020 la loi pour mettre partiellement fin à l’opacité de ces algorithmes de tri (lire notre réaction) ;
13 juillet 2018 : promulgation de la loi sur la « programmation militaire » (voir notre réaction ici). L’agence de cybersécurité du gouvernement (l’ANSSI) gagne de nouveaux pouvoirs de surveillance en pouvant ordonner à un hébergeur ou un fournisseur d’accès à Internet de poser sur le réseau des sondes lui permettant d’analyser tout le trafic pour détecter des attaques informatiques – la suite directe des boîtes noires instituées par la loi Renseignement de 2015. En février 2019, nous attaquons le décret d’application de cette loi devant le Conseil d’État (recours rejeté fin 2021) ;
5 septembre 2018 : promulgation de la loi « pour la liberté de choisir son avenir professionnel ». Son article 58 permet une expérimentation obligeant toute personne en recherche d’emploi à déclarer en ligne à Pôle Emploi «l’état d’avancement de leur recherche d’emploi» (sous peine de perdre le bénéfice de ses allocations). On analyse ici les risques de contrôle social qui résultent d’une telle expérimentation ;
11 septembre 2018 : promulgation de la « loi Collomb » relative à l’immigration, qui instaure un fichage forcé des empreintes digitales et des photos des migrant·es mineur·es non-accompagné·es. Suite à une QPC d’associations d’aide aux personnes migrantes, à laquelle La Quadrature s’est jointe, le Conseil constitutionnel a validé ce fichage massif en 2019 ;
22 novembre 2018 : création du « Comité Stratégique de Filière Industries de sécurité » qui réunit, sous la présidence de Marc Darmon, vice-président de Thalès et en coopération avec l’État, l’ensemble des sociétés sécuritaires françaises ;
22 décembre 2018 : promulgation de la loi « fake news » (ou « relative à la manipulation de l’information »). En plus d’obligations générales de transparence pour certaines grandes plateformes, la loi crée une procédure d’urgence pour faire cesser une « fausse information » dans les trois mois précédant un scrutin national.
2019
14 janvier 2019 : le ministère de l’intérieur, via l’office central de la lutte contre la criminalité informatique, exerce une censure et demande le retrait sur Internet d’une image caricaturant Emmanuel Macron en général Pinochet ;
21 janvier 2019 : le jour même où la CNIL sanctionne Google à hauteur de 50 millions d’euros à la suite d’une plainte collective portée par LQDN, le gouvernement fait la promotion de l’entreprise sur les réseaux sociaux ;
26 mars 2019 : adoption au Parlement européen de la directive Copyright (voir notre réaction ici). Emmanuel Macron se félicite sur Twitter de l’adoption de ce texte qui légitime les outils de filtrage et de censure automatisés mise en place par les grandes plateformes Internet pour « protéger » le droit d’auteur ;
13 mai 2019 : publication du décret « Alicem » qui autorise un dispositif d’identité numérique conditionnée à une reconnaissance faciale obligatoire, malgré l’avis négatif de la Cnil (notre article ici). Nous attaquons ce décret devant le Conseil d’État mais perdons le contentieux un an plus tard ;
24 juillet 2019 : promulgation de la loi sur la « transformation du système de santé » qui autorise le lancement du « Health Data Hub ». Il s’agit d’une plateforme visant à centraliser l’ensemble des données de santé de la population française pour faciliter leur utilisation à des fins de recherche, via l’utilisation massive d’algorithmes (voir notre article d’analyse) ;
24 octobre 2019 : Emmanuel Macron nomme Thierry Breton pour devenir commissaire à la Commission européenne Ancien PDG de la société Atos (société qui a une grande expérience dans la surveillance biométrique aux frontières, ancienne maison mère d’Amesys), il sera en charge de pousser notamment en Europe la vision française de l’intelligence artificielle à travers plusieurs textes, notamment le règlement sur l’intelligence artificielle et le « Digital Services Act » ;
28 décembre 2019 : publication de la loi de finances 2020 (voir notre article ici). Cette loi, validée par le Conseil constitutionnel, autorise l’administration fiscale et les douanes à surveiller les réseaux sociaux pour y collecter les informations et ensuite les faire analyser par leurs algorithmes.
2020
30 janvier 2020 : signature d’un partenariat entre l’État et les principales entreprises sécuritaires françaises pour notamment financer la surveillance des prochains Jeux Olympiques de Paris en 2024 ;
20 février 2020 : publication du décret « Gendnotes » (notre article ici). Ce décret autorise la police à utiliser une application mobile facilitant la collecte de photos et d’informations sensibles et leurs transferts vers des fichiers extérieurs (comme le TAJ, qui permet la reconnaissance faciale). Avec d’autres associations, nous attaquons ce texte et gagnons partiellement devant le Conseil d’État qui interdit le transfert des informations vers d’autres fichiers (notre réaction ici) ;
29 mars 2020 : publication du décret DataJust, qui autorise le ministère de la justice à collecter les données personnelles issues de décisions de justice, pour développer un obscur algorithme de justice prédictive. Nous avons attaqué le décret mais le Conseil d’État a rejeté notre recours fin 2021. Début 2022, le ministère annonçait toutefois l’abandon du projet ;
1er avril 2020 : déjà utilisés sur plusieurs manifestations, la police nationale déploie en toute illégalité des drones sur tout le territoire pour surveiller le respect du confinement. Nous réussissons à faire condamner la préfecture de Paris deux fois par le Conseil d’État, avant que la CNIL puis le Conseil Constitutionnel viennent interdire leur utilisation au gouvernement. Les drones reviendront néanmoins dans un nouveau texte en 2022 (voir notre article sur le sujet) ;
9 avril 2020 : le ministère de l’Intérieur décide l’extension du décret de « système de contrôle automatisé » (ou ADOC pour « accès au dossier des contraventions). Permettant à l’origine la conservation des informations relatives aux délits routiers, le ministère de l’intérieur vient légaliser a posteriori l’extension de ce fichier à toutes les infractions réprimées par une amende forfaitaire avec une conservation étendue entre 5 et 10 ans. Nous avons attaqué cette extension devant le Conseil d’État (qui nous a rejeté fin 2021) ;
11 mai 2020 : promulgation de la loi « prorogeant l’état d’urgence sanitaire et complétant ses dispositions ». Ce texte accentue la surveillance sanitaire et permet au gouvernement de mettre en place un système de recensement et de traçage des personnes contaminées, à travers deux fichiers, le fichier SIDEP et le fichier Contact Covid ;
29 mai 2020 : le gouvernement autorise par décret le lancement de l’application StopCovid visant à pister, grâce au Bluetooth des téléphones des personnes l’ayant installée, les personnes ayant été infectées par le Covid ou susceptibles de l’être. Nous envoyons aux parlementaires nos arguments pour rejeter ce projet dystopique (voir notre article) ;
24 juin 2020 : promulgation de la loi sur les contenus haineux sur Internet (dite « loi Avia »). Alors qu’au départ, la proposition de loi (fortement soutenue par le gouvernement) voulait notamment imposer la censure en 24 heures pour les contenus « haineux » et en une heure pour les contenus « terroristes » ainsi que déléguer de grands pouvoirs de régulation au CSA (voir notre résumé ici), le Conseil constitutionnel censure une très grande partie du texte pour n’en laisser que quelques dispositions mineures. Plusieurs dispositions se retrouveront néanmoins dans d’autres textes, le règlement européen de censure terroriste et la loi dite « Séparatisme » (voir ci-dessous) ;
6 juillet 2020 : nomination de Gérald Darmanin comme ministre de l’intérieur. Après avoir accentué la surveillance par l’administration fiscale lorsqu’il était ministre de l’action et des comptes publics, son arrivée à Beauvau marque un serrage de vis sécuritaire supplémentaire ;
30 juillet 2020 : promulgation de la loi « visant à protéger les victimes de violences conjugales » (voir notre article ici). Son article 22 (anciennement article 11) impose aux sites qui hébergent des contenus pornographiques de recourir à des dispositifs de vérification d’âge (et donc d’identification forcée) pour empêcher que les mineur·es y aient accès ;
13 octobre 2020 : un rapport du Sénat révèle qu’en 2019, la police a utilisé plus de 375 000 fois à des fins de reconnaissance faciale le fichier du « Traitement des antécédents à des fins judiciaires ». Nous attaquons ce fichier en août 2020 ;
16 novembre 2020 : le ministère de l’Intérieur publie le livre blanc de la sécurité intérieure. Ce document dévoile les velléités sécuritaires pour les prochaines années pour faire passer la surveillance et le contrôle de la population par la police à une nouvelle ère technologique (on en parle ici) ;
2 décembre 2020 : publication de 3 décrets qui étendent et aggravent les fichiers PASP, GIPASP et EASP (notre article ici). Ces fichiers facilitent le fichage massif des militantes et militants politiques et de leur entourage, en étendant cette surveillance aux réseaux sociaux, aux manifestations, et aux « opinions » politiques (non plus les seules « activités » politiques). Nous attaquons avec d’autres associations les textes en urgence devant le Conseil d’État et perdons une première bataille en janvier 2021. En décembre 2021, le Conseil d’État annule une partie de ces fichiers relative notamment aux opinions politiques ;
24 décembre 2020 : promulgation de la loi dite « petite loi Renseignement » (notre article ici). Le gouvernement fait passer en urgence une loi pour prolonger les expérimentations de plusieurs mesures sécuritaires adoptées en 2017 (mesures renforçant la sécurité intérieure et la lutte contre le terrorisme – fermetures des lieux de culte, perquisitions administratives…) et la prolongation de la surveillance des réseaux par algorithmes votées en 2015 (ou boîtes noires) ;
29 décembre 2020 : promulgation de la loi de finances pour l’année 2021. Au détour d’un amendement n’ayant fait l’objet d’aucun débat, il est donné aux agents chargés de la fraude à Pôle Emploi la possibilité d’obtenir près des banques, fournisseurs d’énergie, opérateurs de téléphonie toute information nécessaire pour détecter des « situations frauduleuses ». On parle ici de cette surveillance sociale ici.
2021
10 mars 2021 : publication du décret « Datakalab » qui autorise l’entreprise de surveillance Datakalab à déployer dans les transports en commun son logiciel de détection du port du masque. Un an auparavant, la Cnil avait pourtant critiqué le dispositif. Nous soulignons dans un article l’illégalité de ce texte que le ministre des transports a offert à la start-up (voir aussi l’article d’analyse co- écrit par un de nos membres) ;
mars-avril 2021 : dans le cadre de notre contentieux contre la surveillance de masse mise en place par les services de renseignement français, le gouvernement, mis au pied du mur par la Cour de l’Union européenne, demande au Conseil d’État de déroger au droit de l’Union européenne pour violer nos libertés fondamentales (on en parle ici) ;
29 avril 2021 : adoption au Parlement européen du règlement de censure antiterroriste (voir notre réaction ici). Avec ce texte, dont l’adoption a été précipitée par l’action du gouvernement français, l’ensemble des acteurs de l’Internet devront maintenant censurer en une heure un contenu qu’une autorité administrative (et non un juge) aura qualifié de « terroriste » sous peine de lourdes sanctions. Le Conseil constitutionnel avait pourtant censuré la même disposition dans sa décision sur la loi Avia un an auparavant ;
25 mai 2021 : promulgation de la loi « Sécurité globale ». Comme pour la loi Avia, le Conseil constitutionnel est venu censurer, à la suite d’un engagement et de la pression des militantes et militants, de nombreuses dispositions initialement prévues dans la proposition/projet de loi du gouvernement (voir notre article). Pas de drones ou d’hélicoptères de surveillance donc, mais une extension des pouvoirs de vidéosurveillance de la police, de la RATP/SNCF et la transmission en temps-réel des images des caméras-piétons de la police à un centre de commandement avec leur possible utilisation par des gardes-champêtres. Comme pour la loi Avia, plusieurs de ces dispositions reviendront rapidement dans d’autres textes ;
31 mai 2021 : promulgation de la loi « relative à la gestion de la sortie de crise sanitaire ». Ce texte, incarnant l’orientation autoritaire de la gestion de crise et le rejet de toute tentative de dialogue et de respect envers les personnes non-vaccinées met en place le passe sanitaire, qui sera officiellement lancé en juin 2021, puis étendu à de plus en plus de domaines par diverses réformes postérieures ;
30 juillet 2021 : promulgation de la loi relative à la prévention d’actes de terrorisme et au renseignement. En plus de pérenniser et d’étendre les dispositifs de « boîtes noires » de surveillance des télécommunications, le texte confirme, malgré un arrêt contradictoire de la Cour de Justice de l’Union européenne, l’obligation de conservation généralisée des données de connexion. Il autorise par ailleurs la surveillance des communications satellitaires, facilite les échanges entre services de renseignement entre eux et avec d’autres services de l’État et intensifie les obligations de coopération avec les opérateurs et fournisseurs de communications électroniques (voir un des nos articles ici) ;
5 août 2021 : promulgation de la loi étendant le passe sanitaire à de nombreuses activités quotidiennes ;
24 août 2021 : promulgation de la loi « séparatismes » (renommée loi « confortant le respect des principes de la République »). Parmi d’autres dispositions liberticides (notamment une version remaniée de l’article 24 de la loi « Sécurité Globale »), le texte donne de nouveaux pouvoirs à l’administration pour réguler les grandes plateformes et lutter contre les contenus dits « haineux » (voir notre article ici) ;
26 octobre 2021 : promulgation de la loi de lutte contre le piratage audiovisuel. Elle renforce les pouvoirs de l’administration (en fusionnant le CSA et la HADOPI dans une nouvelle autorité administrative dénommée « ARCOM ») contre le libre partage des œuvres audiovisuelles en lui donnant différents pouvoirs pour bloquer encore plus rapidement qu’avant un site internet qui lui paraît illégal (on en parlait ici).
2022
24 janvier 2022 : promulgation de la loi « responsabilité pénale et sécurité intérieure » qui, malgré les multiples censures du Conseil d’État, de la CNIL et du Conseil constitutionnel, autorise notamment la police nationale à déployer sur le territoire des drones de surveillance. La loi vient également valider la vidéosurveillance en cellule de garde-à-vue et les caméras embarquées sur les véhicules de police. Nous réagissons ici à cette nouvelle étape de surveillance de masse.
Ce travail pendant cinq ans ne fut pas simple, et le contexte politique ne présage rien de meilleur pour l’avenir. Pour nous aider à continuer, si vous le pouvez, vous pouvez nous aider en effectuant un don ici.
";s:7:"dateiso";s:15:"20220203_154514";}s:15:"20220127_140347";a:7:{s:5:"title";s:27:"Pistage dans le cyberespace";s:4:"link";s:68:"https://www.laquadrature.net/2022/01/27/pistage-dans-le-cyberespace/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18330";s:7:"pubDate";s:31:"Thu, 27 Jan 2022 13:03:47 +0000";s:11:"description";s:246:"Nous republions un article rédigé et paru par technopolice.be et initialement publié dans le numéro 53 du journal Culture & Démocratie.
La généralisation de l’usage de la téléphonie mobile, du bornage par les antennes wi-fi…";s:7:"content";s:24171:"
La généralisation de l’usage de la téléphonie mobile, du bornage par les antennes wi-fi et de la pratique de stockage dit « cloud » a fait émerger de nouvelles manières d’appréhender les déplacements dans l’espace public. De plus en plus répandues dans le contexte de la pandémie et d’une volonté affirmée de « gérer les foules », ces technologies participent aussi d’une surveillance généralisée des individus, souvent à des fins marchandes. En collectant massivement nos données privées dans certains espaces publics, ces dispositifs de surveillance − cartographiés par le collectif Technopolice − mettent à mal la protection de celles-ci. En outre, ils surdéterminent nos comportements, car si le pistage numérique aide à prédire les déplacements des foules, il permet aussi de les diriger sans qu’elles en aient conscience. En modifiant ainsi nos manières d’appréhender et d’habiter collectivement l’espace public, ces dispositifs ne présentent-ils pas un risque pour une approche véritablement émancipatrice de celui-ci ? Et si oui, comment en sortir ?
Instauration du passeport sanitaire, violation du secret médical par la transmission automatique d’informations personnelles concernant tests, quarantaines ou autres doses de vaccination, drones survolant les parcs pour inciter les gens à respecter la distanciation sociale, les pousser à rester chez eux voire évaluer le nombre de convives au réveillon de Noël : on peut dire que les technologies numériques ont apporté leur contribution à l’atmosphère détestable de flicage qui s’est installée dans le sillage de la pandémie de coronavirus. Néanmoins, il est une technologie de surveillance dont on a très peu entendu parler, à savoir le Wi-Fi.
« Comment ça le Wi-Fi ? pourriez-vous demander. Google ? Facebook ? Les géants du Net ?
– Oui certainement, vous répondrais-je. Mais le problème ne réside pas uniquement dans notre activité sur Internet. Il réside aussi dans les signaux que les smartphones envoient pour se connecter.
– Ah, vous voulez parler de l’application Coronalert, pour prévenir les « cas contacts » ? Mais n’utilise-t-elle pas plutôt le Bluetooth ?
– Si, en effet. Je l’ai oubliée dans mon introduction, peut-être parce que n’ayant pas rempli les promesses annoncées, les autorités l’ont discrètement enterrée… Mais non, je parle bien de la surveillance par Wi-Fi.
– Alors je ne vois pas de quoi vous voulez parler !
– C’est bien le problème ! Voyons ça… »
Il était une fois le smartphone. Couteau suisse numérique du XXIe siècle, ses atouts sont sa fabuleuse puissance de calcul, la formidable ergonomie de son écran tactile mais surtout la lucarne que celui-ci ouvre sur le monde. Pour que cette dernière fonction soit pleinement remplie, la connexion est de mise. Pas d’appel, de messagerie, de météo ou de likes et encore moins de challenge TikTok tant qu’il n’y a pas de signal.
Tout téléphone portable envoie donc régulièrement un signal pour se faire connaître de l’antenne télécom la plus proche[1]. S’il s’agit d’un smartphone dont la fonction Wi-Fi est activée, il va de surcroît envoyer des requêtes pour tenter de repérer le boîtier internet de votre maison, de votre lieu de travail ou de quelque lieu où vous vous seriez déjà connecté⋅e. Capter ces signaux est un jeu d’enfant. Pas besoin de matériel lourd réservé uniquement aux services de renseignement. Non, quelques lignes de code suffisent à convertir le premier ordinateur portable venu en mouchard. Les informations ainsi recueillies sont plus ou moins riches en fonction de l’appareil utilisé. Les téléphones récents disposent de systèmes d’anonymisation automatique pour limiter la fuite de données personnelles. Mais les téléphones vieux de quelques années peuvent diffuser allègrement leur identifiant unique (adresse MAC), et les noms des derniers réseaux auxquels ils se sont connectés.
À un niveau plus expérimental, une technique alternative consiste à placer de nombreux capteurs dans une pièce où sont diffusées des ondes Wi-Fi. La présence et le déplacement de corps humains viennent perturber la répartition de ces ondes dans l’espace. Les variations d’intensité des signaux peuvent réciproquement être interprétées pour déterminer le nombre et l’emplacement des personnes présentes.
Mais qui utilise les ondes pour nous tracer et dans quel but ?
La première fois que j’ai entendu parler de cette technologie, c’était il y a quelques années, lors d’un déménagement. Le conducteur de la camionnette contribuait autant à meubler mon salon que la conversation. Il me confia avoir passé sa journée de la veille à travailler (au noir) à dissimuler des capteurs dans les plafonds des magasins du centre commercial City2. Les mouchards devaient mesurer les flux de passant⋅es et ainsi permettre au gestionnaire du centre d’adapter les loyers des différentes cellules commerciales.
Dans le secteur de la vente, c’est ce qu’on appelle la footfall analytics ou l’analyse de fréquentation. Elle est généralement basée sur l’analyse des ondes, mais elle peut aussi reposer sur celle d’images caméra ou sur une combinaison de ces deux méthodes. L’objectif déclaré est de mieux comprendre les habitudes des client⋅es en vue de faire grimper le chiffre d’affaires. En plaçant plusieurs capteurs Wi-Fi ou caméras, on peut facilement observer si un⋅e client⋅e passe plus de temps au rayon légumes ou au rayon biscuits, ou encore repérer un comportement jugé suspect, peut-être celui d’un⋅e voleur⋅se.
Si en prime on arrive à faire installer aux client⋅es quelque application mobile, il devient possible de prolonger la surveillance en dehors du magasin, d’alimenter les fameux clouds en une kyrielle de données, mais surtout de proposer de la publicité ciblée qui pourra s’adapter continuellement aux comportements observés. C’est bien ce qui s’est passé dans les centres commerciaux bruxellois gérés par AG Real Estate, où la gestion des données Wi-Fi était confiée à la société Fidzup, qui traitait celles-ci sans consentement préalable. Mise en demeure par la CNIL pour cette pratique contrevenant au Règlement général sur la protection des données (RGPD) [2], la société Fidzup a été contrainte de se mettre en règle mais a fini par devoir mettre la clé sous la porte.
Un représentant d’une société qui place ce type de dispositifs dans des chaines de magasins me racontait avoir été une fois froidement accueilli par les employé⋅es du magasin où il venait l’installer : ces dernier⋅es avaient bien compris que l’analyse ne s’appliquait pas qu’aux client⋅es mais aussi aux vendeur⋅ses. Un mauvais « taux de conversion » − soit un ratio trop faible entre le décompte de client⋅es entré⋅es dans le magasin et le nombre de tickets imprimés pendant vos heures de travail − et hop ! voilà que le système pouvait enregistrer une nouvelle sortie du magasin, définitive celle-ci. Ou comment se faire virer par une box Wi-Fi…
Si en prime on arrive à faire installer aux client⋅es quelque application mobile, il devient possible de prolonger la surveillance en dehors du magasin, d’alimenter les fameux clouds en une kyrielle de données, mais surtout de proposer de la publicité ciblée qui pourra s’adapter continuellement aux comportements observés.
Nouvelle confrontation avec l’exploitation des ondes Wi-Fi en 2019, lorsque l’asbl Constant a organisé une balade dans le Marché de Noël de Bruxelles pour attirer l’attention sur l’utilisation de cette technologie dans l’espace public[3]. On y apprenait que c’était une expérience menée en partenariat par un laboratoire de polytechnique de l’ULB (OPERA-WGC) et Brussels Major Events (BME), une asbl satellite de la Ville de Bruxelles, qui prend en charge l’organisation des grands évènements de la capitale, tels que le Nouvel An ou Bruxelles-les-Bains. Lors de ces évènements, l’intérêt n’est assurément plus de fixer les loyers, mais de « gérer la foule ». S’il y a un incident qui hante les nuits des organisateur⋅ices d’évènements à Bruxelles, c’est bien « le drame du Heysel » de 1985, lors duquel un mouvement de foule avait provoqué la mort de dizaines de personnes et en avait blessé plusieurs centaines. L’idée est donc d’évaluer le nombre de personnes présentes à un évènement de masse, de manière à mieux canaliser la foule voire fermer les accès en cas de dépassement du seuil choisi.
Comme tout le monde n’a pas forcément sur soi un smartphone dont le Wi-Fi est allumé, un facteur multiplicatif est appliqué sur base de tests effectués en croisant différentes techniques de comptage. À en croire les ingénieur⋅es en charge du projet, il n’y a néanmoins pas le moindre souci à se faire du côté de la vie privée, car les données sont directement anonymisées, au point qu’un bureau d’avocat⋅es ayant examiné leur procédure a certifié sa conformité avec le RGPD. Dans la mesure où tous les expert⋅es en matière de données relatives à la vie privée insistent sur le fait que l’anonymisation est un leurre et qu’il est préférable de parler de « pseudonymisation » en gardant en tête qu’il est généralement possible de réidentifier les données, le scepticisme est de mise face aux déclarations des ingénieur⋅es. Mais il est vrai que la technique mobilisée ici, composée d’opérations successives de hachage et de chiffrement, et ce directement au niveau de la capture de l’information, avant même son envoi vers les serveurs de conservation des données, semble effectivement assez sérieuse. Et en l’absence d’autres données personnelles associées à l’identifiant anonymisé, il n’y a effectivement pas de possibilité de réidentification.
La prudence reste de mise, comme l’illustre la société d’analyse vidéo ACIC : elle propose une formule « Privacy » qui floute les visages des personnes sur les images de vidéosurveillance. Mais la fonction peut être désactivée par qui dispose des droits d’administration, de manière à pouvoir fournir des images « désanonymisées » à la police en cas de besoin. Dans la mesure où l’expérience menée à l’ULB s’avère porter ses fruits, elle pourrait faire l’objet d’une commercialisation dans les prochaines années : que répondront les ingénieur⋅es quand la police conditionnera l’achat de leur système à la possibilité de se réserver un accès privilégié aux données brutes ?
L’expérience menée à l’ULB s’avère porter ses fruits, elle pourrait faire l’objet d’une commercialisation dans les prochaines années : que répondront les ingénieur⋅es quand la police conditionnera l’achat de leur système à la possibilité de se réserver un accès privilégié aux données brutes ?
Déconfinement de la surveillance
Lorsque la pandémie de coronavirus s’est atténuée et que les magasins ont pu rouvrir, la ville de Bruxelles a contacté BME pour réfléchir à la meilleure manière de gérer la foule dans le centre-ville. BME, à son tour, s’est reportée sur l’équipe de chercheur⋅ses d’OPERA-WGC et très vite, la décision a été prise d’installer des capteurs Wi-Fi le long de la rue Neuve de manière à limiter l’affluence et à faire respecter les distances préconisées pour enrayer la propagation du virus. Lors du déconfinement, un dispositif de barrières, bandes de circulation piétonne et feux de signalisation aux entrées de la rue matérialisaient le dispositif. Aujourd’hui, la régulation se fait plutôt sous la forme de recommandation : les chalands peuvent consulter le site rueneuvebruxelles.be pour s’informer sur les moments plus calmes de la journée durant lesquels il serait préférable de faire son shopping. Mais les capteurs sont toujours présents.
L’épidémie a favorisé ouvertement le déploiement de techniques de footfall analytics dans l’espace public, mais la tendance, pourtant bien réelle, est moins visible dans les espaces privés. En effet, bien que ces techniques soient méconnues du grand public, elles sont déjà fort répandues dans les commerces. Le site carto.technopolice.be recense différentes technologies de surveillance et de contrôle présentes dans l’espace public. Y sont principalement répertoriées les caméras de surveillance classiques, « intelligentes » ou à reconnaissance de plaque d’immatriculation, mais aussi les antennes télécom et les dispositifs de footfall analytics. On retrouve donc la rue Neuve sur la carte, ainsi que les principaux centres commerciaux. Si l’on sait que les pictogrammes devant indiquer la présence de caméras de vidéosurveillance sont rarement dûment installés, au moins les caméras sont-elles visibles… tandis que les dispositifs de comptage peuvent être relativement discrets. Lors de la balade de l’association Constant au Marché de Noël, bien que connaissant leur présence, nous n’avons pas été en mesure de les repérer physiquement. Il est donc possible que la carte de Technopolice sous-estime grandement l’ampleur du phénomène. Et de fait, la société Amoobi – spin-off du laboratoire de l’ULB susmentionné – indique par exemple sur son site compter parmi ses client⋅es rien de moins que IKEA, MediaMarkt, Brico, Carrefour, Delhaize, Aldi, et j’en passe [4]. La question n’est donc pas tant de savoir si les espaces urbains échappent à ce type de surveillance mais plutôt lesquels y échappent.
Au rayon futurologie
Les ingénieur⋅es d’OPERA-WGC ne se contentent pas de décrire ce qui est mais ambitionnent aussi de prédire ce qui sera. Les données collectées sont analysées au cours de la journée de manière à dégager des modèles, ce qui a permis de développer des algorithmes de prédiction d’affluence. Ainsi, s’il est 9 h du matin à l’heure d’écrire ces lignes, le site rueneuvebruxelles.be prévoit des pics de fréquentation entre 13 et 17 h. Sans l’appui de tels algorithmes, nous allons nous aussi nous risquer à esquisser la direction que pourraient prendre les ondes Wi-Fi à l’avenir…
Avec une infrastructure réseau tentaculaire, un registre clientèle permettant de relier facilement les identifiants des appareils à des individus en chair et en os, un chiffre d’affaires autorisant de somptuaires dépenses en recherche et développement, la société est bien positionnée pour déployer une surveillance massive sur le territoire belge.
À la STIB par exemple, un système compte déjà le nombre de franchissements de portiques dans les stations et des recommandations sont ainsi formulées sur les lignes et les heures à préférer. Mais ce n’est qu’un début. La société réfléchit depuis longtemps à des méthodes plus fines pour analyser la fréquentation de ses services et stations. Aucune solution existante sur le marché n’a encore satisfait ses dirigeant⋅es. Elle a donc récemment annoncé le lancement d’un gigantesque chantier nommé « muntsroom », en partenariat avec Agoria, le lobby des industriels des nouvelles technologies, et à grand renfort de fonds régionaux et européens. Le projet a pour objectif de développer « une solution permettant de visualiser les flux de personnes 24 heures sur 24 et 7 jours sur 7 (comptage, direction, vitesse), de faciliter l’analyse partagée des données et de mettre les données sur les flux de personnes à la disposition d’un large éventail d’utilisateurs » [5]. Le marché sera attribué en décembre 2021.
Par ailleurs, OPERA-WGC et Brussels Major Events ont aussi collaboré sur un projet de recherche avec la société Proximus. En tant qu’opérateur télécom, Proximus quadrille le territoire d’antennes GSM. Comme on l’a vu, ces antennes permettent de localiser les téléphones. Avec la succession des générations de téléphonie, les puissances d’émission augmentent, ce qui nécessite d’ajouter toujours plus d’antennes, réduisant d’autant la taille des cellules. Le déploiement de la 5G à haute fréquence n’annonce donc rien de bon de ce côté-là. De plus, les opérateurs téléphoniques sont généralement aussi des fournisseurs d’accès à internet (FAI). Tel saint Pierre aux portes du Paradis, ce sont eux qui ouvrent la voie vers le cloud. C’est le cas de Proximus, qui propose aussi un bien mal-nommé « public wi-fi » pour permettre à ses client⋅es de se connecter d’à peu près n’importe où. Ce service exploite en fait les boîtiers internet des particulier⋅es qui diffusent un signal accessible à tou⋅tes les abonné⋅es Proximus en plus du Wi-Fi local. Avec une infrastructure réseau tentaculaire, un registre clientèle permettant de relier facilement les identifiants des appareils à des individus en chair et en os, un chiffre d’affaires autorisant de somptuaires dépenses en recherche et développement, la société est bien positionnée pour déployer une surveillance massive sur le territoire belge.
J’ai pointé les enjeux de vie privée liés aux données personnelles, mais ces technologies nous en apprennent aussi sur l’évolution des modes de gouvernement. Elles favorisent l’avancée vers un monde où il n’y a plus ni droit, ni obligation, ni interdiction générale de faire ceci ou cela − de circuler rue Neuve ou de se rendre à un concert, de se faire tester ou vacciner. Non, dorénavant, la situation sera analysée en temps réel et l’autorisation pourra être accordée ou refusée au cas par cas, en fonction de l’impact attendu de toute action sur la courbe de croissance, de santé ou de quoi que ce soit qu’il s’agira d’optimiser selon l’agenda du moment. Si nous ne regretterons pas la rigidité procédurale qui pouvait caractériser jusqu’ici l’action étatique, il n’est pas certain que l’instabilité permanente dans laquelle nous plongeons soit beaucoup plus respirable.
Comment souhaitons-nous nous organiser et communiquer ensemble ? Avec quelles conséquences pour nos vies quotidiennes ? Nos socialités ? Notre environnement ? Dans quelle mesure tel choix nous rend plus libres ou plus dépendant⋅es ? Il est alors possible de toucher au caractère politique de ces questions.
Peut-on échapper à la surveillance ?
Individuellement, il est bien sûr possible de laisser son téléphone à la maison ou de désactiver le Wi-Fi et le Bluetooth de notre smartphone avant de sortir de chez nous, de manière à disparaître des radars. À l’inverse, certain⋅es hacker⋅euses proposent plutôt d’inonder les systèmes de surveillance de toutes sortes d’informations plus ou moins farfelues pour que les vraies données se retrouvent noyées dans le « bruit » [6]. Il existe aussi des systèmes d’exploitation sous licence libre, qui s’attachent à améliorer la sécurité informatique des appareils et à limiter les possibilités de surveillance. Des « ateliers d’autodéfense numérique » sont régulièrement organisés pour partager les savoirs et les pratiques sur le sujet [7]. Ces moments permettent surtout ne pas rester seul·e face aux difficultés qu’on rencontre immanquablement dès qu’on s’écarte des solutions toutes faites. Ces ateliers peuvent aussi s’organiser au sein de collectifs, d’associations ou autres, de manière à poser collectivement la question : comment souhaitons-nous nous organiser et communiquer ensemble ? Avec quelles conséquences pour nos vies quotidiennes ? Nos socialités ? Notre environnement ? Dans quelle mesure tel choix nous rend plus libres ou plus dépendant⋅es ? Il est alors possible de toucher au caractère politique de ces questions et de réaliser qu’elles méritent d’être posées à toutes les échelles. Cependant, tant que les entreprises et les gouvernements courront après les données pour mieux nous profiler et nous gérer, il nous faudra tenir le rythme. Mais sans disposer des mêmes moyens, pourrons-nous tenir la distance ? Il apparaît par exemple que des modes de surveillance basés sur la détection des odeurs corporelles sont actuellement à l’étude, témoignant une fois encore de l’absence de limite à ce qui peut faire l’objet d’une mesure et d’une analyse. Allons-nous enfiler des combinaisons d’astronaute pour nous protéger de tout type d’intrusion ?
Ou bien ne vaut-il pas mieux mettre un terme à la société de surveillance ?
Merci aux responsables de ACIC et OPERA-WGC qui ont bien voulu répondre à mes questions.
[1] À noter que les opérateurs télécom ont longtemps été légalement contraints de conserver ces données durant un an. Merci à celles et ceux qui ont lutté pour qu’un jugement européen fasse casser cette loi. Cependant, la France a déjà annoncé qu’elle contournerait cette décision, à voir donc comment la Belgique réagira… Affaire à suivre !
[3] Cette balade concluait l’exploration menée par Kurt Tichy et Alex Zakkas, dont on peut retrouver le travail à l’adresse du lien ICI.
[4] En raison de difficultés d’exploitation des données issues des ondes (réflexion, réfraction…), la société Amoobi se concentre aujourd’hui sur l’analyse d’images issues de caméras.
";s:7:"dateiso";s:15:"20220127_140347";}s:15:"20220125_150921";a:7:{s:5:"title";s:95:"N’en déplaise à la Technopolice, les drones de la police municipale sont toujours illégaux";s:4:"link";s:129:"https://www.laquadrature.net/2022/01/25/nen-deplaise-a-la-technopolice-les-drones-de-la-police-municipale-sont-toujours-illegaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18348";s:7:"pubDate";s:31:"Tue, 25 Jan 2022 14:09:21 +0000";s:11:"description";s:251:"La semaine dernière, nous constations amèrement l’échec de la lutte nationale contre les drones de surveillance de la police nationale et de la gendarmerie et nous appelions à la nécessité d’actions locales pour les combattre.…";s:7:"content";s:6077:"
La semaine dernière, nous constations amèrement l’échec de la lutte nationale contre les drones de surveillance de la police nationale et de la gendarmerie et nous appelions à la nécessité d’actions locales pour les combattre. Seule victoire, les drones de la police municipale échappent à cette large banalisation sécuritaire et demeurent interdits. Alors que la majorité de droite de la région Île-de-France s’était empressée de voter des subventions pour le déploiement de drones à destination des mairies, cette censure du Conseil constitutionnel confirme l’illégalité de la décision de la région. C’est pourquoi nous intervenons aujourd’hui au soutien d’élu·es d’Île-de-France contre le financement illégal de drones de polices municipales. L’heure est aux actions locales.
En décembre 2021, au moment de voter son budget, la région Île-de-France, dont sa présidente Valérie Pécresse est désormais candidate à l’élection présidentielle, a décidé de subventionner les drones des polices municipales. La méthode interpelle : par un amendement de dernière minute, la droite francilienne a proposé de financer les communes qui souhaiteraient équiper leurs polices de drones de surveillance. Pourtant, à cette date, aucun drone policier n’était légalisé et, au contraire, ces dispositifs demeuraient expressément interdits.
Pire ! Alors que les élu·es d’opposition alertaient de cette dérive et de l’illégalité flagrante de tels drones, le maire de l’Haÿ-les-Roses et président du groupe LR à la région, Vincent Jeanbrun, n’hésitait pas à se draper dans un tissu de mensonges pour défendre les drones : « Bien évidemment nous proposons un amendement […] qui se fonde sur le cadre de la loi. Je suis moi-même maire, la police municipale de ma commune a un drone qu’elle utilise dans le respect strict de la loi. […] Sur autorisation préfectorale, les polices municipales ont évidemment totalement le droit d’utiliser ces drones pour mieux protéger les populations. » (à partir de 7″21)
Ces affirmations péremptoires étaient non seulement fausses à ce moment-là, mais ont de plus été désavouées par la décisions du Conseil constitutionnel de la semaine dernière.
Aujourd’hui, nous sommes donc devant le tribunal administratif de Montreuil au soutien de la requête des élu·es du groupe Gauche Communiste, Écologiste et Citoyenne. Nous avons rappelé au tribunal administratif que non seulement les drones de polices municipales ne sont pas autorisés en France, mais que leur utilisation est inconcevable car radicalement disproportionnée et attentatoire aux libertés.
Mais ce coup de force sécuritaire de la majorité régionale cache également mal un projet sécuritaire qu’il est indispensable de combattre dès maintenant. La région Île-de-France n’est pas la première à financer les projets de la Technopolice en toute illégalité. Le très droitier maire de Nice, Christian Estrosi, affichait par exemple fièrement l’achat par sa ville de drones, tandis que le président de la région Auvergne-Rhône-Alpes, Laurent Wauquiez voulait autoriser la reconnaissance faciale dans les gares et les trains.
Surtout, la présidente de la région Île-de-France, Valérie Pécresse, fait, depuis plusieurs années, de la région son laboratoire expérimental (et illégal). Pendant les élections régionales de 2021, elle s’engouffrait dans une fuite en avant sécuritaire en souhaitant par exemple la légalisation de la vidéosurveillance automatisée, pourtant déjà expérimentée dans les transports. Autre obsession de la candidate : la vidéosurveillance des lycées où sont déjà déployées des centaines de caméras et pour laquelle elle souhaite centraliser les images dans un centre de supervision XXL au siège de la région, le tout sans concertation avec les lycéen·nes, leurs parents ou leurs professeur·es.
La région n’est pas compétente en matière de sécurité mais cela n’empêche pas Valérie Pécresse et toute la majorité derrière elle de faire de l’Île-de-France un laboratoire sécuritaire. Nous voilà prévenu·es : la droite régionale ne s’arrête pas à une quelconque illégalité pour faire avancer ses projets de surveillance de masse et ira vers toujours plus de déshumanisation, de solutionnisme technologique, et de contrôle social par la police. Il est temps de mettre le holà, en commençant par ses drones.
";s:7:"dateiso";s:15:"20220125_150921";}s:15:"20220121_132221";a:7:{s:5:"title";s:62:"Les drones policiers autorisés par le Conseil constitutionnel";s:4:"link";s:102:"https://www.laquadrature.net/2022/01/21/les-drones-policiers-autorises-par-le-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18335";s:7:"pubDate";s:31:"Fri, 21 Jan 2022 12:22:21 +0000";s:11:"description";s:263:"Le Conseil constitutionnel vient de rendre sa décision sur la loi « responsabilité pénale et sécurité intérieure ». Ce texte, adopté le 18 novembre 2021 par le Parlement, prévoyait notamment de ré-autoriser les drones policiers. Si les…";s:7:"content";s:7017:"
Le Conseil constitutionnel vient de rendre sa décision sur la loi « responsabilité pénale et sécurité intérieure ». Ce texte, adopté le 18 novembre 2021 par le Parlement, prévoyait notamment de ré-autoriser les drones policiers. Si les drones avaient été interdits à quatre reprises depuis 2020 (deux fois par le Conseil d’État, une fois par la CNIL et une fois par le Conseil constitutionnel), l’entêtement du gouvernement a porté ses fruits. Après deux années d’illégalité, les drones vont ré-occuper le ciel et restaurer la surveillance de masse.
Cette mauvaise nouvelle ne vient pas seule : le Conseil constitutionnel valide aussi les caméras embarquées sur les véhicules de police (hélicoptères, voitures…) ainsi que la vidéosurveillance des cellules de garde-à-vue. À côté, le Conseil ne prend même pas la peine d’examiner les nombreuses autres dispositions de cette loi qui s’en prennent à d’autres libertés fondamentales (amendes forfaitaires, prise d’empreintes forcée, répression des mineurs isolés, modification du régime d’irresponsabilité pénale – voir notre analyse commune avec le SAF, le SM et la LDH).
Autorisation des drones
Le Conseil constitutionnel autorise la police et la gendarmerie nationale à utiliser les drones tant pour des fins administratives que pour les enquêtes judiciaires. Par exemple, les caméras sur drones pourront être déployées au cours de manifestations et rassemblements jugés comme « susceptibles d’entraîner des troubles graves à l’ordre public », aux abords de lieux ou bâtiments « particulièrement exposés à des risques de commission de certaines infractions » ou encore dans les transports ou aux frontières.
Le Conseil constitutionnel ne trouve rien à redire sur la disproportion et l’imprécision de ces larges finalités. De même, il valide le fait que ces nouvelles mesures soient simplement autorisées par un préfet (et non un juge) qui estimera seul si ces technologies de surveillance sont nécessaires et proportionnées. En somme, la police autorisera la police à utiliser des drones selon sa propre appréciation de la nécessité de surveiller…
Tout au plus, le Conseil constitutionnel apporte quelques réserves sur la possibilité pour la police d’utiliser ces nouvelles caméras à des fins de reconnaissance faciale, mais ces limites paraissent bien dérisoires par rapport à l’utilisation déjà massivement illégale que la police en fait aujourd’hui.
Seule l’expérimentation de drones par la police municipale est censurée, freinant les fantasmes sécuritaires des maires, sans pour autant qu’une interdiction de principe ne soit clairement formulée. Le Conseil constitutionnel offre au gouvernement la possibilité de revenir avec un nouveau texte corrigeant le tir, comme il l’a fait avec cette nouvelle loi, huit mois après la censure de la loi sécurité globale.
Contrôle a posteriori
Comme on l’a vu, pour la police nationale et la gendarmerie, le Conseil constitutionnel permet aux préfets d’autoriser les drones de surveillance mais, pour la suite, le Conseil se défausse en renvoyant aux juridictions administratives le soin de contrôler au cas par cas et après coup la légalité de ces autorisations. Lorsqu’il sera saisi d’une telle affaire, le juge devra notamment vérifier si les drones étaient bien nécessaires à l’objectif poursuivi (par exemple, ne pouvait-on pas assurer autrement la sécurité d’une manifestation ?) et si le public en a été correctement informé.
Les limites de ce garde-fou sont évidentes : il faudra saisir le tribunal administratif d’un recours, et le juge saisi ne pourra évaluer l’utilisation des dispositifs de surveillance qu’a posteriori, c’est-à-dire une fois que les utilisations abusives et non nécessaires auront été autorisées par le préfet et que les atteintes à la vie privée auront été commises.
À l’inverse, nous demandions au Conseil de réaliser ce contrôle en amont et une fois pour toute : reconnaître que, de façon systématique, la nécessité des drones n’est pas démontrée et que le gouvernement ne peut qu’échouer à informer le public de leur présence. Nos demandes ont été rejetées. En renvoyant au juge le contrôle de la légalité de ces dispositifs de surveillance, le Conseil constitutionnel se défausse de son rôle de gardien des libertés et refuse de confronter les dangers propres à ces technologies, qui auraient dû le conduire à les interdire durablement.
La suite de la lutte
Depuis 2020, nous avons tenté de faire interdire les drones de façon générale : ils posent des problèmes de principe impossibles à corriger au cas par cas. Après quatre tentatives, cette stratégie avait fonctionné et les drones avaient été interdits partout en France (nous récapitulions ici les étapes de cette lutte).
Aujourd’hui, c’est cette lutte nationale qui a été perdue. Il faudra donc revenir au niveau local pour documenter et contester devant les tribunaux la nécessité et l’information de chaque drone. Inutile de se le cacher, cette lutte demandera une énergie considérable et une attention constante. La seule action de La Quadrature ne sera clairement pas suffisante. La multiplication d’initiatives locales apparaît indispensable. Nous y prendrons part à vos côtés, en organisant des espaces de coopération où échanger nos informations, nos argumentaires et nos stratégies. Plus que jamais, contre les drones policiers et leur monde, rejoignez la lutte contre la Technopolice.
";s:7:"dateiso";s:15:"20220121_132221";}s:15:"20220114_151957";a:7:{s:5:"title";s:93:"Ni subventions, ni déductibilité fiscale, La Quadrature ne tient (presque) que par vos dons";s:4:"link";s:128:"https://www.laquadrature.net/2022/01/14/ni-subventions-ni-deductibilite-fiscale-la-quadrature-ne-tient-presque-que-par-vos-dons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18274";s:7:"pubDate";s:31:"Fri, 14 Jan 2022 14:19:57 +0000";s:11:"description";s:252:"Comme pour de nombreuses autres associations, le présent quinquennat est bien chargé pour La Quadrature du Net, et les dossiers chauds ne manquent pas. Heureusement l’énergie collective et surtout les soutiens sont là ! Malgré le…";s:7:"content";s:8883:"
Comme pour de nombreuses autres associations, le présent quinquennat est bien chargé pour La Quadrature du Net, et les dossiers chauds ne manquent pas. Heureusement l’énergie collective et surtout les soutiens sont là ! Malgré le contexte qui dégrade certainement les moyens financiers de pas mal de personnes, nombreuses sont celles qui continuent à nous soutenir financièrement, ou qui commencent à le faire. Notre campagne de dons lancée en novembre nous a permis pour l’instant de récolter 39% de notre budget pour l’année 2022 : c’est à la fois beaucoup, et nous remercions toutes les personnes qui nous ont fait un don, mais c’est encore insuffisant pour nous assurer une année sereine, financer nos actions et payer nos salariées. Ce sont essentiellement ces dons individuels qui nous permettent de poursuivre nos actions. Petit tour d’horizon de nos financements et des choix dont ils témoignent.
Les financements de La Quadrature
Nous avons la chance de recevoir le soutien de nombreuses personnes, que ce soit par des dons financiers ou par une implication bénévole, souvent importante. Le budget de La Quadrature du Net est financé à 78% par des dons individuels, d’associations ou plus rarement de petites entreprises du numérique, le reste provenant essentiellement de soutiens de fondations.
Les dons qui nous sont fait sont souvent des petites sommes (mais comme on dit « les petits ruisseaux font les grandes rivières ») mais pas que, et nous bénéficions du soutien régulier de nombreuses donatrices et donateurs, qui nous font des dons mensuels. C’est à la fois encourageant et rassurant Nous lançons chaque fin d’année une campagne de dons, à travers laquelle nous tentons de faire le bilan de nos actions. Petite parenthèse historique : ces dons individuels ont pris une place toujours plus importante dans les finances de La Quadrature, passant de 62% du budget en 2014 à 78% aujourd’hui. En parallèle, le soutien d’organismes privés (fondations) est lui passé de 35% en 2014 à environ 18% aujourd’hui.
A coté de cet important soutien de la communauté, nous avons donc le soutien de quelques fondations. Depuis les débuts de La Quadrature, nous avions un financement de l’Open Society Foundations, soutien que nous avons souhaité faire décroître progressivement, et qui a pris fin en septembre 2021. Depuis quatre ans, nous avons aussi un financement de la Fondation pour le Progrès de l’Homme ainsi qu’un soutien plus ponctuel du Digital Freedom Fund. Pour les deux ans à venir, nous aurons aussi le soutien de la Fondation Un Monde Par Tous. Dans tous les cas, ces organisations nous financent structurellement et suivent nos activités sans jamais se mêler de nos stratégies et de nos choix, et c’est cette liberté d’action qui pour nous permet des relations saines et fructueuses avec nos financeurs.
Nous avons par contre toujours refusé d’envisager des subventions publiques. Au vu de nos actions, et du peu de marges de manœuvre que laissent ces subventions qui ne se font plus que sur appels à projets, nous estimons en effet que cela serait trop risqué pour notre liberté d’action. Que faire par exemple si nous découvrions qu’une collectivité qui nous soutient s’équipe de drones de surveillance, au mépris de la loi ? Nous pourrions lui rendre son argent et l’attaquer, mais il nous parait plus simple de ne pas prendre ce genre de risques. Notre liberté d’action et de ton reste primordiale, y compris dans la recherche de nos financements.
C’est d’autant plus vrai maintenant que le gouvernement a fait adopter une loi « confortant le respect des principes de la République », qui vient notamment s’en prendre directement aux associations et à leurs modes de financement. Cette loi prévoit en effet que toute association qui souhaite bénéficier d’une subvention publique (qu’il s’agisse d’une aide financière ou d’une aide en nature – comme par exemple le prêt d’une salle -) devra signer un « contrat d’engagement républicain ». Ce texte prévoit un certain nombre d’obligations pour les associations, telle celle de s’abstenir de toute action portant atteinte à l’ordre public, sous peine de devoir rembourser la subvention ou de se voir refuser un agrément nécessaire à leur action. Or de nombreuses formulations de ce texte sont très générales voire floues, ce qui, comme le soulignait le Haut conseil à la vie associative dans son avis du 3 décembre dernier, « tend à confier à l’administration un pouvoir d’interprétation et de sanction très large » sur les actions des associations et des fondations. L’adoption de cette loi s’inscrit dans un contexte de pressions sur la société civile au sens large, phénomène sur lequel la Coalition Libertés associatives (dont nous sommes membres) tente d’agir.
Au final donc, ce sont bien surtout les dons individuels qui nous permettent de faire vivre l’association et de développer nos actions.
Le rescrit fiscal, par deux fois refusé à La Quadrature
Vous n’êtes certainement pas sans savoir que de manière générale les dons faits à la plupart des associations dites « d’intérêt général » sont déductibles des impôts, à hauteur de 66% du don dans la plupart des cas. C’est pourquoi certaines personnes qui nous font des dons nous demandent un reçu fiscal. Or, comme nous le précisons dans notre FAQ, les services fiscaux nous ont par deux fois refusé cette possibilité. Explications, et petit détour « juridico-fiscal » :
En théorie, toute association d’intérêt général pourrait produire des reçus fiscaux pour ses donatrices et donateurs. Mais les choses ne sont pas si simples en fait. Le code général des impôts (articles 200 et 238bis) prévoit en effet que la déductibilité fiscale ne concerne que les associations d’intérêt général exerçant des activités philanthropiques, éducatives, scientifiques, sociales, humanitaires, sportives, familiales, culturelles ou mettant en valeur le patrimoine artistique, et que les associations ayant d’autres activités ne sont pas concernées. En 2013, nous avions fait une demande pour vérifier notre statut fiscal, et la réponse des services fiscaux fut la suivante, aussi bien lors de la première demande que lors de notre demande de réexamen en 2014 : « En l’état, La Quadrature du Net peut donc être considérée comme un organisme d’intérêt général » mais « au regard de la nature de l’activité exercée, il n’apparaît pas que celle-ci présente l’un des caractères prévus par le législateur aux articles 200 et 238bis du C.G.I ». En gros, La Quadrature du Net est bien d’intérêt général mais ça ne suffit pas pour que nous puissions délivrer des reçus fiscaux.
Bon, comme vous êtes quand même nombreuses et nombreux à nous soutenir, on se dit que vous ne le faites pas pour déduire ça des impôts, mais il y a certainement des personnes que cela étonne ou dissuade. Et on en est désolées. Dans un monde idéal, nous pourrions travailler sans devoir compter pour cela sur les efforts que vous pourrez bien faire. Mais dans la situation dans laquelle nous sommes en pratique, nous sommes obligées de vous demander de contribuer sans pouvoir vous offrir cette contrepartie fiscale. Alors nous adressons un immense merci à toutes les personnes qui veulent, et peuvent, nous permettre de continuer à faire bouger les choses. Et si vous voulez nous soutenir, c’est par ici.
";s:7:"dateiso";s:15:"20220114_151957";}s:15:"20211223_151836";a:7:{s:5:"title";s:59:"DataJust : violer la loi sous couvert d’expérimentation";s:4:"link";s:93:"https://www.laquadrature.net/2021/12/23/datajust-violer-la-loi-sous-couvert-dexperimentation/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18168";s:7:"pubDate";s:31:"Thu, 23 Dec 2021 14:18:36 +0000";s:11:"description";s:286:"Fin mars 2020, en plein confinement, le ministère de la justice s’autorisait à traiter massivement les données personnelles présentes dans les décisions de justice avec le fichier DataJust. L’objectif affiché : développer un obscur algorithme d’aide…";s:7:"content";s:7678:"
Fin mars 2020, en plein confinement, le ministère de la justice s’autorisait à traiter massivement les données personnelles présentes dans les décisions de justice avec le fichier DataJust. L’objectif affiché : développer un obscur algorithme d’aide à la décision en matière d’indemnisation de préjudices corporels. Ici, le fantasme de la justice prédictive s’accompagne d’une dangereuse méthode : sous couvert d’expérimentation, l’État s’affranchit des lois qui protègent les données personnelles et la vie privée. Nous avions déposé un recours l’an dernier contre ce fichier. L’audience publique devant le Conseil d’État s’est tenue vendredi dernier et le rapporteur public a conclu à la validation de ce fichier.
Créé par décret le 29 mars 2020, le fichier DataJust autorise le ministère de la justice à traiter les données personnelles des justiciables contenues dans les décisions de justice en matière de dédommagement. Concrètement, les décisions non-anonymisées sont transférées des bases de données gérées par la Cour de cassation et le Conseil d’État, pour leurs besoins internes, vers un méga-fichier du ministère de la justice.
Les données personnelles traitées sont très larges : noms et prénoms des personnes mentionnées (sauf les parties), dates de naissance, genres, liens de parenté avec les victimes, lieux de résidence, informations relatives aux préjudices subis, données socio-professionnelles (situation financière, profession, statut…), données relatives à des infractions et condamnations pénales, ou encore données relatives à des fautes civiles. Mais surtout, le numéro des affaires sera également conservé, rendant toute tentative d’anonymisation des décisions impossible (il suffit de rechercher le numéro de la décision pour récupérer la version complète). Ce sont donc des données particulièrement nombreuses, et parfois sensibles, qui sont traitées par DataJust.
Mais cela n’empêche pas le ministère de la justice de s’autoriser à traiter tout cela pour des finalités bien vagues. Ainsi, le décret précise que la finalité du traitement DataJust est la mise au point d’un algorithme qui permettra de guider les magistrats et les politiques publiques. La CNIL s’inquiétait déjà de cette formulation vague. Nous avons donc contesté la validité du décret DataJust avec un premier mémoire l’année dernière et un mémoire en réplique en début de semaine dernière.
Au cours du déroulé de l’affaire, le Conseil d’État s’est bien douté que les données collectées par DataJust pourraient ne pas être nécessaires. Dans une série de questions adressées au gouvernement, il lui demandait ainsi de se justifier concernant la pertinence de traiter des données telles que les noms des personnes ou le numéro des affaires. La réponse du ministère de la justice souligne la fébrilité du gouvernement : en substance, le gouvernement répond au Conseil d’État qu’il faut traiter beaucoup de données afin de savoir lesquelles seront par la suite pertinentes…
Un précédent inquiétant par la CNIL elle-même
En résumé, le ministère de la justice explique sans honte qu’il ne sait pas à quoi l’algorithme sur lequel il est en train de travailler servira, ni sur quelles données il portera, mais s’octroie tout de même le droit de fouiller largement dans l’intimité des gens. Cela peut surprendre, mais ce n’est pas la première fois que l’on peut observer cette manière de faire.
Au début de l’année, nous dénoncions le même discours, cette fois-ci par la CNIL elle-même à propos des drones de la PPL Sécurité globale. Dans son audition devant le Sénat, la présidente de l’autorité censée protéger le droit à la vie privée donnait un mode d’emploi – illégal – pour ne pas appliquer les règles qui s’imposent au législateur en matière de respect du droit à la protection des données personnelles. Elle proposait ainsi que le Sénat pose l’étiquette de l’« expérimentation » afin de s’affranchir des règles qui exigent que tout traitement de données poursuive des finalités précisément délimitées.
On pourra citer un autre exemple de surveillance « expérimentale », celle des réseaux sociaux introduite dans la loi de finances pour 2020. Depuis que le décret d’application de cette loi est sorti en février 2021, le fisc est autorisé à surveiller les réseaux sociaux pour voir s’il n’y aurait pas quelques éléments à extirper au milieu de l’océan de données personnelles ainsi collecté. Mais soyez rassuré·e : cette surveillance n’est qu’expérimentale, le temps de savoir si l’État veut vraiment surveiller encore plus sa population…
Ce genre d’exemples pourrait malheureusement se multiplier. Rien qu’en début de semaine dernière nous annoncions un recours contre l’expérimentation de la surveillance sonore à Orléans, alors que même la CNIL (pour une fois) avait déjà conclu en 2019 que ce genre de dispositif est illégal.
Le Conseil d’État une fois encore défaillant
Le rapporteur public du Conseil d’État a toutefois conclu la semaine dernière au rejet de notre recours, validant ainsi la largesse avec laquelle le ministère de la justice s’est autorisé à analyser la vie intime des personnes (la matière très particulière des décisions de justice concernées – la responsabilité civile ou administrative – traite de moments parfois douloureux pour les victimes, notamment lorsque des dommages corporels sévères se sont produits).
Une nouvelle fois, le Conseil d’État sert l’État, jusque dans ses pulsions les plus folles. Le message envoyé au gouvernement est explicite : l’État peut jouer à l’apprenti sorcier avec la vie privée des gens, le Conseil d’État ne sera pas un obstacle.
Il ne faut toutefois pas s’arrêter à ce constat désabusé. Les institutions françaises – du législateur aux juges, en passant par les autorités administratives indépendantes comme la CNIL – sont certes souvent défaillantes, mais il reste une lutte à réinventer, d’autres juridictions – notamment européennes – à aller chercher. Pour continuer cette lutte, nous avons d’autant plus besoin de vous.
";s:7:"dateiso";s:15:"20211223_151836";}s:15:"20211222_172244";a:7:{s:5:"title";s:73:"Pôle Emploi : dématérialisation et contrôle social à marche forcée";s:4:"link";s:105:"https://www.laquadrature.net/2021/12/22/pole-emploi-dematerialisation-et-controle-social-a-marche-forcee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18090";s:7:"pubDate";s:31:"Wed, 22 Dec 2021 16:22:44 +0000";s:11:"description";s:290:"
Alors qu’Emmanuel Macron veut « accélérer » la radiation des demandeurs d’emploi, Pôle emploi vient de franchir un cap dans la marche forcée vers la dématérialisation et le contrôle numérique des personnes privées d’emploi. Un travailleur sans…";s:7:"content";s:45056:"
Alors qu’Emmanuel Macron veut « accélérer » la radiation des demandeurs d’emploi, Pôle emploi vient de franchir un cap dans la marche forcée vers la dématérialisation et le contrôle numérique des personnes privées d’emploi. Un travailleur sans emploi s’est vu récemment notifier sa radiation1Les courriers échangés entre Pôle emploi et ce travailleur nous ont été communiqués à titre confidentiel. au motif que l’envoi de ses candidatures par courrier recommandé, plutôt que par internet, ne permettait pas de constater le « caractère sérieux des démarches […] entreprises pour retrouver un emploi ».
Cette situation matérialise la volonté de Pôle emploi de forcer, quoi qu’il en coûte, les personnes sans emploi à l’utilisation d’outils numériques. Une radiation ayant pour effet la suspension du versement des allocations chômage, il s’agit ici d’un véritable chantage à la survie dans lequel Pôle emploi s’est lancé dans le seul but d’accélérer la dématérialisation de ses services. Ce faisant, Pôle emploi ignore volontairement les études et rapports2Voir notamment le rapport du Défenseur des droits « Dématérialisation et inégalité d’accès aux services publics ». 2019. Disponible ici. montrant que les politiques de dématérialisation représentent un obstacle à l’accès au service public pour les personnes les plus précaires et participent ainsi à leur marginalisation.
A l’heure où les administrations françaises sont fortement encouragées3Voir par exemple les recommandations du rapport « Lutter contre les fraudes aux prestations sociales un levier de justice sociale pour une juste prestation », remis au premier ministre en 2019, disponible ici. à mettre en place des algorithmes assignant à chacun-e un « score de risque », tel que celui utilisé aujourd’hui par les CAF pour sélectionner les personnes à contrôler, les politiques de dématérialisation s’accompagnent d’un risque de renforcement de contrôle social via la collecte toujours plus fine de données personnelles.
Chantage à la dématérialisation
La lecture des courriers échangés entre ce travailleur privé d’emploi et Pôle Emploi est édifiante. Après avoir reçu un courrier d’« avertissement avant sanction pour insuffisance d’actions en vue de retrouver un emploi », le travailleur transmet à Pôle emploi les justificatifs de ses 29 candidatures envoyées par courrier recommandé.
À la réception de ces documents, le directeur de l’agence maintient sa décision de radiation et la justifie en des termes kafkaïens. Selon lui, « la fourniture de très nombreuses candidatures adressées en recommandé par voie postale » ne démontre pas une véritable recherche d’emploi dès lors que l’utilisation de courriers recommandés ne correspond plus aux « standards adoptés par les entreprises depuis de nombreuses années »4Ce point est d’autant plus édifiant que le travailleur en question avait déjà été contrôlé en 2017 et qu’à cette date le fait qu’il candidate par courrier était accepté par Pôle Emploi..
Au recours opposé, le directeur persiste quant à « l’absence de caractère sérieux des démarches […] entreprises », au motif que le travailleur « ne permet pas de justifier de l’impossibilité d’utiliser les modes de communication dématérialisés (téléphone portable, e-mail, ordinateur) » recommandés par l’institution afin « d’optimiser les chances de recrutement » et confirme la suspension des allocations pour une période d’un mois.
Dématérialisation et inégalités
Le chantage aux allocations mis en place par Pôle emploi pour accélérer le processus de dématérialisation est d’autant plus violent que ses dirigeant·es ne peuvent ignorer les inégalités de maîtrise et d’accès aux outils numériques. Personnes précaires, âgées, handicapées, étrangères, détenues, vivant en zone blanche : autant de publics pour lesquels la numérisation augmente les difficultés d’accès au service public.
Pour ces publics, la généralisation de la dématérialisation se traduit par une charge administrative supplémentaire accentuant leur exclusion sociale. Témoins de ces difficultés, les réclamations liées à la dématérialisation constituent un des premiers motifs de saisine du Défenseur des droits. Dans un rapport publié en 2019, ce dernier interpelle vivement les politiques sur les risques associés à une dématérialisation forcée et rappelle que « si une seule personne devait être privée de ses droits du fait de la dématérialisation d’un service public, ce serait un échec pour notre démocratie et l’état de droit ».
Il semblerait qu’à Pôle emploi ce document n’ait pas été lu, malgré les déclarations de bonne foi de son directeur général, Jean Bassère, selon lequel Pôle emploi doit « tirer parti des avancées technologiques, en veillant à ne laisser personne au bord de la route ».
Vers une dématérialisation généralisée ?
La situation décrite plus haut laisse pourtant présager de nombreux cas similaires à l’heure où Pôle emploi expérimente un « Journal de la recherche d’emploi » en Bourgogne-Franche-Comté et Centre-Val-de-Loire. Ce programme, créé en 2018 par la loi « pour la liberté de choisir son avenir professionnel », oblige tout·e demandeur·se d’emploi à déclarer en ligne ses « démarches de recherche d’emploi », et ce, une fois par mois.
Cette expérimentation vise à évaluer la possibilité de généraliser à l’ensemble du territoire l’obligation de déclaration numérique pour les chômeurs et chômeuses. Étant donné les injonctions à la rationalisation financière et la priorité politique donnée à la transformation numérique dans le plan « Action Publique 2022 » d’Emmanuel Macron, le risque est grand que Pôle emploi accepte les conséquences sociales nocives d’un tel changement et force à la dématérialisation d’un nombre croissant de ses activités d’ici quelques années.
Dématérialisation et contrôle social
Les politiques de dématérialisation comportent un risque important de renforcement du contrôle social, tout particulièrement des publics les plus précaires5Voir par exemple l’article d’Olivier Tesquet « Comment l’intelligence artificielle cible les plus précaires », disponible ici ou encore les travaux de Lucie Inland., via une collecte toujours plus importante de données sur les usagers·ères du service public et le recours grandissant à l’intelligence artificielle.
À une question posée par une sénatrice sur les risques d’utilisation du « Journal de la recherche d’emploi » à des fins de contrôle, notre ancienne ministre du travail a indiqué que les données collectées par cet outil généreront des « alertes » qui seront « adressées aux conseillers » de manière à « analyser les situations de décrochage ». Elle ajoute que les conseillers pourront alors « initier une demande de contrôle auprès des conseillers dédiés en charge du contrôle ». Si elle assure qu’aucun contrôle ne sera déclenché de manière entièrement automatisé, il n’en reste pas moins que ces politiques conduisent à une utilisation accrue d’outils numériques pour détecter les « mauvais-e-s » chômeurs-ses.
Le projet de loi précise que ce journal a pour objectif de « repérer les demandeurs d’emploi qui seraient en difficulté dans leur recherche d’emploi ou ne feraient pas de démarches suffisamment actives de recherche d’emploi ». Il est ailleurs fait part d’un algorithme de machine learning utilisant les donnes collectées via le journal afin de mieux « détecter l’évolution de la situation » des travailleurs sans emploi6On sait également que Pôle Emploi avance vers l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel », un outil fondé sur des techniques d’intelligence artificielle et qui, selon des témoignages que nous avons pu recueillir, aurait octroyé à des utilisateurs·ices un score d’employabilité de zéro..
Les politiques de dématérialisation peuvent aussi servir à obstruer volontairement l’accès aux services de l’État, comme en témoigne le Défenseur des droits7Voir les travaux de la Cimade « Dématérialisation des demandes de titre de séjour » disponible ici et ceux du Gisti ici. lorsqu’il décrit comment certaines préfectures poussent les étrangers·ères vers l’illégalité en bloquant volontairement les demandes de prise de rendez-vous en ligne pour la demande ou le renouvellement de titres de séjours, qui constitue pourtant la seule procédure autorisée dans 30 préfectures en 2019.
Contrôle social et accès aux données personnelles
Un outil tel que le « Journal de la recherche d’emploi » est finalement à apprécier dans un contexte de développement sans précédent des politiques numériques de contrôle social depuis les années 2010. Porté par un discours néolibéral mortifère de « lutte contre l’assistanat », en vogue en cette période électorale, le renforcement institutionnel des politiques de contrôle s’est accompagné d’un accroissement du volume de données collectées sur les allocataires de prestations sociales. Ceci a été accompli via l’interconnexion de fichiers administratifs ainsi que via l’extension du droit de communication pour les agent-e-s en charge du contrôle. C’est en 2013 qu’ont été créés les premiers postes d’agent-e-s dédiés spécifiquement au contrôle à Pôle emploi..
Pôle emploi peut ainsi consulter différents fichiers détenus par des organismes sociaux incluant le fichier des prestations sociales (RNCPS), le fichier national des comptes bancaires (FICOBA) ou encore le fichier des résident-e-s étrangers-ères en France (AGDREF)8Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales », 2020, pp. 53-57, disponible ici..
Depuis décembre 2020, les agent-e-s de contrôle de Pôle emploi disposent par ailleurs d’un droit de communication les habilitant à obtenir des informations auprès de tiers. A ce titre, ielles peuvent accéder aux relevés bancaires, demander des informations personnelles aux employeurs-ses ou aux fournisseurs-ses de gaz et d’électricité.
Cette évolution concerne l’ensemble des organismes sociaux, et en particulier les CAF dont les droits d’accès sont encore plus étendus tant au niveau des fichiers consultables que du droit de communication9Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales » cité ci-dessus, pp. 53-57..
Scoring et surveillance algorithmique
En parallèle de l’extension du droit d’accès aux données personnelles, s’est développée l’utilisation par les organismes sociaux d’algorithmes de “scoring” à des fins de contrôle dont les effets (déshumanisation, harcèlement, difficultés de recours et renforcement des discriminations) sont régulièrement dénoncés10Voir les rapports du Défenseur des Droits ici et ici. Voir aussi les travaux de Lucie Inland.. Ces algorithmes assignent à chaque allocataire un “score de risque”, c’est à dire une probabilité d’être “fraudeur-se”, servant par la suite à sélectionner qui doit être contrôlé-e.
L’utilisation à grande échelle des techniques de scoring a été initiée par les CAF en 2011 et serait actuellement en développement à Pôle emploi11 Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales.» Cité ci-dessus, pp. 50. Par ailleurs, si nous ne connaissons pas aujourd’hui de manière précise la façon dont les données collectées par le « journal de la recherche d’emploi » seront utilisées, la convention tripartite Etat-Unédic-Pôle emploi 2019-2022 évoque leur utilisation dans le cadre de solutions d’intelligence artificielle « d’accompagnement ».. Dans un livre passionnant intitulé « Contrôler les assistés », Vincent Dubois étudie l’impact de ces techniques sur la pratique du contrôle par les CAF12Vincent Dubois, 2021. « Contrôler les assistés. Genèses et usage d’un mot d’ordre ».. Il montre, chiffres à l’appui, que l’introduction du score de risque s’est accompagnée d’un sur-contrôle des populations les plus précaires, en particulier des familles monoparentales (femmes isolées principalement), des personnes à faibles revenus, au chômage ou allocataires de minima sociaux.
S’il n’est pas possible aujourd’hui de donner une liste exhaustive des variables utilisées pour le calcul du score de risque, Vincent Dubois cite: le montant des revenus, la situation professionnelle personnelle et celle de son ou sa conjoint-e, la situation familiale (en couple, seul-e, nombre d’enfants, âge des enfants), le mode de versement des prestations sociales (virement bancaire ou non) ou encore le mode de contact avec les CAF (le fait d’appeler ou de se rendre sur place)13Voir Vincent Dubois, Morgane Paris et Pierre-Edouard Weil. 2018. « Des chiffres et des droits ». Disponible ici.
. La Cour des comptes ajoute que sont prises en compte les variables suivantes: la nationalité de l’allocataire regroupé en trois catégories (france, UE et hors UE), le code postal ainsi que les caractéristiques socio-économiques de la commune de résidence (part des actifs-ves occupé-e-s, part d’allocataires à bas revenus…)14Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales ». Cité ci-dessus, pp. 49..
En plus des populations évoquées ci-avant, le simple fait que de telles variables aient été retenues laisse imaginer que le score de risque est plus élevé, et ainsi la probabilité d’être contrôlée, pour une personne étrangère ou pour les habitant-e-s des quartiers que pour le reste de la population.
Vincent Dubois montre finalement que dans leur très grande majorité, les sanctions prises dans le cadre d’un contrôle sont dûes à de simples erreurs de déclarations, erreurs elles-mêmes favorisées par la complexité des règles de calcul des minima sociaux… C’est dans ce cadre qu’il apparaît légitime de parler de véritables politiques numériques de harcèlement social, d’autant plus insupportables que les personnes les plus riches font l’objet d’un traitement bien plus favorables de la part des autorités. Rappelons notamment que l’État français a, sur la même période, favorisé le règlement « à l’amiable » des contentieux fiscaux15Sur ce sujet, voir Alexis Spire, « Faibles et puissants face à l’impôt », 2012.. Et ce, alors que les estimations disponibles montrent que la fraude aux prestations sociales, estimée aux alentours de 2 milliards d’euros, est marginale, en comparaison des 80 à 100 milliards d’euros de pertes dues à la fraude fiscale.
Une question européenne (et des victoires)
Ces questions se posent aussi à l’échelle européenne, à l’heure où le règlement IA est en cours de discussion. Outre les aspects sécuritaires, que nous discutions ici et ici, ce règlement ouvre aussi la porte au développement généralisé de tels systèmes16Voir le rapport d’Human Rights Watch « QA: how the EU’s flawed artifical intelligence regulation endangers the social safety net » disponible ici..
Mais l’expérience européenne offre aussi des perspectives. Aux Pays-Bas, un système de lutte contre la fraude sociale a été déclaré illégal en 2020, après avoir été attaqué par un groupe d’associations. En Pologne, c’est un algorithme utilisé sur les personnes sans-emploi qui a été déclaré inconstitutionnel en 2019. À chaque fois, les risques de discriminations, les difficultés de recours ou l’atteinte disproportionnée à la vie privée ont été dénoncées et reconnues.
Appel à témoignages
C’est dans ce cadre qu’un appel à témoignages est lancé en partenariat avec plusieurs organisations auprès de celles et ceux ayant fait l’objet d’un contrôle Pôle Emploi ou CAF ou auprès des agent·es du service public qui en ont été témoins. Nous espérons que vos témoignages nous aideront à mieux comprendre les politiques de contrôle et les algorithmes utilisés, et à documenter les pratiques abusives et discriminatoires. Sur ces sujets, la mobilisation n’en est qu’à ses débuts, et nous comptons nous y associer!
Voir par exemple les recommandations du rapport « Lutter contre les fraudes aux prestations sociales un levier de justice sociale pour une juste prestation », remis au premier ministre en 2019, disponible ici.
Ce point est d’autant plus édifiant que le travailleur en question avait déjà été contrôlé en 2017 et qu’à cette date le fait qu’il candidate par courrier était accepté par Pôle Emploi.
Voir par exemple l’article d’Olivier Tesquet « Comment l’intelligence artificielle cible les plus précaires », disponible ici ou encore les travaux de Lucie Inland.
On sait également que Pôle Emploi avance vers l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel », un outil fondé sur des techniques d’intelligence artificielle et qui, selon des témoignages que nous avons pu recueillir, aurait octroyé à des utilisateurs·ices un score d’employabilité de zéro.
Voir le rapport de la cour des comptes « La lutte contre les fraudes aux prestations sociales.» Cité ci-dessus, pp. 50. Par ailleurs, si nous ne connaissons pas aujourd’hui de manière précise la façon dont les données collectées par le « journal de la recherche d’emploi » seront utilisées, la convention tripartite Etat-Unédic-Pôle emploi 2019-2022 évoque leur utilisation dans le cadre de solutions d’intelligence artificielle « d’accompagnement ».
Voir le rapport d’Human Rights Watch « QA: how the EU’s flawed artifical intelligence regulation endangers the social safety net » disponible ici.
";s:7:"dateiso";s:15:"20211222_172244";}s:15:"20211214_124303";a:7:{s:5:"title";s:69:"Surveillance sonore : LQDN attaque l’expérimentation d’Orléans";s:4:"link";s:99:"https://www.laquadrature.net/2021/12/14/surveillance-sonore-lqdn-attaque-lexperimentation-dorleans/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=18029";s:7:"pubDate";s:31:"Tue, 14 Dec 2021 11:43:03 +0000";s:11:"description";s:290:"Nous venons de déposer un recours contre l’expérimentation de surveillance sonore d’Orléans.
Comme nous le décrivions la semaine dernière, la ville d’Orléans va équiper plusieurs de ses caméras de mouchards, c’est-à-dire de micros, pour détecter des…";s:7:"content";s:9243:"
Nous venons de déposer un recours contre l’expérimentation de surveillance sonore d’Orléans.
Comme nous le décrivions la semaine dernière, la ville d’Orléans va équiper plusieurs de ses caméras de mouchards, c’est-à-dire de micros, pour détecter des sons « anormaux », ce qui avait pourtant déjà été déclaré illégal par la CNIL à Saint-Étienne il y a deux ans. Nous envoyons donc à la CNIL une copie de ce recours. Elle ne peut désormais plus rester les bras croisés face à ce nouveau genre de surveillance illégale.
Nous l’avions dénoncé la semaine dernière, à côté du déploiement de la vidéosurveillance automatisée de l’espace public se développe un autre type de surveillance algorithmique : la surveillance sonore.
Comme pour la vidéosurveillance, il s’agit de déployer des capteurs pour détecter des évènements dits « anormaux » (cris, détonations, hausse du ton de la voix…) et pouvoir orienter la police si besoin. Le plus souvent, ces capteurs sont directement liés aux caméras pour faciliter le travail des agents présents dans le centre de surveillance : les capteurs sonores les aident à diriger les caméras vers le bon endroit pour identifier la source du bruit.
Bref, une Technopolice qui ne se contente plus seulement d’épier mais qui veut désormais écouter, et réduire au silence.
Le maire d’Orléans met sa population sous écoute
La convention, signée entre Orléans et Sensivic le 12 octobre 2021, a pour objet d’autoriser l’entreprise à déployer et tester ses dispositifs de « détection de sons, en particulier la détection automatisée de bruits anormaux ». Ces derniers « demandent à être couplés à un système de sécurité, et plus particulièrement ceux s’appuyant sur un système de vidéoprotection ».
Il y est même précisé que ces dispositifs permettent « d’analyser en permanence le son ambiant pour pouvoir détecter des anomalies ». Impossible de savoir exactement ce que recouvre cette notion d’anomalies, la convention n’en donne que quelques exemples ponctués de « … » : « cris, hurlements… », ou « percussions, détonations… ». Comme tout dispositif de Technopolice, l’anormalité n’est donc jamais précisément définie et laissée à la libre interprétation de la police ou de l’entreprise privée – au dépend de la population et de l’État de droit.
Le tout est « gracieusement offert » par l’entreprise à la ville, exactement comme pour les portiques de reconnaissance faciale dans les lycées de Nice et Marseille, ou la surveillance automatisée à Valenciennes. La ville prête sa population en tant que cobaye forcée à une entreprise de surveillance pour qu’elle puisse développer ses produits et en faire la promotion.
La CNIL reste sourde
Nous l’avions aussi rappelé : la CNIL a clairement déclaré illégale une expérimentation semblable ayant lieu à Saint-Étienne (nous avions eu communication du courrier, publié ici), c’est-à-dire une expérimentation en ville de capteurs sonores de « bruits anormaux » liés à des caméras de vidéosurveillance. L’autorité avait notamment considéré qu’il n’existait aucun texte permettant le déploiement de tels dispositifs de surveillance sonore et en avait conclu à leur illégalité.
Pourtant, depuis que le projet a officiellement et fièrement été annoncé par la mairie dans la presse il y a plus de deux mois, aucune communication de la CNIL n’est sortie pour dénoncer l’illégalité du projet.
Encore plus inquiétant : le site de Sensivic revendique des expérimentations dans plusieurs villes de France, sans que ne soit à un moment précisé quel dispositif est installé et où : Menton, Rognac, Valbonne…
Le silence de la CNIL, comme de toute autorité de contrôle, nous oblige à intervenir, aussi bien devant le tribunal administratif pour faire annuler cette convention d’expérimentation que devant la CNIL directement pour la forcer à appliquer de nouveau sa décision. Alors que la CNIL aurait pu se saisir elle-même de ces affaires et mener des contrôles, nous sommes aujourd’hui contraint·es de devoir la saisir formellement d’une plainte afin de ne plus lui laisser la possibilité de se défiler.
Opacité du déploiement et du contrôle
De nouveau, l’opacité du déploiement de ces dispositif est plus qu’alarmante : où en est-on de l’installation de ces dispositifs ? L’expérimentation a-t-elle commencé ? Impossible de le savoir.
Même problématique du côté de la CNIL : la ville d’Orléans a-t-elle communiqué avec la CNIL ? L’autorité a-t-elle commencé un contrôle, y a-t-il eu un avertissement de sa part ou même des inquiétudes sur l’installation des capteurs sonores ? La CNIL n’a pas communiqué dessus. Nous lui avons adressé une demande CADA qui est pour l’instant restée sans réponse.
Les insuffisances de la CNIL en matière de surveillance de l’espace public sont criantes : pendant plusieurs années, la police aura ainsi pu utiliser illégalement des drones sans que la CNIL ne s’en émeuve le moins du monde (elle se réveillera seulement après deux décisions du Conseil d’État suite à nos actions devant les tribunaux). Rien non plus sur Veesion, cette entreprise qui surveille le comportement des personnes dans les supermarchés. La liste est longue.
Et même quand elle agit, son action n’apparaît malheureusement pas suffisante pour restreindre le déploiement de cette Technopolice. Son avis sur l’expérimentation de Saint-Étienne, bien que médiatisé, n’a aucunement empêché Sensivic de déployer ses outils en France (ou Marseille d’équiper son métro de micros).
C’est pourquoi nous déposons un recours non seulement devant la CNIL pour la forcer à faire respecter sa propre décision, mais également devant le tribunal administratif. La procédure devant le tribunal administratif nous permet d’être partie au contentieux, c’est-à-dire d’avoir accès aux pièces et de pouvoir répondre aux arguments d’Orléans et de l’entreprise – ce qu’une procédure devant la CNIL ne permet malheureusement pas.
Voilà le cœur de la Technopolice : des villes qui prêtent leur population à des entreprises pour que celles-ci perfectionnent les dispositifs de surveillance qu’elles commercialisent et des autorités de contrôle qui restent silencieuses.
Comme nous combattons la vidéosurveillance automatisée ou la reconnaissance faciale, nous attaquons les mouchards qui ne sont qu’une énième facette de la surveillance algorithmique de nos espaces de vie. Nous refusons ces machines qui veulent espionner, écouter, identifier, pour mieux faire taire et réprimer. Ne laissons aucune place à la Technopolice.
";s:7:"dateiso";s:15:"20211214_124303";}s:15:"20211207_155732";a:7:{s:5:"title";s:35:"Orléans : le retour des mouchards";s:4:"link";s:72:"https://www.laquadrature.net/2021/12/07/orleans-le-retour-des-mouchards/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17995";s:7:"pubDate";s:31:"Tue, 07 Dec 2021 14:57:32 +0000";s:11:"description";s:296:"À Orléans, la municipalité a annoncé en octobre 2021 débuter une expérimentation consistant à équiper quatre caméras de vidéosurveillance de micros détecteurs de sons « anormaux », en partenariat avec l’entreprise Sensivic. Ces mouchards avaient pourtant été…";s:7:"content";s:7900:"
À Orléans, la municipalité a annoncé en octobre 2021 débuter une expérimentation consistant à équiper quatre caméras de vidéosurveillance de micros détecteurs de sons « anormaux », en partenariat avec l’entreprise Sensivic. Ces mouchards avaient pourtant été déclarés illégaux par la CNIL lorsque la ville de Saint-Étienne avait tenté d’en installer il y a deux ans.
De l’écoute urbaine couplée aux caméras
Le projet de la Mairie d’Orléans est d’installer des micros couplés aux caméras de vidéosurveillance pour que, dès qu’ils détectent un bruit « anormal », une alerte remonte au Centre de supervision urbain, c’est-à-dire dans la salle de commandement de la police où sont aussi acheminés les flux de vidéosurveillance. L’objectif de ce partenariat consiste à perfectionner ces dispositifs de détection sonore. L’argument principal de la municipalité pour ce dispositif est de dire que celui-ci respecte la vie privée, car le détecteur n’enregistrerait pas les sons mais un simple « paysage sonore ».
A la municipalité, c’est Florent Montillot (UDI), premier adjoint au maire à la sécurité qui porte ce projet. Il indique (à 3h01) que l’expérimentation est entièrement prise en charge par Sensivic, l’entreprise chargée d’installer et de gérer ces mouchards. Celle-ci cherche à améliorer et entraîner ses algorithmes afin, par exemple, de pouvoir différencier des cris de joie de ceux d’épouvante, ou d’identifier des bris de glace si une vitrine est cassée.
A noter que l’expérimentation n’a pas de durée déterminée, afin, selon Montillot, de permettre à Sensivic de faire toutes les recherches nécessaires.
La ville d’Orléans installe en effet ses détecteurs de sons anormaux pour permettre à une entreprise orléanaise de tester ses dispositifs sur ses habitant.es, l’ensemble du système étant « gracieusement » financé par ladite entreprise. Ce n’est pas sans rappeler ce qu’il se passe à Suresnes, où Two-I exerce ses algorithmes sur la population (lire notre article).
Sensivic en partenariat avec l’armée
Sensivic a été créé en 2015, à Sophia Antipolis, la technopole spécialisée en IA, et s’est depuis
installée à Orléans, au sein de Lab’O, un accélérateur de start-up numériques. Ses fondateurs, Pascale et Jean Demartini, travaillent sur leur produit principal Soundscanner depuis 2015 (voir sa fiche technique ici)
Le produit phare de l’entreprise, Soundscanner, boîtier à fixer sous les caméras.
Sensivic a aussi rejoint le projet LORIAS, un laboratoire d’innovation pour l’armée de l’air : « Le projet consiste à développer des solutions pour améliorer la collecte, la gestion et la transmission de données sensibles diffusées par des objets de « troisième dimension » (drones, capteurs, objets connectés…) » comme l’indique le journal local. Ainsi, des start-up orléanaises, dont Sensivic, travaillent pour l’armée de l’air aux côtés des champions nationaux que sont Thalès, Engie, Atos et Orange.
Pour résumer, la municipalité encourage une entreprise à tester et mettre aux points ses produits sur la population orléanaise pour le compte de l’armée française, de Thalès et d’autres.
La composition du projet LORIAS.
Tout comme à Saint-Étienne, le dispositif est illégal
Déjà en 2019, la métropole stéphanoise avait tenté de déployer un dispositif similaire, appelé cyniquement SOFT, pour Système d’Observation des Fréquences du Territoires, par l’entreprise Serenicity, une filiale de Verney-Carron, fabriquant de LBD et ami du maire de Saint-Étienne, Gaël Perdriau (voir notre article).
À l’époque, le collectif « Halte au contrôle numérique » s’était mobilisé à Saint-Étienne pour lutter contre ce projet de micros « intelligents » et qui devaient être reliés à une nuée de drones envoyés sur les lieux en cas de bruits suspects. Ils ont organisé des conférences, ateliers et déambulations sonores pour lutter contre l’écoute urbaine.
La CNIL s’est ensuite intéressée au sujet et a averti Saint-Étienne de l’illégalité de ce dispositif, considérant qu’il s’agissait d’un « traitement illicite de données à caractère personnel ». Le projet a depuis été mis aux cartons et lorsque nous avons croisé Serenicity à Milipol au mois d’octobre, celle-ci affirmait avoir complètement changé de braquet pour se spécialiser dans la cybersécurité des PME.
La nouvelle surveillance déployée à Orléans ne corrige pas les illégalités de la surveillance envisagée à Saint-Étienne, ce type de surveillance automatisée de données biométriques étant intrinsèquement contraire à la loi.
Conclusion
Des mouchards de Saint-Étienne à Orléans, le marché de la technopolice n’est jamais à court de nouveautés. Ce secteur juteux est en recherche de débouchés. Maintenant que la vidéosurveillance est largement déployée, certains aimeraient faire pulluler de nouveaux types de capteurs — ici, des micros.
Nous refusons que nos villes soient le terrain d’expérimentations d’entreprises pour améliorer leurs gadgets sécuritaires. Nous refusons d’être des cobayes pour que des start-up puissent revendre leurs technologies, sur le marché français ou pour l’armée. Nous refusons ces technologies, qui risquent ensuite d’être utilisées dans les banlieues, lors des manifestations, ou encore pour surveiller des frontières mortelles.
Rendez-vous au Labomédia à Orléans le vendredi 3 décembre à 18h30, et sur le forum Technopolice pour organiser notre refus !
";s:7:"dateiso";s:15:"20211207_155732";}s:15:"20211206_152240";a:7:{s:5:"title";s:83:"Retour des drones policiers – le Parlement doit saisir le Conseil constitutionnel";s:4:"link";s:120:"https://www.laquadrature.net/2021/12/06/retour-des-drones-policiers-le-parlement-doit-saisir-le-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17980";s:7:"pubDate";s:31:"Mon, 06 Dec 2021 14:22:40 +0000";s:11:"description";s:281:"La loi « responsabilité pénale et sécurité intérieure » a fini d’être examinée par le Parlement le 18 novembre dernier. Elle sera définitivement adoptée le 16 décembre. Elle prévoit notamment de ré-autoriser les drones policiers qui, l’an…";s:7:"content";s:31144:"
La loi « responsabilité pénale et sécurité intérieure » a fini d’être examinée par le Parlement le 18 novembre dernier. Elle sera définitivement adoptée le 16 décembre. Elle prévoit notamment de ré-autoriser les drones policiers qui, l’an dernier, avaient été interdits par le Conseil constitutionnel lors de la censure de la loi sécurité globale.
Non seulement la nouvelle loi ne corrige aucun des graves manquements qui avaient justifié la censure de la loi sécurité globale mais, plus grave, elle en ajoute de nouveaux. Notamment, elle autorise les images captées par drones à être analysées par reconnaissance faciale, ce que la loi sécurité globale avait explicitement interdit.
En théorie, tout devrait conduire à une nouvelle censure des drones dans cette nouvelle loi. Pourtant, le Conseil constitutionnel n’a toujours pas été saisi par les parlementaires. Depuis trois semaines, nous attendons que les différents groupes de gauche réunissent les 60 député·es ou 60 sénateur·ices nécessaires pour saisir le Conseil, ce qu’ils avaient réussi à faire sans soucis contre la loi sécurité globale.
Pour une raison incompréhensible, surtout en période électorale où on attendrait de l’opposition qu’elle joue toutes ses cartes, il semble que le Parti Socialiste hésite encore à attaquer cette nouvelle loi, dont la contrariété à la Constitution est pourtant plus importante que la précédente loi qu’il n’avait pas hésité à attaquer.
Au sein de l’Observatoire des Libertés et du Numérique1Les membres de l’OLN s’étant joints à cette analyse sont La Quadrature du Net, la Ligue des Droits de l’Homme, le Syndicat de la Magistrature et le CECIL., nous publions ci-dessous (ou en PDF) l’analyse juridique transmises aux députés et sénateurs de gauche le 16 novembre afin de les convaincre de saisir le Conseil constitutionnel (à noter qu’il s’agit d’une simple analyse juridique qui ne couvre pas l’ensemble de nos arguments politiques contre les drones policiers).
Analyse de constitutionnalité des articles 7 à 9 de la loi responsabilité pénale et sécurité intérieure
Articles 8 et 8 bis – Drones
Tout comme l’article 47 de la loi sécurité globale, les articles 8 et 8 bis autorisent la police administrative et la police judiciaire à déployer des drones de surveillance. Ces articles doivent être censurés par le Conseil constitutionnel pour deux raisons : ils échouent à présenter les garanties qui faisaient déjà défaut à l’article 47 et qui en avaient justifié la censure par le Conseil constitutionnel (I) ; ils présentent encore moins de garanties que cet article 47 (II).
I – Des garanties toujours absentes
La grande majorité des garanties qui faisaient défaut à la loi sécurité globale et qui en avait justifié la censure font aussi défaut à la nouvelle loi.
Finalités
Le Conseil constitutionnel a justifié la censure de la loi sécurité globale en rappelant la longue liste des finalités permettant la surveillance par drones (voir point 137 de sa décision).
En matière de police judiciaire et de police municipale, il faut reconnaître que le législateur a apporté quelques précisions utiles par rapport à la loi sécurité globale (par exemple, en matière municipale, la très large finalité consistant à « assurer l’exécution des arrêtés de police du maire » a été remplacée par une liste de finalités plus explicites : sécurité des événements public, régulations des transports, assistance aux personnes…).
En revanche, en matière de police administrative, la liste des finalités reste inchangée et toujours aussi excessive que le Conseil constitutionnel ne l’avait constaté pour la loi sécurité globale.
De plus, la nouvelle loi ajoute pour la police judiciaire une nouvelle finalité particulièrement large : la « recherche d’une personne en fuite ». La logique même de la fuite, couplée à la très grande mobilité des drones, est susceptible d’entraîner la surveillance de zones géographiques aussi larges qu’impossibles à anticiper.
Durée
Le Conseil a censuré de la loi sécurité globale au motif que « le législateur n’a lui-même fixé aucune limite maximale à la durée » des autorisations de déploiement des drones (point 138).
La nouvelle loi prévoit que l’autorisation rendue par le préfet en matière de police administrative ou de police municipale peut être renouvelée par le préfet tous les trois mois de façon illimitée. De même, elle prévoit que l’autorisation rendue par le procureur en matière de lutte contre les infractions ou de poursuite des personnes en fuite peut être renouvelée indéfiniment tous les mois.
Il n’y a que pour les recherches des causes de la mort ou des causes de la disparition que l’autorisation, renouvelable tous les quatre mois, est limitée par le législateur à une durée maximale de deux ans. Ce contraste souligne clairement que, en dehors de ce cas limité, les autorisations peuvent être renouvelles pour une durée à laquelle le législateur n’a fixé aucune limite maximale, contrairement aux exigences constitutionnelles.
Périmètre
De même, le Conseil a censuré la loi sécurité globale au motif que « le législateur n’a lui-même fixé […] aucune limite au périmètre dans lequel la surveillance peut être mise en œuvre » (point 138). Aujourd’hui, le législateur n’a toujours pas tenté de corriger ce manquement. La nouvelle loi continue de laisser la délimitation du périmètre surveillé à la discrétion du préfet ou du procureur sans que ce choix ne soit d’aucune façon circonscrit par la loi.
En pratique, cette absence de limitation empêchera toute autorité indépendante d’examiner au préalable la nécessité et la proportionnalité de la mesure de surveillance, contrairement à ce qu’exige le Conseil constitutionnel dans sa jurisprudence (voir décision 94-352 DC, 18 janvier 1995, §§ 6 et 12).
Par exemple, si le préfet de police autorise la surveillance par drones de l’ensemble de la région parisienne au cours des jeux olympiques de 2024, aucune autorité indépendante ne pourra examiner au préalable la nécessité de surveiller les lieux que la police choisira effectivement de surveiller. Cela permettrait par exemple aux agents de police, de leur seule décision et sans aucun contrôle extérieur préalable possible, de surveiller n’importe quelle manifestation ou local associatif situés dans la région parisienne grâce à cette autorisation. Ce n’est qu’a posteriori, une fois que l’atteinte aux libertés de la population aura été consommée et dans le cas hypothétique où elle en serait saisie, qu’une autorité extérieure pourra éventuellement examiner la mesure et demander à ce qu’elle prenne fin.
Subsidiarité
Le Conseil a censuré la loi sécurité globale au motif que le déploiement de drones ne présentait « pas un caractère subsidiaire » – autrement dit, que les drones pouvaient être déployés en l’absence de « circonstances liées aux lieux de l’opération [qui] rendent particulièrement difficile le recours à d’autres outils de captation d’image » (point 139). Cette garantie de subsidiarité fait toujours défaut dans la nouvelle loi : le préfet et le procureur ne sont toujours pas tenus de vérifier si d’autres outils moins intrusifs permettraient d’atteindre le même objectif avant d’autoriser le déploiement de drones.
Ce principe de subsidiarité est d’autant plus indispensable que l’article 10 de la directive européenne 2016/680 (dite « police-justice ») exige lui aussi que les données biométriques (telles que les images du visage) ou sensibles (tel que le fait de participer à une manifestation politique) ne puissent être traitées qu’en cas de « nécessité absolue » – autrement dit, si aucune autre mesure ne permet d’atteindre l’objectif poursuivi.
Or, dans sa décision du 22 décembre 2020 (décision n° 446155) qui a interdit les drones policiers à Paris, le Conseil d’État a lui-même souligné que « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement dans les circonstances actuelles, en l’absence de recours à des drones ». Le gouvernement n’a jamais pris la peine de chercher de telles preuves : il refuse de démontrer en quoi les drones seraient « nécessaires » à l’action quotidienne de la police – et échoue d’autant plus à en démontrer la « nécessité absolue ». Tant que le gouvernement refusera d’ouvrir un tel débat, le principe de subsidiarité exigé par le Conseil constitutionnel est incompatible avec le principe même de drones de surveillance.
Information
Le Conseil constitutionnel a censuré la loi sécurité globale au motif que l’information du public concernant les caméras mouvantes « n’est pas donnée lorsque « les circonstances l’interdisent » ou lorsqu’elle « entrerait en contradiction avec les objectifs poursuivis ». De telles exceptions permettent de déroger largement à cette obligation d’informer » (point 144).
Le caractère trop large de cette dérogation a justifié de censurer les dispositions qui en bénéficiaient, notamment l’article 48 autorisant les caméras embarquées, mais la disposition qui organisait cette information a elle-même survécu pour être codifiée à l’article L242-3 du code de la sécurité intérieure. La nouvelle loi ne modifie en rien cet article L242-3 mais prévoit d’y rattacher la nouvelle disposition autorisant les drones policiers. Cette nouvelle disposition devra être censurée de la même façon que le Conseil a censuré les dispositions de la loi sécurité globale bénéficiant des mêmes dérogations.
II – Des garanties en moins
La nouvelle loi devra aussi être censurée en ce qu’elle a retiré certaines des garanties prévues par la loi sécurité globale.
Reconnaissance faciale
La nouvelle loi propose de supprimer le second alinéa de l’article L242-1 du code de la sécurité intérieure qui, créé par la loi sécurité globale au sujet des drones, interdit « l’analyse des images issues de leurs caméras au moyen de dispositifs automatisés de reconnaissance faciale ».
La nouvelle loi remplace cette ancienne interdiction générale par une disposition bien plus limitée, introduite à l’article L242-4 de ce même code : l’interdiction d’installer des logiciels de reconnaissance faciale sur les drones eux-mêmes.
En comparaison avec le droit actuel, désormais, plus rien n’empêchera les images captées par drones d’être analysées par des logiciels de reconnaissance faciale installées sur d’autres dispositifs que les drones eux-mêmes. Or, la loi prévoit déjà que les images seront transmises en temps réel aux ordinateurs du poste de commandement et, en pratique, ce sera sur ces ordinateurs que les images seront le plus facilement et le plus efficacement analysées. Cette analyse pourra notamment être un rapprochement par reconnaissance faciale avec l’une des 9 millions de photographies contenues dans le fichier de traitement des antécédents judiciaires (TAJ), tel que prévu par le décret du 4 mai 2012 – ce que la loi sécurité globale avait jusqu’alors interdit explicitement.
Intérieur des domiciles
La loi sécurité globale exigeait que les captations d’image par drones soient « réalisées de telle sorte qu’elles ne visualisent pas les images de l’intérieur des domiciles ». La nouvelle loi prévoit désormais que les drones pourront capter de telles images si cette captation est réalisée par inadvertance – si les drones « ne visent pas à recueillir les images de l’intérieur des domiciles », mais les recueillent malgré tout. La loi prévoit désormais que les images ainsi captées seront conservées 48 heures afin d’être transmises au procureur si elles révèlent une infraction.
Une telle situation n’était pas permise par la loi sécurité globale qui s’opposait tout simplement à l’existence de telles images, tel qu’exigé par le Conseil constitutionnel dans sa jurisprudence (voir par exemple sa décision 94-352 DC, point 5) ainsi que dans sa décision contre la loi sécurité globale (point 144).
Autorisation facultative
La nouvelle loi reprend la procédure d’autorisation préalable du préfet prévue par la loi sécurité globale en matière de police administrative, mais lui ajoute une nouvelle exception. Désormais, lorsque les agents de terrain considéreront que « l’urgence résultant d’une exposition particulière et imprévisible à un risque d’atteinte caractérisée aux personnes ou aux biens le requiert », ils pourront se passer de l’autorisation du préfet et faire décoller des drones de leur propre chef pour une durée de 4 heures.
Cette absence d’autorisation préalable est en totale contradiction avec les exigences dégagées par le Conseil constitutionnel en matière de surveillance vidéo : le législateur « ne peut subordonner à la diligence de l’autorité administrative l’autorisation d’installer de tels systèmes sans priver alors de garanties légales les principes constitutionnels » protégeant la liberté d’aller et venir, la vie privée et l’inviolabilité du domicile (Conseil constit., 94-352 DC, 18 janvier 1995, point 12).
C’est notamment pour cette raison que le Conseil constitutionnel a censuré les dispositions relatives aux caméras embarquées dans la loi sécurité globale : « la décision de recourir à des caméras embarquées relève des seuls agents des forces de sécurité intérieure et des services de secours » (décision 2021-817 DC, §147). Désormais, cette critique devra être étendue aux dispositions de surveillance par drones qui devront être censurées pour les mêmes raisons.
Information
Comme vu plus avant, la loi sécurité globale a ajouté un article L242-3 au code de la sécurité intérieure pour organiser la façon dont le public aurait du être informé du déploiement de drones par la police administrative, municipale ou judiciaire. Cette information prévoyait des dérogations jugées trop larges par le Conseil constitutionnel. Toutefois, aussi imparfaite était-elle, cette information avait au moins le mérite de constituer une potentielle base de travail à améliorer.
Non seulement la nouvelle loi ne corrige pas cette information (tel qu’exposé plus avant) mais, plus grave, elle en exclut désormais les drones déployés par la police judiciaire, qui ont été déplacés du code de la sécurité intérieure vers le code de procédure pénale qui ne prévoit plus la moindre information du public, ce qui était pourtant une garantie essentielle exigée par le Conseil dans sa décision contre la loi sécurité globale (point 144).
Article 9 – Caméras embarquées
L’article 9 de la nouvelle loi autorise la captation d’images à partir de caméras embarquées sur les navires, camions et voitures des autorités publiques. Pour ce faire, cet article 9 reprend presque à l’identique, en l’aggravant, l’article 48 de la loi sécurité globale que le Conseil constitutionnel avait entièrement censuré.
Absence d’autorisation
La principale raison pour laquelle le Conseil constitutionnel avait censuré l’article 48 est que, contrairement à ce que prétendait faire l’article 47 pour les drones, la loi sécurité globale ne prévoyait aucune forme d’autorisation extérieure s’agissant des caméras embarquées : « la décision de recourir à des caméras embarquées relève des seuls agents des forces de sécurité intérieure et des services de secours. Elle n’est soumise à aucune autorisation, ni même à l’information d’une autre autorité » (point 147).
La nouvelle loi ne prétend même pas répondre à ce problème. De même que pour la loi sécurité globale, ce sont les agents qui, seuls, décideront comment et quand surveiller la population. L’article 9 de la nouvelle loi doit être censuré pour ce seul motif.
Finalités
L’article 48 de la loi sécurité globale dressait une liste explicite et exhaustive des finalités qui auraient permis de capter, de transmettre et d’exploiter les enregistrements réalisés à partir de caméras embarquées. Le Conseil constitutionnel rappelait la longue liste de ces finalités pour justifier la censure de la loi : « prévenir les incidents au cours des interventions, faciliter le constat des infractions et la poursuite de leurs auteurs par la collecte de preuves, assurer la sécurité des rassemblements de personnes sur la voie publique ou dans des lieux ouverts au public, faciliter la surveillance des littoraux, des eaux intérieures et des zones frontalières ainsi que le secours aux personnes et la lutte contre l’incendie, et réguler les flux de transport » (point 145).
Plutôt que de réduire ou de préciser cette liste, l’article 9 de la nouvelle loi change entièrement de logique : il ne prévoit plus aucune finalité, mais se contente de prévoir que les caméras embarquées pourront être activées « lorsque se produit ou est susceptible de se produire un incident ». Avec cette nouvelle logique, la loi ne décrit plus ni la nature des « incidents » justifiant la surveillance (il pourrait à la fois s’agir d’infractions, de troubles à l’ordre public, d’altercations ou de simples désaccords avec les personnes contrôlées) ni l’objectif même de cette surveillance (il pourrait à la fois s’agir de collecter des preuves pour une future enquête judiciaire, de constituer des éléments pédagogiques, de contrôler la déontologie des agents ou de participer au travail des services de renseignement, notamment en manifestation).
Seules les étapes ultérieures de transfert et d’exploitation des enregistrements sont encore limitées à certaines finalités, par ailleurs excessivement larges et vagues : assurer la « sécurité des agents » et « faciliter l’établissement fidèle des faits ». Mais l’étape initiale de captation des images, elle, échappe entièrement à la logique des finalités. Cette logique est pourtant au cœur du droit des données personnelles, qu’on retrouve tant à l’article 4 de la loi informatique et liberté (les données doivent être « collectées pour des finalités déterminées, explicites »), qu’à l’article 5 du RGPD ou à l’article 4 de la directive police-justice. Tout traitement doit décrire clairement sa finalité, à défaut de quoi il est impossible d’en évaluer la proportionnalité ou de limiter au strict minimum les données traitées. Au contraire, en pratique, l’absence de finalité explicite incite le responsable de traitement à collecter un maximum de données dans la perspective qu’elles puissent servir à une finalité qui n’a pas encore été identifiée.
L’article 9 de la nouvelle loi doit être censuré pour ce seul manquement à l’essence du droit des données personnelles – manquement dont ne souffrait pas l’article 48 de la loi sécurité globale que le Conseil constitutionnel a pourtant censuré.
Durée et périmètre
De même qu’exposé ci-avant pour les drones, le Conseil constitutionnel a censuré l’article 48 car, « si ces mêmes dispositions n’autorisent la mise en œuvre de ces caméras embarquées que pour la durée strictement nécessaire à la réalisation de l’intervention, le législateur n’a lui-même fixé aucune limite maximale à cette durée, ni aucune borne au périmètre dans lequel cette surveillance peut avoir lieu » (point 146).
Le législateur n’a pas pris la peine d’essayer de corriger ces deux manquements dans la nouvelle loi.
Intérieur des immeubles
Le Conseil constitutionnel a censuré l’article 48 au motif que les caméras embarquées pouvaient capter des images « y compris, le cas échéant, de l’intérieur des immeubles » (point 144).
De même qu’exposé ci-avant pour les drones, plutôt que de corriger ce problème, l’article 9 de la nouvelle loi prévoit désormais que, lorsque les caméras embarquées captent de telles images par inadvertance, elles sont conservées pendant 48 heures afin de pouvoir être transmise au procureur si elles révèlent une infraction.
Information
Tel qu’exposé ci-avant, le Conseil constitutionnel a censuré la loi sécurité globale au motif que l’information des personnes concernées quant aux mesures de surveillance « n’est pas donnée lorsque « les circonstances l’interdisent » ou lorsqu’elle « entrerait en contradiction avec les objectifs poursuivis ». De telles exceptions permettent de déroger largement à cette obligation d’informer.
L’article 9 de la nouvelle loi reproduit exactement ce même manquement puisqu’il prévoit de déroger à l’information du public « si les circonstances de l’intervention l’interdisent » ou s’agissant de « missions impliquant l’absence d’identification du service concerné ».
Article 7 – Caméras en cellule
L’article 7 de la nouvelle loi reprend l’article 41 de la loi sécurité globale que le Conseil constitutionnel avait entièrement censuré. Il autorise la vidéosurveillance des cellules de garde à vue et des cellules de retenue douanière – alors que l’article 41 concernait les gardes à vue et les centres de rétention administrative.
Les deux lois partagent les trois mêmes finalités : prévenir les risques d’évasion, prévenir les menaces sur la personne ou sur autrui, conserver des preuves dans le cadre de procédures judiciaires ou administratives. Les deux lois partagent aussi les mêmes modalités : enregistrement en continu, visionnage en temps réel, pare-vue supposé garantir « l’intimité de la personne tout en permettant la restitution d’images opacifiées », absence de dispositif biométrique ou de captation de son.
Le Conseil constitutionnel avait censuré l’article 41 de la loi sécurité globale pour trois manquements dont deux sont partagés avec ce nouvel article 7.
Premièrement, les dispositions de la loi sécurité globale ont été censurées car elles « permettent au chef du service responsable de la sécurité des lieux de décider du placement sous vidéosurveillance », et ce sans avoir à obtenir l’autorisation de l’autorité judiciaire (point 86). L’article 7 de la nouvelle loi offre exactement les mêmes pouvoirs au chef de la sécurité qui décidera seul du placement sous vidéosurveillance.
Deuxièmement, la loi sécurité globale a été censurée car « le traitement des images ainsi recueillies peut avoir pour finalité la collecte de preuves » (point 86). L’article 7 de la nouvelle loi prévoit que les enregistrements peuvent être « utilisés dans le cadre d’une procédure judiciaire, administrative ou disciplinaire » et bénéficient dans ce cadre d’une dérogation à la durée de conservation initiale de sept jours pour être conservés aussi longtemps que la procédure le requiert. Cette finalité s’inscrit exactement dans l’interdiction formulée par le Conseil constitutionnel, ce qui nécessite que la disposition soit à nouveau censurée.
Troisièmement, la loi sécurité globale a été censurée car la mise sous surveillance de 48 heures « peut être renouvelée sur la seule décision du chef de service responsable de la sécurité des lieux, et sous l’unique condition d’en informer le procureur de la République » (point 87). L’article 7 semble avoir corrigé ce manquement : la mise sous surveillance décidée par le chef de la sécurité ne dure plus que 24 heures et ne peut être renouvelée qu’avec l’autorisation du procureur.
Si cette évolution répond à l’une des trois critiques formulées par le Conseil constitutionnel, ses effets seront limités en pratique et ne suffiront pas à combler les deux autres manquement : en 2019, sur le 417 000 mesures de garde à vue recensées, 298 000 ont duré moins de 24 heures (rapport d’activité 2020 de la Contrôleure générale des lieux de privation de liberté). Ainsi, les deux manquements que la nouvelle loi n’a pas corrigés (décision arbitraire du chef de la sécurité et possibilité de collecter des preuves) continueront de concerner 71% des mesures de gardes à vue et justifient à eux seuls de censurer l’article 7 de la nouvelle loi.
Les membres de l’OLN s’étant joints à cette analyse sont La Quadrature du Net, la Ligue des Droits de l’Homme, le Syndicat de la Magistrature et le CECIL.
";s:7:"dateiso";s:15:"20211206_152240";}s:15:"20211118_201216";a:7:{s:5:"title";s:58:"Rallumez les ombres, faites un don à la Quadrature du Net";s:4:"link";s:97:"https://www.laquadrature.net/2021/11/18/rallumez-les-ombres-faites-un-don-a-la-quadrature-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17892";s:7:"pubDate";s:31:"Thu, 18 Nov 2021 19:12:16 +0000";s:11:"description";s:253:"Plus aucun espace de nos vies n’échappe à la surveillance.
Nos ordinateurs connectés sont truffés de pisteurs publicitaires, nos téléphones sont des mouchards de poche, les caméras dans les rues commencent à observer nos démarches…";s:7:"content";s:9936:"
Plus aucun espace de nos vies n’échappe à la surveillance.
Nos ordinateurs connectés sont truffés de pisteurs publicitaires, nos téléphones sont des mouchards de poche, les caméras dans les rues commencent à observer nos démarches et analyser nos visages.
Les lumières n’ont aujourd’hui plus aucun rapport avec la recherche de la vérité ou de la liberté : elles sont accaparées par les néons publicitaires et les projecteurs policiers. Consommer et contrôler, voilà notre vie dans la lumière crue, sous des « lumières » si puissantes qu’elles ont changé la couleur du ciel. Les organisateurs du désastre voudraient même transformer le ciel en mirador, avec leurs drones téléguidés.
Qu’est devenue l’obscurité refuge ? Où est passée la nuit apaisante ? Qui se souvient de la pénombre ? Où sont ces espaces non surveillés où nous pouvons encore parler, créer, tester, contester, être non conformes, minoritaires, libres, et tout simplement vivre ? Ils sont trop rares, trop dispersés, trop isolés, comme des poches de résistance, comme les derniers îlots d’un archipel que l’eau finira bientôt par engloutir.
La technoville automatise la police et le déni de justice, elle déshumanise les rapports sociaux et systématise la traque des ombres clandestines : caméra sur la silhouette qui peint une fresque sur un mur, projecteur sur la silhouette qui distribue du réconfort et des vivres aux âmes dont la rue est le dernier refuge.
L’assaut sécuritaire sur nos espaces communs transforme les villes, non pas en espaces publics, mais en espaces impersonnels. L’ordre imposé renforce les discriminations, muselle les mouvements sociaux, dépolitise nos rues. Ou plutôt, impose à tout propos la sécurisation policière comme politique unique.
De plus en plus de villes, de rues, de places du pays sont surveillées par les mêmes logiciels, vendus par les mêmes sociétés cyniques. Partout nos villes sont remodelées par la même logique de contrôle, de méfiance, et d’enfermement.
Nous ne pouvons pas éternellement nous cacher derrière des capuches et des messages chiffrés. Le moment est venu de reconquérir la rue, de libérer les réseaux, d’affirmer que la surveillance est caduque.
La Quadrature travaille depuis plus de dix ans pour empêcher qu’Internet ne devienne une galerie marchande surveillée par une censure arbitraire. Par l’initiative Technopolice, lancée il y a deux ans, elle tente aussi de documenter et de faire reculer la mise sous surveillance des villes et des espaces publics.
Face à la dystopie qui est notre présent, nous essayons de retisser des fragments de nuit, de recréer des espaces sans surveillance.
Aidez-nous à rallumer la nuit, faites un don à La Quadrature
COMBIEN AVEZ-VOUS DONNÉ ?
1%
Cette année nous avons besoin de rassembler 270 000 € pour que notre budget 2022 soit à l’équilibre.
Grâce à nos donatrices et à nos donateurs régulier·es, nous recevons environ 10 000 € chaque mois (120 000 € par an).
Il faut donc réunir au moins 150 000 € supplémentaires pour passer l’année 2022.
Aidez-nous !
PARLEZ DE LA CAMPAGNE AUTOUR DE VOUS
POURQUOI DONNER À LA QUADRATURE ?
Pour faire le travail qui est le sien, l’association a une fantastique équipe de membres bénévoles, mais elle a besoin d’une équipe salariée. Elle se finance grâce à vos dons. L’association ne touche aucun argent public, mais elle reçoit des subventions, à hauteur de 18 % de son budget, de la part de plusieurs fondations philanthropiques : la FPH, DFF et, jusqu’à fin 2021, l’OSF. Tout le reste provient de la générosité des personnes qui estiment que nos droits et nos libertés doivent être défendues sans relâche.
COMMENT DONNER ?
Vous pouvez faire un don par CB sur notre site, par chèque, ou encore par virement bancaire. Et si vous pouvez faire un don mensuel — même un tout petit ! — n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, les dons mensuels nous permettent de travailler avec plus de confiance dans la pérennité de nos actions. En plus, le cumul de vos dons vous donne droit à des contreparties (sac, t-shirt, sweat, etc.)
DE NOUVEAUX PALIERS POUR LES CONTREPARTIES
Notre système de contreparties fonctionne par paliers. Il faut cumuler 64 € pour un tote-bag aux couleurs de La Quadrature, 128 € pour un t-shirt et un sac, et 314 € pour un sweat, un tee-shirt et un sac. Attention, l’envoi n’est pas automatique, il faut vous connecter et faire la demande sur votre page personnelle de donateur/donatrice.
Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et aussi parce qu’on fait tout ça nous-mêmes avec nos petites mains. Mais elles finissent toujours par arriver !
Merci encore pour votre générosité, et merci beaucoup pour votre patience <3
À QUOI SERVENT VOS DONS ?
Tout simplement à faire exister l’association. La Quadrature du Net emploie actuellement une équipe de 7 salarié·es à plein temps. C’est encore trop peu, pour tout le travail à abattre. Quand on en parle avec nos collègues à l’étranger, l’étonnement est toujours le même : « Vous êtes aussi peu nombreux pour faire tout ça ? ». En 2021, vos dons nous ont permis de récolter 285 000 €, soit 79 % de nos recettes. Nos dépenses pour l’année se montent à 295 000 €. Pour l’année qui vient, nous nous fixons un objectif de 270 000 € de dons.
Les dons recueillis servent principalement à payer les salaires des permanentes de l’association (85 % des dépenses). Viennent ensuite le loyer et l’entretien du local, les déplacements en France et à l’étranger (en train uniquement) et les divers frais matériels propres à toute activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).
Quand on ventile toutes les dépenses (salaires inclus) sur nos campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
Dons de matériel
La Quadrature du Net a aussi des besoins en matériel ! Que ce soit pour des actions que nous menons, pour nous permettre de fonctionner correctement en interne, ou pour nous faciliter la vie ! Si vous avez, parmi la liste ci-dessous, du matériel que vous souhaitez nous faire parvenir, écrivez-nous sur notre adresse de contact en précisant bien :
Quel matériel vous souhaitez donner.
L’état du matériel (seconde main, achat neuf, fabrication artisanale, etc.).
La quantité.
Le mode de livraison (envoi postal, dépôt au locaux, etc.).
Des photos quand c’est possible.
Pour des raisons d’hygiène, nous ne pouvons pas accepter des dons de nourriture, matériaux périssables, ou dangereux.
Voici la liste des besoins actuels, mise à jour le 18 novembre 2021 :
Une imprimante A3 laser, N&B + Couleur, compatible Linux.
Webcam HD, compatible Linux.
Machine à café en grain (oui, bon, ça c’est en plus, mais le Garage est consommateur de café :D)
";s:7:"dateiso";s:15:"20211118_201216";}s:15:"20211019_133837";a:7:{s:5:"title";s:46:"69 organisations contre la loi « Drone 2 »";s:4:"link";s:79:"https://www.laquadrature.net/2021/10/19/46-organisations-contre-la-loi-drone-2/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17733";s:7:"pubDate";s:31:"Tue, 19 Oct 2021 11:38:37 +0000";s:11:"description";s:278:"Avec 69 organisations, nous publions cette lettre ouverte contre la loi « drone 2 », actuellement débattue par les sénateurs (relire notre analyse). Nous invitons vos organisations à signer notre lettre en nous écrivant à contact@laquadrature.net (objet:…";s:7:"content";s:12515:"
Avec 69 organisations, nous publions cette lettre ouverte contre la loi « drone 2 », actuellement débattue par les sénateurs (relire notre analyse). Nous invitons vos organisations à signer notre lettre en nous écrivant à contact@laquadrature.net (objet: « signature lettre ouverte drone 2 ») et en diffusant cette lettre sur vos sites et réseaux. Merci beaucoup !
Lettre ouverte contre la loi « Drone 2 »
Le gouvernement est de retour pour autoriser les systèmes de surveillance qui, d’abord prévus dans la loi Sécurité globale, avaient été censurés par le Conseil constitutionnel en mai 2021. Cette nouvelle loi « relative à la responsabilité pénale et à la sécurité intérieure », a déjà été adoptée par l’Assemblée nationale le 23 septembre dernier. Le Sénat l’examinera le 18 octobre. Il doit la rejeter : contrairement à ce que prétend le gouvernement, ces systèmes de surveillance nuiront tant à notre liberté qu’à notre sécurité, dès lors qu’ils organisent l’escalade technologique des violences policières.
Les articles 8 et 9 autoriseront la surveillance par drone, hélicoptère et voiture. Depuis plus d’un an, la police déploie illégalement des drones pour nous surveiller, malgré deux interdictions du Conseil d’État, une sanction de la CNIL et une censure du Conseil constitutionnel. Les drones sont inutiles aux actions de médiation, d’apaisement et de dialogue avec la population. Ce sont des outils démultipliant les capacités de surveillance et de contrôle, qui facilitent avant tout les interventions violentes de la police, notamment en manifestation afin de dissuader les militant·es d’exercer leurs libertés de réunion et d’expression politique.
L’article 7 autorisera la vidéosurveillance des cellules de garde-à-vue. Le gouvernement prétend agir pour « diminuer les risques de suicide, d’automutilation, d’agression », comme s’il se souciait soudainement du bien-être des personnes qu’il réprime. Plutôt que de protéger les personnes arrêtées, il s’agira de renforcer les pressions et violences psychologiques causées contre elles par l’enfermement et une surveillance de chaque instant sans aucune garantie ni limitation sérieuse.
L’article 16 autorisera la police à recourir à la violence physique pour obtenir les empreintes digitales et la photographie des personnes suspectées d’avoir commis une infraction punissable d’au moins trois ans de prison. Cette violence pourra s’exercer contre des enfants de 13 ans, pour peu que la police les suspecte d’avoir commis une infraction punissable de cinq ans de prison. Les empreintes et photos ainsi obtenues pourront être recoupées avec les fichiers de police existants, notamment par reconnaissance faciale.
Cette loi organise un monde où les développements technologiques renforcent et justifient les violences que la police peut exercer contre la population. Cette escalade de la violence ne repose sur aucun besoin objectif qui serait soutenu par des études ou des chiffres concrets. Elle ne semble viser qu’au développement d’un État policier qui, une fois en place, ne s’encombrera pas des limites que le droit aurait tenté de lui poser (les quatre interdictions rendue l’an dernier n’ont pas empêché la police de déployer des drones, encore aujourd’hui1Le Canard Enchaîné, 11 août 2021, Le préfet de police viole l’espace aérien, Didier Hassoux. : Capture).
Pour ces raisons, l’ensemble de ces mesures doivent être rejetées.
Ces dispositifs de surveillance ne sont pas les seuls dans cette loi susceptible de poser bien d’autres problèmes, pour aller plus loin :
Le Canard Enchaîné, 11 août 2021, Le préfet de police viole l’espace aérien, Didier Hassoux. : Capture
";s:7:"dateiso";s:15:"20211019_133837";}s:15:"20211015_154035";a:7:{s:5:"title";s:37:"JO 2024 : la frénésie sécuritaire";s:4:"link";s:72:"https://www.laquadrature.net/2021/10/15/jo-2024-la-frenesie-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17742";s:7:"pubDate";s:31:"Fri, 15 Oct 2021 13:40:35 +0000";s:11:"description";s:289:"En 2024, Paris organisera les Jeux Olympiques d’été, l’occasion pour le gouvernement français et les industriels de s’allier pour tester, déployer et normaliser leur arsenal de nouveaux dispositifs de surveillance : drones, reconnaissance faciale, analyses de…";s:7:"content";s:13889:"
En 2024, Paris organisera les Jeux Olympiques d’été, l’occasion pour le gouvernement français et les industriels de s’allier pour tester, déployer et normaliser leur arsenal de nouveaux dispositifs de surveillance : drones, reconnaissance faciale, analyses de comportements… On revient ici sur ce que l’on sait aujourd’hui de ce projet dystopique, sur ce qui a déjà été testé et sur la résistance qui s’organise.
Les Jeux Olympiques, accélérateurs de surveillance
Les Jeux Olympiques sont depuis longtemps l’occasion d’une intensification des outils de surveillance de la population. Cela avait été le cas pour Pékin en 2008, avec un déploiement massif de caméras dans les rues et dans les transports en commun. Mais aussi à Rio de Janeiro où dès 2010, en préparation des JO de 2016, l’entreprise IBM profitait de cette occasion pour développer son Integrated Operation Centre, « Centre de commande et de coordination ». Ce centre de commande visait à agglomérer les données de la municipalité, des collectivités, des transports publics, de la météo, etc., dans le but d’obtenir de l’information en temps réel et de construire des modèles prédictifs de gestion de la ville. C’est le début du fantasme du pilotage à distance de la ville.
Enfin, les JO de Tokyo 2020 —qui ont finalement eu lieu à l’été 2021 — se positionnent comme les Jeux Olympiques ayant employé le plus de gadgets technologiques (voitures autonomes, robots, etc.) et les premières utilisations de la reconnaissance faciale. Cette dernière était prévue pour filtrer l’accès à certains lieux (en scannant les visages des athlètes, des journalistes, etc.) à l’aide d’un système fourni par l’entreprise japonaise NEC et la française Atos (également présente aux JO 2024). Plusieurs associations avaient ainsi dénoncé, en juillet 2021, le danger de la surveillance biométrique déployée à Tokyo. Si à Tokyo la reconnaissance faciale a été mise en place sur un public fortement limité par la crise sanitaire, les JO de Paris 2024 seraient le premier grand événement à déployer ce type de dispositif sur des millions de visiteurs et visiteuses.
Voici que les grands évènements deviennent des accélérateurs et transformateurs de la sécurité. Ils permettent de faire entrer dans le droit commun certaines technologies et pratiques jusqu’alors illégales, faisant ainsi sauter le verrou qui en bloquait la massification. En plein vote, la loi Drone 2 est à replacer dans le contexte des futurs Jeux Olympiques : le ministère de l’Intérieur a déjà acheté 600 drones et il voudrait pouvoir les utiliser pour les Jeux Olympiques.
Industriels et gouvernement main dans la main
Le gouvernement français ne compte pas non plus rater son rendez-vous de 2024. Michel Cadot, le délégué interministériel aux Jeux, considère ainsi que « la question de la sécurité est prioritaire » quand, de son côté, le préfet Pierre Leutaud souligne que « les innovations technologiques seront un atout majeur ». En septembre dernier, Jean-Michel Mis, député de la majorité, a rendu au Premier ministre un rapport tout entier destiné à la légalisation de ces nouveaux dispositifs de surveillance poussant à l’adoption d’une loi facilitant la surveillance biométrique pour les Jeux.
C’est encore plus franc du côté des industriels de la sécurité, qui se sont regroupés dans un comité intitulé « GICAT » — « Groupement des industries françaises de défense et de sécurité terrestre et aéroterrestre » —, un lobby de pression sur les pouvoirs publics visant à faciliter le déploiement de leurs dispositifs de surveillance. Son délégué, Gérard Lacroix, n’a aucun problème à souligner que les JO seront un enjeu essentiel pour les entreprises françaises et qu’il compte bien faire comprendre aux parlementaires la nécessité de « faire évoluer certains textes » trop restrictifs. Comprendre : les textes qui protègent les libertés.
Autres lobbies, ceux du « Comité Filière Industrielle de sécurité » pour « COFIS » (sorte de lien institutionnel entre les principales industries sécuritaires et le gouvernement) et du « Safe Cluster » (un « pôle de compétitivité des filières sécurité et sûreté »), tous deux directement à l’origine d’un site de lobby « J’innove pour les JO ».
Signalons enfin que l’État a déjà commencé à soutenir financièrement ces projets. Comme nous l’écrivions ici, l’Agence Nationale de la Recherche (ANR) a déjà financé à hauteur de plusieurs millions d’euros des expérimentations de vidéosurveillance automatisée (surveillance des réseaux sociaux, mouvements suspects, reconnaissance faciale), alors même que la plupart de ces projets sont purement illégaux.
Les préparations en amont : expérimentations en folie
Les JO se préparent de longue date et la coupe du monde de Rugby en 2023 semble se profiler pour être une sorte de répétition générale sécuritaire. Mais avant cela, il faut mettre au point les technologies, former les agent·es qui les utiliseront et anticiper les réactions du public. Il s’agit d’abord de financer, d’expérimenter en grandeur nature des technologies illégales. Alors que le cadre législatif n’autorise en aucun cas – pour l’instant – ce type de traitement des données biométriques, les industriels et les pouvoirs publics passent par le procédé très commode des « expérimentations ». Celles-ci, de par leur cadrage temporel et spatial, rendraient la surveillance (et la violation de la loi) plus « acceptable » – c’est d’ailleurs tout l’angle pris par Jean-Michel Mis dans son rapport technopolicier.
Ainsi, dès 2020, des expérimentations étaient prévues et confirmées en France, notamment pour essayer des dispositifs de reconnaissance faciale. À Metz, en 2020, un dispositif de reconnaissance faciale a ainsi été testé à l’entrée du stade, s’attirant les critiques de la CNIL (pour l’illégalité du projet) et des supporters.
Ce fut aussi le cas lors du tournoi Roland Garros, à l’automne 2020, où la Fédération Française de Tennis (FFT), en partenariat avec le Comité Stratégique de Filière « Industries de Sécurité » et l’équipe de marque des JOP 2024, a accueilli plusieurs expérimentations, comme annoncé au Sénat.
Les municipalités en profitent pour s’inscrire dans l’agenda sécuritaire
Au-delà de ces expérimentations, plusieurs collectivités s’organisent pour transformer en profondeur leur arsenal sécuritaire. C’est le cas d’Élancourt qui accueillera certaines compétitions des JO et qui a signé en 2019 un contrat avec l’entreprise GENETEC pour expérimenter de nouveaux types de vidéosurveillance. L’objectif de la ville est même de devenir une « vitrine » pour l’entreprise, avec un nouveau commissariat pour 2024.
C’est également le cas de Saint-Denis, où un centre de supervision urbain (CSU) flambant neuf a vu le jour en 2021. Le parc technique, aujourd’hui doté de 93 caméras, va être élargi pour atteindre les 400 caméras d’ici 2024 en vue des Jeux Olympiques. Et les élus planifient déjà de doter la vidéosurveillance d’intelligence artificielle pour automatiser la constatation des infractions.
Ainsi, les élu·es en profitent pour renouveler leurs dispositifs de surveillance et accélérer l’installation de technologies, surfant sur la vague sécuritaire.
Lutter contre les Jeux Olympiques et le monde qu’ils incarnent
Depuis longtemps, les Jeux Olympiques soulèvent réticences et contestations de la part des habitant·es des villes accueillant les épreuves, fissurant l’image parfaitement polie produite par le CIO et les métropoles. Au fil des années, les luttes contre les Jeux Olympiques et le monde qu’ils représentent se multiplient et se coordonnent à travers le monde.
En France, les collectifs NON aux JO 2024 et Saccage 2024 mettent l’accent sur le pillage social, écologique et sécuritaire que sont les JO 2024. La lutte s’était cristallisée autour des Jardins ouvriers d’Aubervilliers et du plan prévoyant leur remplacement par un solarium attachée à une piscine d’entraînement. Une occupation des terres avait même été lancée. Jusqu’à l’expulsion des militant·es et de la destruction de ces jardins, quelques jours avant qu’une partie du projet ne soit déclarée illégale par la justice. Des événements s’organisent, comme ici, à Aubervilliers, le 16 octobre, pour faire face à l’agression olympique qu’il s’agisse du cas d’Aubervilliers, d’autres villes ou plus généralement des questions de surveillance (lire la tribune « Non au Big Brother Olympique »).
Conclusion
La semaine prochaine s’ouvrira à Paris le salon Milipol, un des plus gros salons internationaux de sécurité intérieure. Un rendez-vous international de la répression. La crème de la technologie française s’exposera : Thalès, Evitech, Two I, Atos ou encore Idémia. Au programme notamment, un retour sur le G7 de Biarritz, considéré comme un modèle à suivre en termes de gestion de grands événements. Des inspirations pour les JO 2024 ?
";s:7:"dateiso";s:15:"20211015_154035";}s:15:"20211007_143730";a:7:{s:5:"title";s:58:"Carte d’identité biométrique : sa genèse macronienne";s:4:"link";s:90:"https://www.laquadrature.net/2021/10/07/carte-didentite-biometrique-sa-genese-macronienne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17712";s:7:"pubDate";s:31:"Thu, 07 Oct 2021 12:37:30 +0000";s:11:"description";s:278:"En pleine mobilisation contre le passe sanitaire, la nouvelle est passée relativement inaperçue. Elle n’est pourtant pas sans lien : depuis le mois d’août 2021, les cartes d’identité délivrées embarquent dorénavant un code en deux dimensions…";s:7:"content";s:10921:"
En pleine mobilisation contre le passe sanitaire, la nouvelle est passée relativement inaperçue. Elle n’est pourtant pas sans lien : depuis le mois d’août 2021, les cartes d’identité délivrées embarquent dorénavant un code en deux dimensions contenant les données d’état civil, l’adresse du domicile, les informations sur la CNIe (numéro, date de délivrance, date de fin de validité), lisible par n’importe qui, et une puce biométrique lisible pour les usages « régaliens »..
Quelques jours plus tard, la multinationale française de l’identité IDEMIA a été retenue par l’Agence nationale des titres sécurisés (ANTS) dans le cadre du programme interministériel France Identité Numérique (le but de ce marché public est de permettre de contrôler l’identité d’une personne à l’aide d’un smartphone et de la nouvelle carte d’identité électronique).
C’est dans ce contexte que nous publions un extrait d’un texte de Félix Tréguer qui revient sur un moment important dans la genèse de ces dispositifs. Il a été publié dans un ouvrage collectif paru récemment aux Éditions Amsterdam et intitulé Le Nouveau Monde ? : Tableau de la France néolibérale (éds. Popelard, A., Burlaud, A., & Rzepski, G.).
En ce mois de décembre 2016, les arguments fusent au sein du groupe de travail « Défense et sécurité » constitué autour d’Emmanuel Macron, candidat déclaré à la présidence de la République. Depuis quelques semaines, par messages interposés 1La retranscription de ces échanges est réalisée à partir des courriers électroniques de la campagne Macron divulgués sur la plateforme WikiLeaks : https://wikileaks.org//macron-emails/emailid/55445 ; https://wikileaks.org//macron-emails/emailid/51838 ; https://wikileaks.org/macron-emails/emailid/54133.
Merci à la personne, qui se reconnaîtra, ayant attiré notre attention sur ce matériau., la petite équipe réfléchit à la réponse qu’il convient d’opposer au programme « sécurité » de François Fillon. Le concurrent de droite a émis le vœu d’imposer une carte d’identité biométrique aux Français ? Qu’à cela ne tienne ! Les conseillers du candidat Macron envisagent de reprendre la proposition, à l’image de François Heisbourg, expert en géopolitique et jadis directeur de Thomson CSF (devenu le géant de la défense Thales), ou encore de la commissaire Marianne Tarpin, hiérarque de la Direction générale de la sécurité intérieure (DGSI). Dans les échanges, les protagonistes insistent sur la nécessité de lutter contre la fraude à l’identité, en évoquant notamment les terroristes venus de Syrie ayant librement pu circuler à travers l’Europe à l’aide de faux-papiers, et on convient de creuser la question.
Anne Bouverot, alors présidente-directrice générale de Morpho (depuis devenu Idemia), leader français de l’identité biométrique, a récemment été cooptée par le petit groupe de conseillers. Dans une note qu’elle soumet à la réflexion collective, elle commence par souligner le coût de la carte d’identité biométrique – 2 euros l’unité, soit 140 millions d’euros environ pour l’ensemble de la population française – et invite à la faire directement payer par les citoyens. Le déploiement de cette carte permettra selon elle « une baisse de la fraude et des coûts associés », « une plus grande sécurité et [une] meilleure lutte contre le terrorisme ». Mais ce n’est pas tout : grâce à la reconnaissance faciale et aux données biométriques stockées sur la puce électronique de ce nouveau titre d’identité, une myriade d’autres usages sont également possibles, notamment pour le secteur privé. Bouverot évoque ainsi la possibilité « de valider l’identité d’une personne au moment d’une transaction numérique sécurisée : signature d’un contrat, achat d’un billet d’avion, transfert d’argent entre pays différents, etc. »
Dès le lendemain, le 12 décembre, Didier Casas, haut fonctionnaire et à l’époque directeur général adjoint de Bouygues Télécom, adresse un message à Alexis Kohler, le conseiller d’Emmanuel Macron qui deviendra secrétaire général de l’Élysée, et à Ismaël Emelien, en charge de la communication et des affaires stratégiques au sein de la campagne : l’identité biométrique, « vous achetez ou pas, franchement ? » « Honnêtement, bof », tranche Emelien quelques heures plus tard. La proposition ne figurera donc pas au programme du candidat Macron. L’identité biométrique – instaurée en France en 2009, sous la pression des États-Unis, avec la création du passeport biométrique – réalisera pourtant une percée décisive sous son mandat, que ce soit au travers de l’application pour smartphone ALICEM, expérimentée depuis juin 2019, ou de cette fameuse « carte nationale d’identité électronique » (CNIe), finalement lancée à l’été 2021.
Ces échanges, à la fois banals et remarquables, offrent un bon aperçu des processus qui président à la fuite en avant de la surveillance numérique : les intérêts à court terme des élites politiques, administratives et économiques s’entrecroisent, voire s’alignent au gré de leurs allers et retours entre public et privé, tandis que les désordres du monde et la surenchère politicienne nourrissent une escalade sécuritaire qui alimente à son tour l’industrie de la surveillance en lui assurant des débouchés. À la croisée des velléités de contrôle social, du soutien aux fleurons industriels, des tentatives de rationalisation bureaucratique et d’une propension toujours plus grande au « solutionnisme technologique », la surveillance se déploie et entretient la flambée du libéralisme autoritaire.
";s:7:"dateiso";s:15:"20211007_143730";}s:15:"20211005_115438";a:7:{s:5:"title";s:82:"Règlement IA : l’Union européenne ne doit pas céder aux lobbys sécuritaires";s:4:"link";s:113:"https://www.laquadrature.net/2021/10/05/reglement-ia-lunion-europeenne-ne-doit-pas-ceder-aux-lobbys-securitaires/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17707";s:7:"pubDate";s:31:"Tue, 05 Oct 2021 09:54:38 +0000";s:11:"description";s:312:"Alors qu’il se prétend protecteur de nos libertés, le projet de texte sur l’intelligence artificielle de l’Union européenne, présenté par Margrethe Vestager, veut en réalité favoriser le développement tous azimuts de l’IA, notamment sécuritaire.
Grevé d’exceptions,…";s:7:"content";s:16885:"
Alors qu’il se prétend protecteur de nos libertés, le projet de texte sur l’intelligence artificielle de l’Union européenne, présenté par Margrethe Vestager, veut en réalité favoriser le développement tous azimuts de l’IA, notamment sécuritaire.
Grevé d’exceptions, reposant sur une approche éculée de la gestion des risques et reprenant le discours du gouvernement français sur la nécessité de multiplier les expérimentations, ce texte doit être modifié en profondeur. Dans son état actuel, il risque de mettre en danger les maigres protections légales qu’offre le droit européen face au déploiement massif de techniques de surveillance dans l’espace public.
Le 21 avril 2021, la Commission européenne a publié une proposition de règlement pour une « approche européenne » autour de l’intelligence artificielle (IA), accompagnée d’un nouveau plan de coordination devant guider l’action des États membres pour les années à venir.
Au-delà de ces effets d’annonce de l’exécutif européen, la proposition de règlement est largement insuffisante au regard des menaces que représentent les systèmes d’IA pour les libertés fondamentales. Derrière le récit héroïque que propose la Commission européenne, se dissimule une attaque sournoise contre le droit européen à la protection des données personnelles, à travers une remise en question des principes acquis du RGPD et de la directive police-justice.
Accélérer le déploiement de l’IA sécuritaire
Loin de suspendre l’ensemble des systèmes d’IA violant manifestement le droit européen (comme les systèmes de reconnaissance faciale – nous en parlions ici) cette proposition se limite dans un premier temps (article 5) à interdire quatre « usages » spécifiques, tout en offrant de larges exemptions aux autorités nationales.
Sont visées par cette fausse interdiction, en très résumé, des IA de techniques « subliminales » ou exploitant la vulnérabilité des personnes pour « altérer substantiellement leur comportement », des IA de crédit social et des IA d’identification biométrique. En réalité, ces interdictions sont si limitées [pourquoi seulement ces quatre techniques, et pas plus ?] et si mal définies qu’on aurait presque l’impression que le but de la Commission européenne est d’autoriser le maximum de dispositifs plutôt que de véritablement en interdire certains (voir notamment à ce sujet l’analyse complète d’EDRi sur le texte).
L’exemple de l’identification biométrique est particulièrement parlant (le Considérant 23 du texte nous apprend que cette partie est d’ailleurs « lex specialis », c’est-à-dire qu’elle vient remplacer le droit existant sur la question des données biométriques). Est ainsi interdite l’utilisation d’un système d’identification biométrique « en temps réel » à des fins répressives sauf s’il est utilisé pour, notamment, rechercher des « victimes potentielles spécifiques de la criminalité » ou la « prévention d’une menace spécifique, substantielle et imminente pour la vie (…) des personnes physiques » ou la « prévention d’une attaque terroriste »… On le comprend, avec des exceptions aussi larges, cette interdiction est en réalité une autorisation, et en rien une interdiction, de la reconnaissance faciale.
Reprise du discours de l’industrie sécuritaire
Cette partie vient par ailleurs inscrire dans les textes une distinction voulue par les lobbys de l’industrie sécuritaire depuis longtemps, la distinction entre une surveillance biométrique en « temps réel » et une autre « a posteriori », la seconde étant censée être moins grave que la première. Cette distinction n’a pourtant aucun fondement : quelle différence entre une reconnaissance faciale de masse pratiquée dans l’instant ou quelques heures plus tard ?
Qu’importe, pour les rédacteur·ices du texte, la surveillance « en temps réel » est présentée comme étant interdite et celle « a posteriori » autorisée par principe (article 6). Une telle distinction est surtout une belle manière de rassurer certaines polices européennes (la France en tête) qui pratiquent déjà massivement la reconnaissance faciale.
La réutilisation de l’argumentaire porté par l’industrie sécuritaire ne s’arrête d’ailleurs pas là et s’illustre également à travers les exceptions admises pour cette surveillance biométrique en temps réel. L’utilisation de la reconnaissance faciale pour retrouver des « victimes potentielles spécifiques de la criminalité » comme des « enfants disparus » ou pour prévenir une attaque terroriste était ainsi exactement ce que demandaient les politiques et l’industrie pro-sécuritaire depuis plusieurs années.
Autorisations par principe
Alors que les précédentes versions du projet de règlement visaient à proscrire les systèmes d’IA permettant une surveillance généralisée des individus (on parlait en 2020 de « moratoire »), le texte finalement avalisé par le collège des commissaires élude largement la question de la surveillance indiscriminée, suggérant que l’exécutif européen a une nouvelle fois plié face à l’agenda sécuritaire des gouvernements européens.
Cet aveu d’échec se manifeste également à travers le choix fait par la Commission européenne dans les technologies qu’elle considère ne pas mériter une interdiction mais comme étant simplement à « haut risque ». Il s’agit par exemple des technologies de détection de mensonge, d’analyse d’émotions, de police prédictive, de surveillance des frontières… La liste de ces technologies à haut risque, ainsi qu’une partie des obligations auxquelles elles devraient se conformer, ne sont d’ailleurs pas détaillées dans le corps du texte mais dans des annexes que la Commission européenne se donne le droit de modifier unilatéralement.
Ces technologies ne sont donc pas interdites mais bien autorisées par principe, et simplement sujettes à des obligations supplémentaires (articles 6 et suivants1Voir notamment l’article 8 : « Les systèmes d’IA à haut risque respectent les exigences établies dans le présent chapitre. »).
Des analyses d’impact plutôt que des interdictions
Les garde-fous proposés pour réguler ces technologies sont largement insuffisants pour garantir un contrôle efficace de leurs usages, simplement pour la bonne raison que la plupart de ces systèmes ne font l’objet que d’un système d’auto-certification. Si cette approche, fondée sur l’analyse des risques, est destinée à rassurer le secteur privé, elle ne permet aucunement de garantir que les fournisseurs de systèmes d’IA respectent et protègent les droits humains des individus (voir à ce titre l’analyse de l’association Access Now).
La Commission européenne veut ici construire un droit de l’analyse d’impact : chaque dispositif pourra être déployé si la personne responsable a réalisé elle-même une « évaluation ex ante » de la conformité de son dispositif au droit européen. Mais les analyses d’impact ne limiteront pas le déploiement de la Technopolice. Les industriel·les et les collectivités ont l’habitude d’en faire et cela leur convient très bien. C’était le cas pour la reconnaissance faciale à Nice où la mairie avait transmis son analyse à la CNIL quelques jours avant son déploiement.
La Commission a ainsi fait un nouveau saut qualitatif dans ses efforts pour une « meilleure réglementation » en anticipant et satisfaisant, avant même le début des négociations, les campagnes de lobbying des géants du numérique au cours des années à venir.
Moins de recours pour les citoyen·nes, plus de déshumanisation
Il est également troublant d’observer qu’aucune disposition du texte n’offre de recours aux citoyen·nes vis-à-vis du déploiement de ces systèmes, la proposition se focalisant principalement sur la relation entre les entreprises fournissant ces systèmes et leurs client·es. Les quelques obligations de transparence ne visent d’ailleurs jamais la société civile mais des « autorités nationales » qu’il reste encore à désigner. Encore une fois, c’est presque déjà ce qu’il se passe en France : une grande partie des expérimentations mentionnées dans Technopolice (voir la carte) ont fait l’objet d’une communication avec la CNIL. Néanmoins, celle-ci ne rendant aucune de ces informations publiques, c’est à la société civile qu’il revient de demander la publication de ces échanges en vue de dénoncer ces dispositifs. Aucun changement n’est donc à espérer de ce côté.
La prise en compte de la société civile devrait pourtant être au cœur de l’approche européenne autour de l’intelligence artificielle, comme le rappelaient récemment des dizaines d’organisations de défense des droits humains.
Expérimenter pour normaliser
Autre preuve qu’il ne s’agit pas ici d’interdire mais, bien au contraire, de faciliter le développement de l’IA pour les grands industries, l’article 53 du règlement veut forcer les gouvernements à développer des « bacs à sable réglementaires de l’IA ». L’idée derrière : créer un environnement « qui facilite le développement, la mise à l’essai et la validation des systèmes d’IA », ou autrement dit, alléger l’industrie, notamment dans le secteur de la sécurité, des lourdes contraintes dues à la protection de nos droits et libertés pour leur permettre d’expérimenter plus facilement.
Il suffit de lire la réaction plus qu’enthousiaste d’un ancien de Thalès et d’Atos, Jean-Baptiste Siproudhis, à cette proposition, pour se douter que quelque chose ne va pas. À le voir parler des entreprises qui « deviendront demain une source principale d’inspiration directe des nouvelles normes » pour faire du règlement « une boucle du progrès », on ne peut que s’inquiéter de cette soumission du législateur aux désirs des industries.
Surtout que la situation peut encore se dégrader : plusieurs États membres veulent maintenant un texte séparé pour l’IA policière avec, on s’en doute, des interdictions encore plus floues et des exceptions encore plus larges.
Loin d’ouvrir « la voie à une technologie éthique dans le monde entier » selon les mots de la vice-présidente de la Commission Margrethe Vestager, ce plan consolide donc un agenda politique dicté par l’industrie sécuritaire où l’introduction de l’IA est nécessaire et inéluctable pour des pans entiers de la société, et repose sur une vision fantasmée et naïve de ces technologies et des entreprises qui les fournissent.
Voir notamment l’article 8 : « Les systèmes d’IA à haut risque respectent les exigences établies dans le présent chapitre. »
";s:7:"dateiso";s:15:"20211005_115438";}s:15:"20210927_174500";a:7:{s:5:"title";s:52:"Pour la liberté de choisir sa connexion à Internet";s:4:"link";s:91:"https://www.laquadrature.net/2021/09/27/pour-la-liberte-de-choisir-sa-connexion-a-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17652";s:7:"pubDate";s:31:"Mon, 27 Sep 2021 15:45:00 +0000";s:11:"description";s:240:"
En Europe, nous avons récemment confirmé le droit pour toutes et tous de choisir librement la manière dont on souhaite se connecter au réseau Internet à travers la liberté de choisir son routeur.
Le routeur, c’est…";s:7:"content";s:3441:"
Le routeur, c’est ce qu’on appelle communément une box, comme celles que proposent les fournisseurs d’accès internet, comme les Livebox ou autres Freebox. Cette box, ou routeur, est avant tout un ordinateur : c’est elle qui va se charger d’établir un lien entre notre logement et le reste du réseau de l’opérateur, et donc Internet. D’ailleurs, que ce soit pour de la fibre, de l’ADSL ou la 4G, nous avons dans tous les cas besoin de ce routeur, qui est parfois intégré à des smartphones et ordinateurs.
Historiquement, nous avons milité pour la neutralité du net. Un peu comme on peut envoyer une lettre, et quel que soit son contenu, elle sera livrée sans discrimination. Sur Internet, il s’agit donc de pouvoir transmettre et accéder à n’importe quelle information de la même façon. C’est l’inverse des abonnements qui incluent par exemple un accès illimité à des plateformes de vidéo, tout en limitant l’accès au reste d’Internet. Donc c’est ne pas : (1) bloquer, (2) ralentir ou (3) faire payer de manière différenciée l’accès aux contenus.
Or le routeur est un élément essentiel de cette liberté. D’une part parce que ses performances peuvent grandement impacter notre liberté de connexion ; d’autre part parce que qui contrôle cette boîte, contrôle ce qui peut passer dedans – et surtout, peut voir ce qui passe dedans, avec toutefois des limites. Utiliser HTTPS et/ou un VPN permet de limiter cette surveillance. On peut aussi mentionner l’obsolescence programmée, ou encore, le fait de nous pousser à devoir payer des fonctionnalités qui ne sont pas forcément dans notre intérêt, comme un système multimédia, ou domotique.
Nous devons donc, comme en ce qui concerne nos ordinateurs et smartphones, pouvoir choisir nos routeurs, et pouvoir décider des logiciels et fonctionnalités de nos routeurs. La loi Européenne le permet : c’est à présent à l’Autorité de Régulation des Communications Électroniques et des Postes (ARCEP) de faire respecter cette loi, aux opérateurs de nous laisser la liberté de choisir, et à nous de faire usage de cette liberté. On pense aussi à l’usage de logiciels libres pour cela. Au final, choisir son routeur, ou tout autre matériel informatique, ainsi que choisir un logiciel libre qui tourne dessus sont deux faces d’un même combat pour la liberté informatique.
En solidarité avec le combat de la Free Software Foundation Europe (FSFE), nous relayons donc aujourd’hui sa campagne visant à faire connaître cette possibilité de liberté. Apprenez-en plus sur leurs positions et comment défendre cette liberté (en anglais).
« The Internet » by Martin Deutsch is licensed under CC BY-NC-ND 2.0
";s:7:"dateiso";s:15:"20210927_174500";}s:15:"20210924_143849";a:7:{s:5:"title";s:74:"En toutes choses, il faut de la mesure : de l’usage de la télémétrie";s:4:"link";s:105:"https://www.laquadrature.net/2021/09/24/en-toutes-choses-il-faut-de-la-mesure-de-lusage-de-la-telemetrie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17630";s:7:"pubDate";s:31:"Fri, 24 Sep 2021 12:38:49 +0000";s:11:"description";s:272:"Dans un récent épisode du feuilleton « l’application TousAntiCovid, le pistage et nous », trois informaticiens ont publié le 19 août 2021 une analyse de risque du système de collecte de statistiques de l’application TousAntiCovid. Ils y…";s:7:"content";s:47332:"
Dans un récent épisode du feuilleton « l’application TousAntiCovid, le pistage et nous », trois informaticiens ont publié le 19 août 2021 une analyse de risque du système de collecte de statistiques de l’application TousAntiCovid. Ils y rapportent que l’application ne remplit pas ses promesses en termes d’anonymat et de protection de la vie privée des utilisateur·ice·s : trop de statistiques d’utilisation sont collectées et envoyées au serveur.
Ces statistiques doivent permettre, comme l’annonçait le décret n° 2021-157 du 12 février 2021 décrivant les finalités de l’application TousAntiCovid, d’« adapter les mesures de gestion nécessaires pour faire face à l’épidémie et d’améliorer les performances de l’application ». Or ces données rendent aussi possibles l’identification des utilisateur·ice·s et la déduction des informations de santé les concernant.
Nous parlons régulièrement de l’usage de nos données personnelles par les entreprises à des fins commerciales ou politiques, par exemple pour sélectionner la publicité et les informations que nous recevons. Mais dans de nombreux cas, la collecte de données des utilisateur·ice·s est destinée, parfois exclusivement, à la conception et au développement des services eux-mêmes. Le recours à ce système de statistiques d’utilisation, appelé communément télémétrie, est devenue la norme dans l’industrie.
Comment et pourquoi mesure-t-on ainsi en permanence les comportements et les réactions des utilisateur·ice·s ? L’objet de cette réflexion n’est pas de déterminer si et comment la collecte d’informations peut être faite de manière à respecter rigoureusement la vie privée ou le consentement des personnes, mais bien d’interroger cette logique-même de collecter des données, en grande quantité et en permanence, à partir du cas du développement de produits dans l’industrie informatique.
Qu’est-ce que la télémétrie ?
La télémétrie est un système au sein d’un logiciel qui permet de mesurer des données relatives à son utilisation et à ses performances. Ces mesures sont ensuite transmises à distance à un service en charge de les collecter. Dans les logiciels informatiques, ces données sont utilisées afin d’informer sur le bon fonctionnement du logiciel, de manière ponctuelle ou continue (crashes de l’application, temps de démarrage, affichage de certaines pages, utilisation de certaines fonctions, etc.). La télémétrie peut aussi renseigner sur les usages des utilisateur·ice·s (quelles fonctionnalités sont utilisées ou pas, quels sont les temps d’utilisation) pour orienter les concepteur·ice·s à faire des choix d’évolution dans le logiciel.
Contrairement aux pratiques plus traditionnelles de recherche marketing et expérience utilisateur·ice telles que les entretiens en personne ou la tenue de journaux d’utilisation par écrit, cette collecte d’information à distance permet d’analyser rapidement les tendances d’utilisation, et ceci à grande échelle. Elle s’inscrit donc parfaitement dans un cycle de développement de produit court et itératif, quasiment en temps réel, qui permet de proposer des évolutions fréquentes du logiciel. Ces dernières années, cette pratique s’est imposée dans l’industrie logicielle.
Cas d’utilisation de la télémétrie
Concrètement, on retrouve de la télémétrie à peu près partout : systèmes d’exploitation, applications, logiciels tiers, qu’ils soient propriétaires ou libres. La télémétrie permet à un éditeur de logiciel de savoir comment son logiciel se comporte une fois installé et pris en main par ses utilisateur·ice·s — et vice-versa : il peut observer comment ses utilisateur·ice·s se comportent avec le logiciel. Dans le meilleur des cas, la télémétrie est soumise au consentement de ses utilisateur·ice·s et ne stocke pas de données personnelles sensibles permettant de les identifier.
Historiquement, la télémétrie a été développée en ingénierie pour mesurer le fonctionnement des machines à distance. Grâce à des capteurs électriques, on devient capable de mesurer des grandeurs physiques telles que la pression, la température ou la résistance électrique et de les transmettre. En météorologie, la radiosonde s’embarque ainsi sur des ballons et transfère des mesures de l’atmosphère. En aérospatiale, la télémétrie permet de surveiller le fonctionnement des satellites depuis la Terre. Dans le secteur de l’automobile, elle est utilisée de longue date pour optimiser les performances des voitures de course et s’invite désormais sur les modèles grand public pour recueillir des informations sur la conduite (comme le système R.S Monitor de chez Renault). Le monde médical et les recherches en sciences du vivant développent elles aussi leurs outils de biotélémétrie (par exemple pour surveiller le rythme cardiaque de patient·es).
Le développement de l’informatique, des logiciels embarqués et des objets connectés (Internet des objets, capteurs connectés) facilite l’extension de la télémétrie à de nombreux usages. Ainsi, la télémétrie d’une application sur un smartphone peut avoir accès aux données d’utilisation de l’application logicielle, mais aussi des mouvements du téléphone (accéléromètre, localisation GPS) et de l’environnement (captation sonore et vidéo).
Le monde enchanté du « data-driven »
La télémétrie s’inscrit dans un contexte où une approche dite « data-driven », ou orientation par les données, perfuse actuellement les pratiques de conception et de développement de produit et de management : on parle ainsi de « data-driven design », « data-driven marketing », « data-driven management », « data-driven security » et ainsi de suite.
L’approche data-driven consiste à utiliser des données collectées pour prendre des décisions. À grand renfort de journaux (« logs »), d’indicateurs, d’« analytics », de statistiques d’utilisation et de tableaux de bord, l’approche data-driven a pour ambition de faciliter les prises de décision en les basant sur des données qui auraient valeur de preuves. Elle promet une méthode plus rigoureuse et plus scientifique, basée sur des faits observables plutôt que des intuitions et des opinions, afin d’éviter les conséquences dommageables des biais que les personnes en charge de prendre les décisions pourraient transmettre.
Les indicateurs (« metrics » en anglais) sont des données mesurées et mises en contexte : le nombre de visites d’un site web au mois de mars est une mesure de données, l’évolution du nombre de visites d’un mois sur l’autre est un indicateur.
Les « analytics » (littéralement « analyse de données » en anglais), quant à elles, servent à répondre à une question spécifique, ayant souvent trait au futur ( « comment obtenir plus de visites par mois ? ») à partir de l’analyse des données qui sont à disposition.
Des chiffres qui portent bonheur
Cette approche « data-driven » se superpose souvent à une démarche dite « user-centric » ou « customer-centric » qui consiste à placer l’utilisateur·ice au centre de toutes les attentions.
L’objectif est de réussir à « voir le monde à travers les yeux de ses client-e-s » comme le proclame la publicité de la solution Customer 360 de Salesforce, une entreprise proposant des logiciels de gestion de la relation client (GRC) — ou « Customer Relationship Management » (CRM) en anglais. Elle vante ainsi le fait qu’une entreprise ayant recours à de tels outils serait capable de mieux répondre aux besoins de ses client·e·s grâce à une connaissance optimisée de leurs comportements, de leurs aspirations et de leurs frustrations. Cette grande quantité d’informations détenues sur sa clientèle garantirait à l’entreprise de meilleurs résultats et de plus grands profits : « The more you know, the better you grow. » ( « >i>Plus de connaissances, c’est plus de croissance »).
La « data-driven empathy » ou « empathie des données » permettrait même, selon les promesses marketing, de « donner vie » aux données collectées afin d’anticiper les besoins et de s’adresser aux utilisateur·ice·s de manière plus « pertinente, personnelle, utile, et même enchanteuse ».
L’entreprise qui a recours à ces méthodes deviendrait ainsi capable de prédire les attentes et les comportements de chaque personne afin d’adapter automatiquement ses services de manière personnalisée : il s’agit là par excellence de la logique du capitalisme de surveillance et de la personnalisation de masse.
Comprendre ainsi comment les êtres humains se comportent, quels sont leurs objectifs et leurs aspirations, participerait in fine à l’amélioration de la vie de millions de personnes. Le data-driven serait donc, rien de moins, source de progrès et de bien-être pour l’humanité tout entière.
Le Quantified Self : une représentation de soi par les chiffres.
À une échelle plus individuelle, cette pratique de mesure et de mise en nombre du monde entre en résonance avec le mouvement du «Quantified Self » (« mesure de soi ») et du « Self Tracking » (« auto-pistage »). Il s’agit de mesurer ses propres activités physiques, biologiques, émotionnelles et sociales pour ensuite les analyser.
La philosophie dominante du Quantified Self consiste à améliorer sa connaissance de soi par les chiffres et à s’aider à prendre des décisions pour être plus heureux·se. Ceci recouvre des pratiques diverses, par exemple le recours à des objets connectés pour mesurer et contrôler son corps et son activité : une balance pour consulter son poids, une montre pour mesurer son activité physique quotidienne, un réveil pour surveiller la qualité de son sommeil.
Il peut également s’agir d’une forme d’empowerment et d’auto-aide pour s’appréhender soi, son corps, ses émotions, une maladie chronique, de manière indépendante ou complémentaire d’une institution médicale. La pratique du Quantified Self peut être une sorte de journal intime dont le contenu serait une succession de mesures simples plutôt que des descriptions d’expériences et d’états d’âme.
Reste un point commun entre toutes ces pratiques : le recours systématique à la mesure et à la représentation de soi par des chiffres.
Des limites méthodologiques à la collecte et au traitement des données
Quantifier le monde : une objectivité illusoire
L’approche data-driven promet une plus grande fiabilité et une meilleure efficacité des décisions, allant jusqu’à arguer d’un caractère parfaitement objectif. Les données collectées rendraient compte de « faits » équivalents à des preuves scientifiques. Pourtant, baser ses décisions sur ces données n’est pas forcément gage de cette objectivité tant recherchée.
Il faut d’abord décider quoi mesurer et comment. Or, tout ce qui est mesurable n’est pas forcément utile ou pertinent, et la décision de mesurer tel ou tel aspect de l’usage du produit influence la compréhension que l’on en a. Si l’ambition est de décrire le monde avec des chiffres, cette mise en nombre en affecte aussi la représentation et la compréhension. Le sociologue Alain Desrosières rappelle comment ce processus de mise en nombre — cette « quantification » — comprend non seulement les opérations de mesure à proprement parler, mais aussi un ensemble de conventions qui sont nécessaires pour traduire de manière numérique quelque chose qui était auparavant exprimé par des mots 1
[Note 1] : Alain Desrosières, Pour une sociologie historique de la quantification, Chapitre 1. https://books.openedition.org/pressesmines/901
(consulté le 03/09/2021) « L’idée de mesure, inspirée des sciences de la nature, suppose implicitement que quelque chose de bien réel, déjà existant, analogue à la hauteur du Mont Blanc, peut être « mesuré », selon une métrologie réaliste. En revanche, le verbe quantifier implique une traduction, c’est-à-dire une action de transformation, résultant d’une série d’inscriptions, de codages et de calculs, et conduisant à une mise en nombre. Celle-ci contribue à exprimer et faire exister sous une forme numérique, par mise en œuvre de procédures conventionnelles, quelque chose qui était auparavant exprimé seulement par des mots et non par des nombres. Pour refléter cette distinction entre la chose et son expression numérique, on parle souvent d’indicateur, par exemple pour l’inflation, le chômage, la pauvreté, les violences faites aux femmes, ou le développement humain des pays de l’ONU. » .
Prenons un exemple : comment quantifier le bonheur ? Imaginons que l’on effectue un sondage où l’on demande aux personnes de noter à combien elles évaluent leur état de bonheur actuel sur une échelle de 0 à 10 (le sondage est ici volontairement simpliste). On leur demanderait de traduire en un seul chiffre quelque chose de complexe : s’agit-il du sentiment de bonheur global sur un an, ou sur l’heure qui vient de se passer ? Comment leur état actuel influence-t-il la perception de leur bonheur ? Est-ce que l’on parle de bonheur dans le domaine professionnel, amoureux, familial, amical, artistique ? Pour choisir un chiffre sur l’échelle de 0 à 10, chaque personne va donner consciemment et inconsciemment un poids différent à tous ces aspects : les résultats seront difficilement comparables étant donné que chaque personne va interpréter différement la question.
Or, quantifier, pour reprendre l’expression de Desrosières, c’est « convenir et mesurer » afin de pouvoir ensuite distinguer, comparer, classer des éléments entre eux. On peut donc vouloir adopter une approche basée sur des mesures plus « objectives » plutôt que l’auto-évaluation des personnes. C’est ainsi que certains tentent de calculer une sorte de « Bonheur national brut » en considérant des indicateurs comme le taux de chômage et le revenu mensuel moyen, le nombre de personnes diagnostiquées de telle ou telle maladie, le taux de personnes propriétaires de leur logement, etc. On part alors du postulat que ces éléments sont pertinents pour rendre compte de ce qui fait le bonheur des gens. Or, le choix de ces indicateurs, la manière de les calculer et de les intégrer pour constituer le score final sont autant d’éléments qui influencent quelle représentation finale du bonheur de la population on obtient.
Desrosières souligne que ces conventions de traduction, qui ont un effet sur le sens qui peut être donné à ce que l’on mesure, s’effacent ensuite bien souvent derrière les résultats obtenus et partagés : « Une fois les procédures de quantification codifiées et routinisées, leurs produits sont réifiés. Ils tendent à devenir « la réalité », par un effet de cliquet irréversible. Les conventions initiales sont oubliées, l’objet quantifié est comme naturalisé […]». La parfaite objectivité dans le rendu du réel qui serait inhérente aux approches data-driven est donc illusoire.
Comment interpréter les données ?
Qui plus est, on risque de perdre au passage ce qui n’est « pas quantifiable ». Si on demande aux personnes du sondage sur le bonheur de répondre verbalement, il y a des chances qu’elles répondent par plusieurs phrases d’explication, accompagnées de gestes, d’expressions du visage, d’un ton de voix qui permettraient de percevoir et de mieux comprendre comment ces personnes se sentent. Bref, autant d’informations difficilement, voire pas du tout, quantifiables.
Enfin, réduire une discussion sur le bonheur à un simple score entre 0 et 10 limite fortement l’intérêt de l’échange : en effet, pourquoi cherche-t-on à mesurer le bonheur en premier lieu ? Est-ce que pour le simple plaisir d’en faire l’évaluation d’une année sur l’autre, ou pour comprendre comment vivre de manière plus agréable individuellement et collectivement ? Et dans ce cas, comment en rendre compte par des chiffres ?
Le terrain de collecte des données n’est également pas neutre. Lorsque Salesforce vend la perspective de « voir le monde à travers les yeux de ses client·e·s », ce qu’il vend vraiment est la capacité de mesurer ce que les client·e·s effectuent dans l’espace qui leur est imposé par le logiciel ou le service utilisé : or, tel service programmé par un tiers a des conséquences sur nos comportements par la manière dont ses fonctionnalités sont conçues, par le temps de réponse de l’application, par ses limitations et les bugs face auxquels nous nous adaptons. Si la télémétrie peut donner l’impression d’être à l’écoute des personnes concernées en étant au plus près d’elles, et même de leur permettre de s’exprimer comme l’avance Microsoft), celles-ci n’interviennent jamais réellement dans le processus de prise de décision vis-à-vis du produit qu’elles utilisent. Autrement dit, mesurer nos réactions dans un espace contraint ne permet pas de révéler nos aspirations sincères.
Les données doivent ensuite être interprétées correctement et être mises en contexte pour leur donner du sens. Face à la grande quantité de données rendues disponibles et collectées, ces analyses sont désormais de plus en plus automatisées (notamment par des algorithmes d’intelligence artificielle). Or leurs biais sont désormais nombreux à être documentés, notamment ceux résultant de discriminations systémiques.
De la maximisation de la productivité au contrôle sécuritaire
Construire la meilleure équipe qui soit
En entreprise, le « data-driven management » s’appuie sur la mesure du travail et des interactions des travailleur·euse·s pour améliorer la performance des équipes. Ceci inclut les méthodes de gestion de performance tels que les « Key Performance Indicators » (KPI) qui permettent de définir et de mesurer le succès d’une entreprise dans la poursuite de ses objectifs, ou encore les questionnaires d’enquêtes pour mesurer le degré de satisfaction des employé·e·s. L’enjeu crucial pour les entreprises est de créer des « super équipes » créatives, performantes et impliquées.
Plusieurs chercheur·euse·s au Human Dynamics Laboratory du MIT ont travaillé sur ces questions dans les années 2010. Pour eux, les caractéristiques d’un groupe performant sont quantifiables. Ils développent un badge électronique dont ils équipent les travailleur·euse·s et qui collecte des données sur leurs comportements lorsqu’ils et elles communiquent : ton de la voix, langage corporel, qui parle à qui, combien de temps, etc. Ils dissèquent chaque comportement pour mesurer ce qui constitue, par exemple, une séance de brainstorming productive.
Le développement récent de nouvelles technologies leur permet de repousser la frontière de ce qui est selon eux quantifiable dans la vie humaine. Grâce à des capteurs sans fil portables, plus sensibles, plus petits et capables de collecter un nombre grandissant de données, ils observent et mesurent chaque interaction. Les badges « génèrent plus de cent captures de données par minute et fonctionnent de manière suffisamment discrète pour que nous soyons confiants sur le fait que nous mesurons des comportements naturels. (Nous avons documenté une période d’ajustement aux badges : au début, les personnes semblent être conscientes qu’elles le portent et agissent de façon peu naturelle, mais l’effet se dissipe généralement dans l’heure qui suit.) ». 2
[Note 2] : Alex « Sandy » Pentland, The New Science of Building Great Teams, Apr 2012 https://hbr.org/2012/04/the-new-science-of-building-great-teams
(consulté le 03/09/2021) « […] generate more than 100 data points a minute and work unobtrusively enough that we’re confident we’re capturing natural behavior. (We’ve documented a period of adjustment to the badges: Early on, people appear to be aware of them and act unnaturally, but the effect dissipates, usually within an hour.) »
Ces mesures leur permettent ensuite d’anticiper, par exemple, les performances d’une équipe. Il s’agit ainsi de développer le pouvoir de connaissance et de prédiction à l’échelle de l’entreprise toute entière.
Mesuré·e, quantifié·e — c’est-à-dire réduit·e à des chiffres et des indicateurs —, l’employé·e data-driven n’a pour seule fonction que de maximiser ses performances et la plus-value qu’il ou elle produit pour le bénéfice d’une entreprise qui aspire à une omniscience quasi-divine. Et s’il faut pour cela mesurer également le bien-être émotionnel de ses employé·e·s, afin d’optimiser leur bonheur pour qu’ils et elles soient plus productives, ainsi soit-il.
Surveiller au travail, et au-delà
Cette logique de contrôle qui se pare des voiles d’une productivité joyeuse et épanouissante peut également servir à une surveillance répressive des salarié·e·s. Amazon se distingue régulièrement en la matière, par exemple avec la surveillance des conducteur·ice·s de camions de livraisons par un logiciel d’intelligence artificielle aux États-Unis, l’usage d’un logiciel qui suit automatiquement l’activité de chaque personne en mesurant le nombre de colis scannés et qui peut décider de licencier automatiquement les moins productives ou encore, en 2018, le dépôt de deux brevets pour un bracelet permettant de surveiller les mouvements des mains des employé·e·s dans les entrepôts.
Plus récemment, l’entreprise états-unienne Teleperformance, dans le contexte du travail à distance imposé par les mesures contre la pandémie de covid-19, a fait pression sur les personnes qu’elle emploie afin qu’elles acceptent d’être surveillées chez elles. Apple, quant à elle, d’après une fuite interne datant de juin 2021, équiperait certaines de ses équipes de caméras corporelles semblables aux modèles utilisés par la police dans le but de les empêcher de divulguer des informations confidentielles.
La logique de la surveillance à des fins sécuritaires encourage le déploiement d’outils visant à mesurer les personnes et les comportements dans l’espace public aussi bien que privé. C’est le mythe de la « Smart City » décortiqué récemment dans l’un de nos articles ou encore les expérimentations de la vidéosurveillance biométrique dans les supermarchés pour détecter les vols.
Mesurer les comportements des utilisateur·ice·s d’un logiciel pour améliorer le produit et maximiser les profits de l’entreprise ; mesurer les comportements des travailleur·se·s pour contrôler leur productivité, quitte à s’inviter dans la sphère privée lorsque le travail se fait depuis chez soi ; mesurer les comportements jugés illégaux ou anormaux dans l’espace public afin d’assurer l’ordre public. Que cela soit à des fins de profits ou à des fins sécuritaires, il s’agit à chaque fois de la même logique : collecter des données, beaucoup de données ; en automatiser l’analyse, au moyen notamment de logiciels d’intelligence artificielle ; les utiliser comme outil de contrôle et de prédiction des comportements humains, selon des critères décidés par les personnes qui détiennent le pouvoir et qui n’hésitent pas à citer en modèle le regard omniscient de Dieu sur l’univers :
« Nous commençons à créer ce que j’appelle la « vision de Dieu » d’une organisation. Bien qu’elle puisse sembler d’ordre spirituel, cette vision s’appuie sur des preuves et des données. C’est une vision magnifique et elle va changer la manière dont les organisations fonctionnent. » 3[Note 3] Alex « Sandy » Pentland, The New Science of Building Great Teams, Apr 2012 https://hbr.org/2012/04/the-new-science-of-building-great-teams (consulté le 03/09/2021) « We are beginning to create what I call the “God’s-eye view” of the organization. But spiritual as that may sound, this view is rooted in evidence and data. It is an amazing view, and it will change how organizations work. »
« Il y a chez LEIBNIZ cette hypothèse que « Dieu calcule pour nous le meilleur monde possible » et il y a donc quelque chose d’une option presque prométhéenne qui nous permet de revisiter la conception du monde de LEIBNIZ à travers l’intelligence artificielle qui nous donnerait la capacité de réaliser nous-mêmes ce calculet à travers en effet des machines apprenantes de pouvoir parcourir beaucoup plus rapidement les chemins du malheur pour choisir le bon chemin beaucoup plus tôt et beaucoup plus rapidement. C’est prométhéen dans ce que cela comporte d’ambivalence, c’est une chance inouïe d’accélérer le calcul réservé à Dieu chez LEIBNIZ, c’est une responsabilité énorme d’avoir dans notre main cette possibilité de le faire. »
Pourquoi donc ne voudrions-nous pas de ce monde quantifié, mesuré « objectivement » qui nous livrerait avec un haut degré de certitude et de précision une représentation de notre réalité, comment nous nous comporterions, comment nous ressentirions et quelles seraient les prochaines actions ou comportements que nous devrions adopter pour faire progresser le bonheur et le bien-être de l’humanité ?
Si d’aventure nous résistons aux méthodes data-driven, alors c’est que nous serions dans le déni et que nous préférerions les bonnes histoires aux faits vérifiables et bien tangibles. Bref, que nous serions réfractaires aux lumières rationnelles que les données nous apportent.
Il ne s’agit pas pour autant de dénier à ces méthodes certains de leurs intérêts. À une collecte effrénée de plus en plus de données, peut être opposée une pratique de collecte minimaliste, réduite au strict nécessaire, limitée dans le temps et soumise systématiquement au consentement des utilisateur·ice·s au cas par cas. On peut également penser à la collecte de données à des fins d’intérêt partagé — comme la protection de la vie privée ou de l’intégrité des personnes — avec la question de la gestion responsable et collective de ces données. Enfin certain·e·s mettent en œuvre une approche critique d’analyse des données et parlent de décisions data-informed plutôt que data-driven. Il s’agit tout compte fait d’appliquer les principes de la démarche scientifique : formuler des hypothèses basées sur l’intuition, l’expérience ou une observation et chercher à les vérifier en testant. L’analyse manuelle ou automatisée de données est l’un des moyens possibles pour vérifier ces idées.
Refuser le meilleur des mondes
Il s’agit donc, certes, de poser la question de la finalité de la collecte des données, mais également celle du modèle politique de la société que la télémétrie effrénée participe à façonner : un environnement rassurant, sécurisé, bien calibré, où tout serait anticipable et anticipé. C’est-à-dire un monde qui contraindrait des caractéristiques profondément humaines et volatiles : la spontanéité, l’imprédictibilité des émotions, l’imagination et l’expérimentation.
Pour lutter contre, encourageons-nous à faire des expériences inattendues, justement. Pourquoi pas en (ré)-introduisant du hasard et de l’imprédictibilité dans nos comportements, par exemple sur le modèle des personnages « fous » qui jettent leurs dés chaque fois qu’ils doivent prendre une décision sur le plateau-monde de jeux d’échecs imaginé par les bédéistes Ulysse et Gaspar Gry. À l’instar de la méthode de test « monkey testing », qui consiste à utiliser un logiciel de manière aléatoire pour en éprouver les réactions, certaines attaques en sécurité informatique pourraient, assez ironiquement, nous servir d’inspiration pour déjouer les prédictions des systèmes automatisés : car « modifier légèrement les données de manière malveillante détériore considérablement la capacité prédictive du modèle ».
Comment créer autrement des outils et des technologies véritablement à notre service ? Une donnée est une information que quelque chose est arrivé, un fait. La connaissance, elle, désigne la conscience et la compréhension que l’on peut avoir de quelque chose ou de quelqu’un. Il s’agirait alors de nous détourner de ces « données » unitaires et parcellaires pour favoriser la compréhension par la communication directe et l’écoute de ce que les gens ont à partager.Citons ainsi pour finir les mots de Josh Andrus, designer UX :
« Pour résoudre un problème pour n’importe quel groupe d’êtres humains, nous devons nous familiariser avec leur environnement, comprendre la manière dont ils et elles voient le monde. L’art de ré-équilibrer les positions de pouvoir dans n’importe quelle relation est la clé pour créer une expérience sûre, libre, inclusive, équilibrée dans laquelle toutes les personnes participent pleinement. […] Si nous pouvons nous concentrer à faire en sorte que les gens se sentent entendus, compris, et à créer un lien émotionnel durable, nos objectifs globaux d’obtenir les informations les plus sincères et les plus exactes possibles à propos des comportements et des attitudes de l’utilisateur·rice viendront de manière authentique et naturelle. » 4
[Note 4] :
Josh Andrus, Making a Real Connection to Users, Nov 17, 2020 https://uxdesign.cc/making-a-real-connection-to-users-75fd64053dea
(consulté le 03/09/2021) « To solve a problem for any group of people, we need to make ourselves familiar with their environnement and understand the way they see the world. The art of balancing power in any relationship is key to creating a safe free, inclusive, balanced journey in which all members fully participate.
[…] If we can focus on making people feel heard, understood, and create a lasting emotional connection, our overarching goals to get the most honest and accurate information about the user’s behaviors and attitudes will come a genuine and natural place. »
[Note 1] : Alain Desrosières, Pour une sociologie historique de la quantification, Chapitre 1. https://books.openedition.org/pressesmines/901
(consulté le 03/09/2021) « L’idée de mesure, inspirée des sciences de la nature, suppose implicitement que quelque chose de bien réel, déjà existant, analogue à la hauteur du Mont Blanc, peut être « mesuré », selon une métrologie réaliste. En revanche, le verbe quantifier implique une traduction, c’est-à-dire une action de transformation, résultant d’une série d’inscriptions, de codages et de calculs, et conduisant à une mise en nombre. Celle-ci contribue à exprimer et faire exister sous une forme numérique, par mise en œuvre de procédures conventionnelles, quelque chose qui était auparavant exprimé seulement par des mots et non par des nombres. Pour refléter cette distinction entre la chose et son expression numérique, on parle souvent d’indicateur, par exemple pour l’inflation, le chômage, la pauvreté, les violences faites aux femmes, ou le développement humain des pays de l’ONU. »
[Note 2] : Alex « Sandy » Pentland, The New Science of Building Great Teams, Apr 2012 https://hbr.org/2012/04/the-new-science-of-building-great-teams
(consulté le 03/09/2021) « […] generate more than 100 data points a minute and work unobtrusively enough that we’re confident we’re capturing natural behavior. (We’ve documented a period of adjustment to the badges: Early on, people appear to be aware of them and act unnaturally, but the effect dissipates, usually within an hour.) »
[Note 3] Alex « Sandy » Pentland, The New Science of Building Great Teams, Apr 2012 https://hbr.org/2012/04/the-new-science-of-building-great-teams (consulté le 03/09/2021) « We are beginning to create what I call the “God’s-eye view” of the organization. But spiritual as that may sound, this view is rooted in evidence and data. It is an amazing view, and it will change how organizations work. »
[Note 4] :
Josh Andrus, Making a Real Connection to Users, Nov 17, 2020 https://uxdesign.cc/making-a-real-connection-to-users-75fd64053dea
(consulté le 03/09/2021) « To solve a problem for any group of people, we need to make ourselves familiar with their environnement and understand the way they see the world. The art of balancing power in any relationship is key to creating a safe free, inclusive, balanced journey in which all members fully participate.
[…] If we can focus on making people feel heard, understood, and create a lasting emotional connection, our overarching goals to get the most honest and accurate information about the user’s behaviors and attitudes will come a genuine and natural place. »
";s:7:"dateiso";s:15:"20210924_143849";}s:15:"20210923_164222";a:7:{s:5:"title";s:58:"La loi Drones 2 est docilement adoptée par l’Assemblée";s:4:"link";s:94:"https://www.laquadrature.net/2021/09/23/la-loi-drones-2-est-docilement-adoptee-par-lassemblee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17632";s:7:"pubDate";s:31:"Thu, 23 Sep 2021 14:42:22 +0000";s:11:"description";s:267:"L’Assemblée nationale vient d’adopter une nouvelle loi pour légaliser l’usage de drones de surveillance par la police. Alors que le texte est quasiment identique à celui censuré par le Conseil constitutionnel en début d’année, les…";s:7:"content";s:16618:"
L’Assemblée nationale vient d’adopter une nouvelle loi pour légaliser l’usage de drones de surveillance par la police. Alors que le texte est quasiment identique à celui censuré par le Conseil constitutionnel en début d’année, les parlementaires n’ont pas hésité à le voter une nouvelle fois. C’est une énième preuve qu’il n’y a rien à attendre du Parlement pour nous protéger des dérives sécuritaires du gouvernement. La lutte contre la Technopolice ne se fera pas sur les bancs de l’Assemblée.
Nous en parlions ici : après s’être vu à quatre reprises refuser le droit de surveiller la population avec des drones, le gouvernement est revenu une cinquième fois à l’attaque. Deux arrêts du Conseil d’État, une décision de la CNIL et une décision du Conseil constitutionnel n’auront pas suffi : le gouvernement est prêt à tout pour déployer des drones avec caméra dans l’espace public. Les caméras fixes, les caméras « nomades », les caméras-piétons, tout cela ne lui suffit pas : il faut surveiller, toujours plus, et retransmettre les flux en temps réel à des centres de supervision – et derrière analyser et disséquer les images, transformer nos rues et nos déambulations en données exploitables par la police.
Copier-coller
Notons tout de suite que le texte ne parle plus seulement des drones mais de tout « aéronef » utilisé par la police (alinéa 2 de l’article 8) : c’est-à-dire qu’il légalise non seulement la surveillance par drones, mais aussi celle faite par hélicoptère ou par avion, une surveillance réalisée depuis longtemps par la police en toute illégalité – sans qu’aucune institution (en particulier pas la CNIL) ne soit venue la gêner (voir notre article d’analyse ici), et sans qu’aucun responsable ne soit condamné.
Le gouvernement (ou le rapporteur du texte, on ne sait plus très bien faire la différence) veut faire croire qu’il répond aux critiques du Conseil constitutionnel. Il reprend donc le même texte que l’année précédente et fait quelques modifications à la marge, des modifications trompeuses qui, comme on va le voir, n’enlèvent en rien le caractère profondément liberticide du texte.
Les finalités autorisées pour déployer un drone restent toujours aussi larges, même si le gouvernement tâche de faire en sorte que cette fois, le Conseil constitutionnel se montre plus accommodant : la police peut tout faire rentrer dans la notion de « prévention des atteintes à la sécurité des personnes et des biens dans les lieux particulièrement exposés », ou dans celle de « sécurité des rassemblements de personnes sur la voie publique » ou dans la « prévention d’actes de terrorisme ».
Quand bien même ces finalités seraient limitées, qui les contrôle en pratique, et qui autorise les drones ? Le représentant de l’État et, à Paris, le préfet de police. La police demande donc autorisation à la police pour utiliser des drones. Il est vrai qu’on est jamais mieux servi que par soi-même. Rappelons à ce sujet que nos deux contentieux de 2020 au sujet des drones étaient… contre le préfet de police. Et que c’est lui qui se gargarisait devant l’AFP de sa nouvelle arme technopolicière.
Autre fausse limitation : l’autorisation délivrée par le représentant de l’État prévoit un nombre maximal d’aéronefs, un périmètre géographique et une durée limitée. D’abord, le texte ajoute aussitôt une exception en cas d’urgence pour faire sauter cette limitation1« Par dérogation à cette procédure d’autorisation, lorsque l’urgence résultant d’une exposition particulière et imprévisible à un risque d’atteinte caractérisée aux personnes ou aux biens le requiert, les traitements mentionnés au présent article peuvent être mis en œuvre de manière immédiate, après information préalable, du représentant de l’État dans le département ou, à Paris, du préfet de police, qui peut y mettre fin à tout moment. Au‑delà d’une durée de quatre heures, la poursuite de la mise en œuvre du traitement est subordonnée à son autorisation expresse et ne peut excéder une durée de vingt‑quatre heures » . Ensuite, hors cas d’urgence, cette limitation ne restreindra pas ce que souhaite faire la police en pratique. Si la police souhaite 200 drones pour surveiller toutes les manifestations d’une ville durant toute l’année, rien n’empêchera le préfet de l’y autoriser (si l’autorisation est en théorie limitée à 3 mois par la loi, ce délai est indéfiniment renouvelable). Et quand bien même le préfet voudrait se montrer exemplaire en n’autorisant que trois drones, limités à une zone où a lieu un rassemblement à Paris pour la durée de la manifestation, la police pourra capter un nombre extrêmement important d’informations. Et c’est encore plus vrai pour les hélicoptères ou les avions, au vu de leur puissance de captation (on en parlait aussi ici).
Ce sont donc des fausses limites, un faux encadrement. Jean-Michel Mis (LREM) (voir notre portrait) a remplacé ses collègues Fauvergue et Thourot sur ce sujet mais c’est la même entité désincarnée qui tient la plume, chaque membre de la majorité étant interchangeable avec l’autre. Les critiques formulées contre la loi « Sécurité Globale » tiennent donc toujours, elles sont accessibles ici.
Garde à vue et véhicules de police
Comme on l’a dit, le texte ne couvre pas que les caméras volantes mais évoque aussi de nombreux autre sujets (sur l’ensemble du texte, voir l’analyse du Syndicat de la magistrature).
Sur le sujet de la captation vidéo, le texte légalise de nouveau la vidéosurveillance en garde à vue. Toujours sans aucune gêne, les rapporteurs avouent que cette vidéosurveillance est pratiquée depuis longtemps mais sans cadre légal (comprendre donc que c’est totalement illégal, mais là encore, les responsables bénéficient d’une impunité systémique). Prétextant la protection de la personne placée en garde à vue, le texte veut en réalité permettre qu’une caméra soit placée en cellule pour la filmer en permanence (pour 24h avec renouvellement possible). Puisqu’on vous dit que c’est pour votre bien ?
Autre légalisation, les caméras embarquées sur les véhicules de la police et de la gendarmerie. C’est à peu près le même cadre que pour les caméras-piétons : autoriser la captation vidéo « lorsque se produit ou est susceptible de se produire un incident », c’est-à-dire que la police ou la gendarmerie pourra décider de filmer qui elle veut et quand elle veut, avec possibilité de transmission du flux vidéo en temps réel à un poste d’observation.
Autre changement majeur dans la législation, l’article 16 qui élargit les possibilités de prise de photos et d’empreintes d’une personne (notamment les mineur·es) sous contrainte. Aujourd’hui la police doit, dans la grande majorité des cas obtenir le consentement des personnes pour récolter leur signalétique (empreinte, ADN, et photographie) bien que le refus de s’y soumettre soit pénalement sanctionné.
Le texte prévoit que celle-ci puisse donc relever sous contrainte les empreintes palmaires et digitales des personnes ainsi que la prise d’une photographie, on imagine par la force (voir pour plus d’informations, le volet 2, page 17 des observations du syndicat de la magistrature).
Impossible de voir une quelconque amélioration entre le texte censuré par le Conseil constitutionnel et le texte adopté : comme pour les drones, c’est le même texte, avec quelques fausses rustines.
Faux débat parlementaire
Le texte a-t-il changé entre sa présentation par le gouvernement en juillet dernier et son adoption par l’Assemblée nationale aujourd’hui ? À peine, en tous cas sur les sujets de captation vidéo. Notons simplement que leur utilisation, ainsi que celles des caméras en garde-à-vue, a été étendue par les députés à la police douanière.
De même que la loi sécurité globale avait démontré la soumissions institutionnelle du Parlement à la police (voir notre analyse), aucun espoir d’amélioration n’était à attendre des députés aujourd’hui. Dans l’ancienne loi sécurité globale, le seul effort consenti par le Parlement avait été d’interdire que les images captées par drones ne soient soumises à un traitement de reconnaissance faciale 2Sont prohibés […] l’analyse des
images issues de leurs caméras au moyen de dispositifs automatisés de reconnaissance faciale. Cette limitation est reprise mais largement réduite : « Les dispositifs aéroportés ne peuvent […] comporter de traitements automatisés de reconnaissance faciale ». Or, s’il faut redouter une forme de reconnaissance faciale, ce n’est pas celle réalisée par le drone lui-même mais celle réalisée par les policiers depuis le poste de contrôle, sur leurs propres ordinateurs, à partir du fichier de traitement des antécédents judiciaires qui leur permet depuis 2012 de réaliser de tels traitements (voir notre analyse sur le fichier TAJ). La seule amélioration apportée par l’Assemblée nationale l’an dernier aura bien vite été supprimée aujourd’hui.
« Par dérogation à cette procédure d’autorisation, lorsque l’urgence résultant d’une exposition particulière et imprévisible à un risque d’atteinte caractérisée aux personnes ou aux biens le requiert, les traitements mentionnés au présent article peuvent être mis en œuvre de manière immédiate, après information préalable, du représentant de l’État dans le département ou, à Paris, du préfet de police, qui peut y mettre fin à tout moment. Au‑delà d’une durée de quatre heures, la poursuite de la mise en œuvre du traitement est subordonnée à son autorisation expresse et ne peut excéder une durée de vingt‑quatre heures »
Sont prohibés […] l’analyse des
images issues de leurs caméras au moyen de dispositifs automatisés de reconnaissance faciale
";s:7:"dateiso";s:15:"20210923_164222";}s:15:"20210922_153147";a:7:{s:5:"title";s:86:"Règlement IA : la Commission européenne tend le piège de la reconnaissance faciale";s:4:"link";s:121:"https://www.laquadrature.net/2021/09/22/reglement-ia-la-commission-europeenne-tend-le-piege-de-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17622";s:7:"pubDate";s:31:"Wed, 22 Sep 2021 13:31:47 +0000";s:11:"description";s:267:"Le 21 avril 2021, la Commission européenne a déposé un projet de règlement sur l’intelligence artificielle. S’il prétend proposer « un cadre juridique pour une IA digne de confiance », ce règlement conduira en vérité à abaisser…";s:7:"content";s:9734:"
Le 21 avril 2021, la Commission européenne a déposé un projet de règlement sur l’intelligence artificielle. S’il prétend proposer « un cadre juridique pour une IA digne de confiance », ce règlement conduira en vérité à abaisser le niveau de protection actuellement assuré par le droit européen. Son principal risque sera d’autoriser certaines pratiques jusqu’alors interdites – au premier rang desquelles la reconnaissance faciale policière de masse.
Pour rappel, depuis 2016, l’article 10 de la directive 2016/680 interdit aux États membres de l’UE d’analyser des données biométriques à des fins policières, sauf « en cas de nécessité absolue ». Autrement dit, la reconnaissance faciale n’est possible que dans les cas exceptionnels où elle est « indispensable » – où la police ne disposerait plus d’aucun autre moyen pour lutter contre une infraction. Or, la police a systématiquement échoué à démontrer que ce cas théorique pouvait se matérialiser en pratique : si elle peut parfois être « utile », la reconnaissance faciale n’est jamais « indispensable » au travail de la police.
C’est pourquoi nous avons demandé en 2020 au Conseil d’État de supprimer la disposition du décret TAJ qui, depuis 2012, autorise la police française à recourir librement à la reconnaissance faciale (lire notre article). Notre affaire contre le décret TAJ est encore en cours et, pour l’instant, le droit européen en vigueur depuis 2016 devrait nous donner raison. Hélas, cela pourrait changer prochainement.
La Commission européenne a déposé un nouveau projet de règlement sur l’IA dont l’article 5 entend poser de nouveaux cadres juridiques spécifiques pour certains usages de l’intelligence artificielle, notamment les « systèmes d’identification biométrique à distance « en temps réel » dans des espaces accessibles au public à des fins répressives ». Si, de prime abord, le règlement semble interdire de tels dispositifs, il s’agit d’un simple tour de passe-passe : non seulement, comme expliqué ci-avant, cette interdiction découlait déjà de la directive de 2016 mais, surtout, si le règlement fait mine de rappeler cette interdiction, c’est uniquement pour lui ajouter une nouvelle et très large exception. L’ancienne condition de « nécessité absolue » est remplacée par une mise en balance entre, d’un côté, les intérêts de la police et, de l’autre, les dommages que cette surveillance pourrait concrètement causer aux populations surveilléesArticle 5, paragraphe 2 : « L’utilisation de systèmes d’identification biométriques à distance en «temps réel» dans des espaces accessibles au public à des fins répressives […] tient compte des éléments suivants : (a) la nature de la situation donnant lieu à un éventuel recours au système, en particulier la gravité, la probabilité et l’ampleur du préjudice causé en l’absence d’utilisation du système ; (b) les conséquences de l’utilisation du système sur les droits et libertés de toutes les personnes concernées, notamment la gravité, la probabilité et l’ampleur de ces conséquences. ».
Il faut bien mesurer l’importance de ce changement de paradigme. Jusqu’alors, avec la notion de « nécessité absolue », la charge de la preuve reposait entièrement sur la police. Elle devait démontrer au cas par cas l’impossibilité matérielle qu’elle avait de travailler sans reconnaissance faciale. En face, les populations surveillées bénéficiaient d’une présomption juridique très forte. Ces populations n’avaient pas à démontrer que cette surveillance leur causait un dommage concret, car cette surveillance était considérée comme contraire par essence aux valeurs défendues par des sociétés démocratiques. C’est ce que rappelle l’ensemble des CNIL européennes réunies, dans un avis d’une rare franchise contre le nouveau projet de règlement sur l’IA : « l’identification biométrique à distance réalisée dans le contexte de manifestations politiques est susceptible d’avoir un effet dissuasif significatif sur l’exercice des droits et libertés fondamentales, telles que les libertés de réunion et d’association et, plus généralement, le principe fondateur de démocratie […] ses graves et irréversibles effets sur les attentes (raisonnables) de la population à être anonyme dans l’espace public porteraient directement atteinte à l’exercice de la liberté d’expression, de réunion, d’association et de circulation »Notre traduction de : « Article 5(1)(d) of the Proposal provides an extensive list of exceptional cases in which ‘real-time’ remote biometric identification in publicly accessible spaces is permitted for the purpose of law enforcement. The EDPB and the EDPS consider this approach flawed on several aspects: […] Post remote biometric identification in the context of a political protest is likely to have a significant chilling effect on the exercise of the fundamental rights and freedoms, such as freedom of assembly and association and more in general the founding principles of democracy. […] its irreversible, severe effect on the populations’ (reasonable) expectation of being anonymous in public spaces, resulting in a direct negative effect on the exercise of freedom of expression, of assembly, of association as well as freedom of movement. […]The reasoning behind the Proposal seems to omit that when monitoring open areas, the obligations under EU data protection law need to be met for not just suspects, but for all those that in practice are monitored. […] the criteria referred to under Article 5 to “qualify” the AI systems as prohibited limit the scope of the prohibition to such an extent that it could turn out to be meaningless in practice […] For all these reasons, the EDPB and the EDPS call for a general ban on any use of AI for an automated recognition of human features in publicly accessible spaces ».
Demain, avec le futur règlement IA, cette présomption disparaîtrait, cédant le pas à un équilibre à chercher au cas par cas entre police et population. Nous redoutons que cet équilibre, n’étant plus réajusté par l’ancienne présomption, finira toujours en défaveur de la population. En effet, il est extrêmement difficile de démontrer concrètement les dégâts systémiques causés par la surveillance de masse – c’est bien pour combler cette difficulté que le droit avait posé une présomption en faveur de la population. Au contraire, la police n’aura aucun mal à monter en épingle le moindre fait divers pour affirmer que telle ou telle technique de reconnaissance faciale serait à tout prix indispensable.
En pratique, à l’avenir, quand nous voudrons contester un système policier de reconnaissance faciale, il nous faudra probablement démontrer que ce système cause des dommages concrets à la population et que ces dommages sont plus importants que l’intérêt pour la police de recourir à ces outils. Cette démonstration particulièrement ardue sur le plan juridique, et qui pourrait suffire à nous faire perdre, ne nous est aujourd’hui nullement demandée dans notre affaire contre le TAJ – il nous suffit de pointer le fait que la police échoue à démontrer que la reconnaissance faciale est « absolument nécessaire » à son travail. À l’inverse, si le futur règlement proposé par la Commission européenne était déjà en vigueur aujourd’hui, il est bien possible que notre attaque contre le TAJ aurait déjà échoué.
Nous n’avons pas encore eu le temps d’appliquer la directive de 2016 contre la reconnaissance faciale permise dans le TAJ depuis 2012 que, déjà, nos arguments juridiques sont sur le point d’être effacés des textes de loi. Une fois que le futur règlement IA aura largement autorisé la reconnaissance faciale « en temps réel » grâce à ce terrible piège de la « balance des intérêts entre police et population », il faut redouter que ce nouveau paradigme juridique contamine l’ensemble des traitements de données biométriques, y compris ceux que le règlement IA ne vise pas encore explicitement (reconnaissance « en temps différé », détection de comportement, identification vocale, etc.).
Ce règlement IA pose d’autres problèmes que nous discuterons très prochainement. Mais, d’ores et déjà, ce terrible risque de généralisation de la reconnaissance faciale policière de masse justifie à lui seul d’exiger le retrait de cette disposition et l’application immédiate du droit existant.
";s:7:"dateiso";s:15:"20210922_153147";}s:15:"20210914_145219";a:7:{s:5:"title";s:33:"Les drones reviennent, nous aussi";s:4:"link";s:73:"https://www.laquadrature.net/2021/09/14/les-drones-reviennent-nous-aussi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17602";s:7:"pubDate";s:31:"Tue, 14 Sep 2021 12:52:19 +0000";s:11:"description";s:231:"Le 20 juillet 2021, le gouvernement a déposé une nouvelle loi sécuritaire qui, entre autres choses, autorisera les drones policiers. Ces mêmes drones qui, par la force de nos efforts collectifs, avaient été rejetés à…";s:7:"content";s:10867:"
Le 20 juillet 2021, le gouvernement a déposé une nouvelle loi sécuritaire qui, entre autres choses, autorisera les drones policiers. Ces mêmes drones qui, par la force de nos efforts collectifs, avaient été rejetés à quatre reprises l’an dernier. Le gouvernement s’empresse de saper nos si précieuses victoires obtenues contre sa surveillance policière.
Première victoire, mai 2020
En juillet 2019, la police nationale comptait 30 drones et 23 pilotes. Un an plus tard, ces chiffres ont été multipliés par 7 : 235 drones et 146 pilotes. En avril 2020, un appel d’offre prévoyait l’acquisition de 650 drones de plus.
Au même moment, nous publiions un tour d’horizon des drones déployés en France par la police au prétexte de la crise sanitaire. En mai 2020, nous attaquions ces usages puis obtenions une première victoire décisive devant le Conseil d’État, la plus haute juridiction administrative française : à défaut de texte spécifique pour les autoriser, ces usages sont illégaux.
Deuxième victoire, décembre 2020
Hélas, la police a laissé traîner les choses en continuant d’utiliser illégalement ses drones. Elle a attendu deux mois pour commencer à réfléchir à une manière de contourner l’interdiction posée par le Conseil d’État, prétendant développer un soi-disant système de floutage des images captées. En octobre 2020, nous attaquions de nouveau la police en visant la surveillance des manifestations parisiennes par drones, telle que nous l’avions finement documentée avec votre aide.
En décembre 2020, le Conseil d’État confirmait notre seconde victoire décisive : injonction était faite à la police parisienne d’immobiliser ses machines au sol. Au-delà du rappel qu’aucun texte n’autorisait l’usage de drone, le Conseil d’État pointait un problème juridique encore plus fondamental de cette affaire : « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement, dans les circonstances actuelles, en l’absence de recours à des drones ».
Troisième victoire, janvier 2021
En janvier 2021, évènement aussi rare que bienvenu, la CNIL venait en renfort pour offrir une troisième victoire contre les drones : elle sanctionnait le ministère de l’intérieur et l’obligeait à cesser tout vol de drone sur l’ensemble du territoire. Ce faisant, la CNIL confirmait aussi l’extension de nos précédentes victoires contre la police parisienne à l’ensemble du territoire français.
Ces trois premiers succès sont intervenus face à un gouvernement bien peu préparé à nos initiatives. Mais à partir d’octobre 2020, il a ouvert une stratégie bien mieux organisée et mûrie et ouvert le véritable débat avec la loi sécurité globale.
Quatrième victoire, mai 2021
Heureusement, grâce à la mobilisation impressionnante et continue d’une large partie de la population contre la loi sécurité globale, des mois durant, le discours du gouvernement sur les drones a pu être méthodiquement déconstruit. En mai 2021, actant la défaite idéologique du gouvernement, le Conseil constitutionnel a censuré les dispositions qui allaient autoriser les drones policiers. C’est la quatrième et plus importante victoire.
La plus importante car elle est idéologique. Elle s’est principalement jouée dans la rue et dans le débat public, plutôt que devant les tribunaux. Elle a permis de s’attaquer au cœur du modèle de société proposé par le gouvernement, de construire un discours populaire contre l’État policier et son monde de distanciation, où la population serait régulée de loin, comme des objets, par des caméras et des robots militarisés, sans contact ni échange humain possible (voir notre manifeste initial dénonçant une loi de surveillance de masse déshumanisée).
Cinquième bataille, maintenant
En juillet 2021, le gouvernement a lancé sa cinquième bataille en déposant un projet de loi fourre-tout qui acte notamment le retour des drones pour la police. Refusant toute remise en question, le gouvernement s’obstine à imposer son monde par la force. Il ne cherche même plus à ouvrir un débat public ni à gagner l’opinion – on le comprend, il a déjà perdu ce débat plusieurs fois. À la place, il a réintroduit ses drones au milieu d’une nouvelle loi sécuritaire, la quatrième de l’année de 2021 (après la loi sécurité globale, la loi séparatisme et la loi renseignement).
Le député rapporteur de la loi sur la partie surveillance est Jean-Michel Mis, qui a prouvé être l’un des plus fiers et fidèles défenseurs de la surveillance de masse (voir notre portait). La loi est en lecture accélérée alors qu’elle contient une large série de dispositions qui n’ont rien à voir les unes avec les autres – une sorte de loi voiture balai sécuritaire pour finir le mandat Macron – bien que particulièrement complexes (amendes forfaitaires pour vol à l’étalage, fichage des mineurs étrangers, caméras en garde à vue, évolution de la CNIL) ou polémiques (en lien avec l’affaire Halimi).
Nous retrouvons le même contexte qui avait empêché le Parlement de débattre des drones dans la loi sécurité globale : une disposition noyée au cœur d’un texte fourre-tout, une procédure accélérée, un débordement législatif sécuritaire, un rapporteur aux ordres de la Technopolice…
Comment s’organiser ?
L’an dernier, l’article 24 de la loi sécurité globale (concernant la diffusion d’images de policiers) avait mis le feu aux poudres et permis d’ouvrir en dehors du Parlement un débat qui y était impossible. Pouvons-nous répéter cet exploit dans un contexte radicalement différent ?
Comme nous avons essayé de le démontrer cet été, le passe sanitaire et les drones sont les outils du même projet technopolicier. L’opposition massive au passe sanitaire pourrait-elle, à son tour, attiser l’opposition aux drones ? Et pour quels objectifs ? En cas de mobilisation populaire massive, doit-on espérer que le Conseil constitutionnel censure une nouvelle fois cette tentative d’autorisation des drones ?
L’hypothèse n’est pas absurde tant le gouvernement échoue à corriger dans son nouveau projet de loi les failles juridiques considérables de sa précédente loi (nécessité des drones non-démontrée au cas par cas, public non-informé, surveillance des lieux privés…). Toutefois, même si le Conseil constitutionnel pourrait une fois de plus se dresser en rempart de circonstance contre les drones, il nous semble imprudent de ne pas aller chercher des protections plus certaines et pérennes ailleurs.
On l’a vu, nos victoires sont encore plus puissantes quand elles se réalisent à la fois devant les tribunaux et dans la rue. Sur le long terme, pour remporter au-delà de quelques batailles, il nous faudra encore multiplier nos voies d’actions – ne pas nous arrêter aux stratégies juridiques, mais gagner aussi le monde des idées et de l’imaginaire. D’abord, il nous faudra regarder comme formant un tout nos diverses luttes contre la dystopie technologique annoncée par nos gouvernants : reconnaissance faciale, drones, passe sanitaire, safe city, analyse comportementale, automatisation et déshumanisation des rapports sociaux…
Une fois bien cerné, nous pourrons prendre ce cauchemar à deux mains, puis le jeter loin de nous, loin de nos esprits qu’il a déjà tant pollués. C’est ainsi libérées que nous pourrons renouveler notre imaginaire collectif pour y fonder un futur enviable, enfin. Un futur qui nous donnera la force de multiplier les façons de nous penser et d’agir. Il y a tant de choses à défaire, puis tant d’autres à construire, saisissons l’opportunité de cette cinquième lutte contre les drones pour bâtir bien au-delà du débat stérile imposé par nos adversaires.
";s:7:"dateiso";s:15:"20210914_145219";}s:15:"20210819_132920";a:7:{s:5:"title";s:50:"Passe sanitaire : quelle surveillance redouter ?";s:4:"link";s:85:"https://www.laquadrature.net/2021/08/19/passe-sanitaire-quelle-surveillance-redouter/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17539";s:7:"pubDate";s:31:"Thu, 19 Aug 2021 11:29:20 +0000";s:11:"description";s:279:"Les critiques du passe sanitaire dénoncent unanimement un « danger autoritaire ». Assez justement, la CNIL elle-même présente ce danger comme « le risque d’accoutumance et de banalisation de tels dispositifs attentatoires à la vie privée et de…";s:7:"content";s:16865:"
Les critiques du passe sanitaire dénoncent unanimement un « danger autoritaire ». Assez justement, la CNIL elle-même présente ce danger comme « le risque d’accoutumance et de banalisation de tels dispositifs attentatoires à la vie privée et de glissement, à l’avenir, et potentiellement pour d’autres considérations, vers une société où de tels contrôles deviendraient la norme et non l’exception ». Prenons un instant pour détailler ce danger et répondre à la question : de quel type de surveillance le passe sanitaire est-il l’expression ?
Il existe déjà de nombreux « dispositifs attentatoires à la vie privée » contre la généralisation desquels nous luttons depuis des années : écoutes téléphoniques, fichage, caméras, drones, géolocalisation, logiciels espions… Pour comprendre et prévenir les dangers posés par le passe sanitaire, il faut le situer précisément au sein de cet écosystème. Certains outils de surveillance sont plus ou moins faciles à déployer, à plus ou moins grande échelle, de façon plus ou moins visible et avec des conséquences très variables. En comprenant dans quel mouvement technologique et à partir de quels outils pré-existants le passe sanitaire s’est construit, nous espérons lutter plus efficacement contre la banalisation du type de surveillance qu’il permet.
Contrôler pour exclure
Pour prendre du recul, décrivons de façon générale l’action que permet de réaliser le passe sanitaire : exclure de certains emplois, transports et lieux des personnes dont la situation diffère de certains critères fixés par l’État.
Formulé ainsi, ce mode de régulation n’a rien de nouveau. C’est notamment de cette façon que l’État français traite les personnes étrangères : l’accès aux transports vers le territoire national, puis l’accès au séjour et à l’emploi sur le-dit territoire n’est permis que si la situation des personnes étrangères est conforme à des critères fixés par l’État (situation personnelle familiale et économique, pays d’origine, âge…). Le respect des critères est vérifié une première fois en amont puis se traduit par la délivrance d’un titre : visa, cartes de séjour, etc. Ensuite, la police n’a plus qu’à contrôler la possession de ces titres pour contrôler la situation des personnes, puis leur ouvrir ou leur fermer les accès correspondants. En menaçant d’exclure du territoire ou de l’emploi les personnes ne disposant pas du bon titre, l’État déploie une lourde répression – les conséquences pour les personnes exclues sont particulièrement dissuasives.
Toutefois, jusqu’à peu, ce type de répression avait d’importantes limitations pratiques : les titres ne pouvaient être délivrés qu’avec un certain délai et à un certain coût, de nombreux policiers devaient être déployés pour les vérifier et certains policiers devaient même être spécifiquement formés pour en vérifier l’authenticité. Ces limitations expliquent sans doute en partie pourquoi ce type de répression s’est jusqu’ici centré sur des cas précis (tel que le contrôle des personnes étrangères) sans être systématiquement déployé pour gérer n’importe quelle situation que l’État souhaiterait réguler.
Le passe sanitaire est la traduction d’évolutions techniques qui pourraient supprimer ces anciennes limites et permettre à cette forme de répression de s’appliquer à l’ensemble de la population, pour une très large diversité de lieux et d’activités.
Passage à l’échelle technologique
Au cours de la dernière décennie, la majorité de la population française (84% en 2020) s’est équipée en smartphone muni d’un appareil photo et capable de lire des code-barres en 2D, tels que des codes QR. En parallèle, l’administration s’est largement appropriée les outils que sont le code-barre en 2D et la cryptographie afin de sécuriser les documents qu’elle délivre : avis d’imposition, carte d’identité électronique… Le code en 2D rend quasi-nul le coût et la vitesse d’écriture et de lecture d’informations sur un support papier ou numérique, et la cryptographie permet d’assurer l’intégrité et l’authenticité de ces informations (garantir qu’elles n’ont pas été modifiées et qu’elles ont été produites par l’autorité habilitée).
Si ces évolutions ne sont pas particulièrement impressionnantes en elles-même, leur concomitance rend aujourd’hui possible des choses impensables il y a encore quelques années. Elle permet notamment de confier à des dizaines de milliers de personnes non-formées et non-payées par l’État (mais simplement munies d’un smartphone) la mission de contrôler l’ensemble de la population à l’entrée d’innombrables lieux publics, et ce, à un coût extrêmement faible pour l’État puisque l’essentiel de l’infrastructure (les téléphones) a déjà été financée de manière privée par les personnes chargées du contrôle.
Désormais, et soudainement, l’État a les moyens matériels pour réguler l’espace public dans des proportions presque totales.
Une brique de plus à la Technopolice
La crise sanitaire a très certainement facilité ces évolutions, mais son rôle ne doit pas être exagéré. Cet emballement dramatique des pouvoirs de l´État s’inscrit dans un mouvement d’ensemble déjà à l’œuvre depuis plusieurs années, qui n’a pas attendu le coronavirus, et contre lequel nous luttons sous le nom de « Technopolice ». Il s’agit du déploiement de nouvelles technologies visant à transformer les villes en « safe cities » capables de réguler l’ensemble de l’espace public.
La Technopolice est l’expression d’évolutions technologiques qui, comme on l’a vu avec le cas du passe sanitaire, ont permis de rendre totales des formes de régulations qui, jusqu’alors, étaient plus ou moins ciblées. Prenons le cas emblématique des caméras : jusqu’à peu, la police était matériellement limitée à une politique de vidéosurveillance ciblée. Elle ne pouvait exploiter les enregistrements vidéo que pour analyser quelques situations ciblées, à défaut de pouvoir mettre un agent derrière chaque caméra 24 heures sur 24. De même, l’identification d’une personne filmée demandait des efforts importants.
Ces limitations ont depuis volé en éclat. La reconnaissance faciale rend presque triviale l’identification des personnes filmées (voir notre exposé). L’analyse automatisée d’images permet de détecter en continu tous les événements définis comme « anormaux » : faire la manche, être trop statique, courir, former un grand groupe de personnes, dessiner sur un mur… (voir par exemple les projets imaginés à Marseille ou à Valenciennes). Plus besoin de placer un agent derrière chaque caméra pour avoir une vision totale. Qu’il s’agisse du passe sanitaire ou de l’analyse d’image automatisée, dans les deux cas, la technologie a permis à des techniques ciblées de se transformer en outils de contrôle de masse de l’espace public.
Contrôle permanent des corps
Ce parallèle nous permet d’apporter une précision importante : qu’il s’agisse du passe sanitaire ou de la détection automatique des comportements « anormaux », ces systèmes ne nécessitent pas forcément un contrôle d’identité. Le logiciel d’imagerie qui signale votre comportement « anormal » se moque bien de connaître votre nom. De même, en théorie, le passe sanitaire aussi pourrait fonctionner sans contenir votre nom – c’est d’ailleurs ce que prévoyait la loi initiale sur la sortie de crise ou, plus inquiétant, ce que proposent désormais certaines entreprises en se fondant non plus sur le nom mais le visage. Dans ces situations, tout ce qui compte pour l’État est de diriger nos corps dans l’espace afin de renvoyer aux marges celles et ceux qui – peu importe leurs noms – ne se conforment pas à ses exigences.
Ce contrôle des corps se fait en continu et à tous les niveaux. D’abord pour détecter les corps jugés « anormaux », que ce soit par leur comportement, leur apparence, leur visage, leur statut vaccinal, leur âge… Ensuite pour contraindre les corps et les exclure de la société, que ce soit par la force armée de la police ou par des interdictions d’entrée. Enfin pour habiter les corps et les esprits en nous faisant intérioriser les règles dictées par l’État et en poussant à l’auto-exclusion les personnes qui ne s’y soumettent pas. Tout cela à l’échelle de l’ensemble de la population.
Une accoutumance injustifiée
L’adoption massive du passe sanitaire aurait pour effet d’habituer la population à se soumettre à ce contrôle de masse, ce qui s’inscrit dans la bataille culturelle plus large déjà initiée par le gouvernement, notamment autours des caméras. Cette accoutumance permettrait à l’État de poursuivre plus facilement sa conquête totale de l’espace public telle qu’il l’a déjà entamée avec la Technopolice.
Pourtant, paradoxalement, dans son format actuel, le passe sanitaire n’apparaît pas comme étant lui-même un outil de régulation très efficace. Il semble difficile d’empêcher les médecins qui le souhaitent de fournir des passes à des personnes qui ne devraient pas en recevoir. Et, quand bien même les passes seraient attribués aux « bonnes personnes », en l’état celles-ci peuvent facilement les partager avec les « mauvaises personnes ». Certes, la police entend réaliser des contrôles d’identité pour lutter contre ces échanges mais, si l’efficacité du système repose au final sur des contrôles de police aléatoires, il n’était pas nécessaire de déployer des mécanismes de surveillance de masse pour aller au-delà ce qui se fait déjà en la matière, par exemple avec les ordonnances manuscrites délivrées par les médecins que la police peut vérifier en cas de soupçons. Cela permettrait au moins de diminuer les risques d’accoutumance à un nouveau système de contrôle de masse.
Hélas, il semble plus sérieux d’envisager le scénario inverse : l’inefficacité du passe sanitaire pourrait servir de prétexte pour le perfectionner, notamment en permettant aux contrôleurs non-policiers de détecter les échanges de passe. Comme vu plus haut, certains proposent déjà un nouveau système affichant le visage des personnes contrôlées. Une telle évolution nous livrerait la version pleinement aboutie et efficace du système de contrôle de masse rêvé par la Technopolice – et la police n’aurait presque plus à travailler pour contrôler les passes.
Obligation de prouver la nécessité
Même dans son format le plus sophistiqué, l’efficacité du passe sur le plan sanitaire resterait toujours à démontrer – il demeure de nombreuses incertitudes, que ce soit sur la valeur des tests au bout de 72 heures, sur le taux de transmission même une fois vacciné, sur le cas des nouveaux variants, sur l’efficacité de la contrainte pour inciter la population à se faire vacciner, ou sur la durée de validité à retenir pour les tests de dépistage.
Au plan juridique et politique, et tel que nous l’avions rappelé pour StopCovid, l’État est soumis à une règle simple mais fondamentale : il a l’obligation de prouver qu’une mesure causant des risques pour les libertés fondamentales est absolument nécessaire avant de la déployer. Dans notre cas, non seulement le gouvernement n’a pas encore démontré l’efficacité du passe sanitaire mais, plus grave, il a refusé de déployer ou de tester l’efficacité de mesures alternatives qui ne causeraient aucun risque pour les libertés (telles que des campagnes de communication bienveillantes, transparentes et non-paternalistes pour inviter à se faire vacciner), ou des mesures complémentaires ambitieuses (tel que le déblocage de financements pour permettre le dédoublement des salles de classe et leur aération, ce que le gouvernement à tout bonnement écarté).
Conclusion
Résumons : le passe sanitaire illustre des évolutions technologiques qui permettent à un mode de répression ancien (la répression par l’exclusion, illustrée notamment par le contrôle des personnes étrangères) de passer d’une échelle relativement restreinte à une échelle presque totale, concernant l’ensemble de la population et de l’espace public, afin de renvoyer à ses marges les personnes qui ne se soumettent pas aux injonctions de l’État.
Si, aujourd’hui, ces injonctions ne sont que d’ordre sanitaire, il faut encore une fois redouter que ce genre d’outil, une fois banalisé, soit mis au service d’injonctions dépassant largement ce cadre. Cette crainte est d’autant plus pesante que ce processus a déjà commencé au sein de la Technopolice, qui esquisse d’ores et déjà un mode de régulation social fondé sur la détection et l’exclusion de toute personne considérée comme déviante ou comme ayant un comportement « anormal » aux yeux de l’État et des entreprises de sécurité qui définissent ensemble et de manière opaque les nouvelles normes de comportement en société.
Dernier rappel stratégique : si le gouvernement français se permet d’imposer de tels outils de détection et d’exclusion des personnes qu’il juge indésirables, c’est notamment car il peut reprendre à son compte, et redynamiser à son tour, les obsessions que l’extrême droite est parvenue à banaliser dans le débat public ces dernières années afin de traquer, de contrôler et d’exclure une certaine partie de la population. La lutte contre les risques autoritaires du passe sanitaire serait vaine si elle ne s’accompagnait pas d’une lutte contre les idées d’extrême droite qui en ont été les prémices. La lutte contre le passe sanitaire ne doit pas se faire avec, mais contre l’extrême droite et ses obsessions, qu’elles soient dans la rue ou au gouvernement.
";s:7:"dateiso";s:15:"20210819_132920";}s:15:"20210730_145719";a:7:{s:5:"title";s:80:"Amende de 746 millions d’euros contre Amazon suite à nos plaintes collectives";s:4:"link";s:117:"https://www.laquadrature.net/2021/07/30/amende-de-746-millions-deuros-contre-amazon-suite-a-nos-plaintes-collectives/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17508";s:7:"pubDate";s:31:"Fri, 30 Jul 2021 12:57:19 +0000";s:11:"description";s:230:"Mise à jour du 4 août 2021 : nous venons de recevoir ce courrier de la CNIL nous donnant plus de précision sur la décision rendue au Luxembourg. En résumé :
l’autorité du Luxembourg a bien reconnu, comme…";s:7:"content";s:5052:"
Mise à jour du 4 août 2021 : nous venons de recevoir ce courrier de la CNIL nous donnant plus de précision sur la décision rendue au Luxembourg. En résumé :
l’autorité du Luxembourg a bien reconnu, comme nous le lui demandions, que Amazon nous ciblait à des fins publicitaires sans base légale et violait donc le RGPD (Amazon prétendait, à tort, que le contrat que nous passions avec lui pour utiliser ses services pouvait nous forcer à accepter ce ciblage) ;
Amazon a 6 mois pour corriger ce défaut de base légale (c’est à dire, mettre fin au ciblage publicitaire ou obtenir notre consentement libre pour ce faire) ;
au delà de ce délai, Amazon devra payer une astreinte de 746 000 € par jour de retard (c’est exactement la mesure que nous demandions) ;
les autorités de protection des données des autres États européens avaient donné leur accord à la décision rendue par l’autorité du Luxembourg (cela renforce d’autant plus la pression mise sur l’autorité Irlandaise pour nos quatre autres plaintes).
Le 16 juillet 2021, l’autorité luxembourgeoise de protection des données personnelles s’est enfin prononcée sur notre plainte collective déposée par 10 000 personnes contre Amazon en mai 2018. Cette décision intervient après trois années de silence qui nous avaient fait craindre le pire (relire nos craintes qui, s’agissant du cas d’Amazon, sont donc aujourd’hui caduques).
La décision, révélée par Bloomberg (mais qui ne nous avait pas encore été transmise), semble sans ambiguïté : le système de ciblage publicitaire imposé par Amazon est réalisé sans notre consentement libre, en violation du RGPD. L’entreprise est condamnée à une amende de 746 millions d’euros. Il s’agit du nouveau record européen en matière d’amendes prononcées contre une violation du RGPD (le record précédent était l’amende de 50 millions rendue contre Google par la CNIL, toujours dans le cadre de nos plaintes collectives – relire notre réaction).
En réaction à cette sanction historique, Amazon se plaint auprès de Bloomberg, faisant mine de ne pas comprendre ce qui est visé : « il n’y a aucune fuite de données, aucune donnée client n’a été exposée à des tiers ». Et pour cause : c’est le système-même de la publicité ciblée que nos plaintes comptent balayer dans son ensemble, et non pas quelques failles de sécurité occasionnelles. Cette sanction historique frappe au cœur le système de prédation des GAFAM et doit être applaudie en tant que telle.
En contraste, cette sanction historique rend encore plus flagrante la démission généralisée de l’autorité irlandaise de protection des données qui, en trois ans, n’a été capable de clore aucune des quatre autres plaintes que nous avions engagées contre Facebook, Apple, Microsoft et Google (relire nos critiques qui, sur ces cas, sont plus que jamais d’actualité).
La posture exemplaire de l’autorité luxembourgeoise est aussi une douche froide pour la CNIL en France qui, pendant longtemps, faisait figure en Europe de tête de file pour la protection des données. Aujourd’hui, la CNIL n’est plus que l’ombre d’elle même, alors que nos plaintes collectives, initialement introduites devant elle, lui offraient l’occasion idéale d’être le fer de lance du RGPD contre les violations systémiques des données personnelles au cœur du modèle économique des GAFAM.
Alors que l’enthousiasme de 2018 commençait à nous quitter et que nous craignions que la lutte juridique contre les GAFAM soit devenue impossible, c’est du Luxembourg (qui l’eut cru !) que nous revient notre espoir initial. Le modèle de domination économique fondée sur l’exploitation de notre vie privée et de notre libre arbitre est profondément illégitime et contraire à toutes les valeurs que nos sociétés démocratiques prétendent défendre. Nous continuerons donc à lutter contre cette domination, avec votre aide !
";s:7:"dateiso";s:15:"20210730_145719";}s:15:"20210728_124941";a:7:{s:5:"title";s:63:"Loi Renseignement 2 : nos arguments au Conseil constitutionnel";s:4:"link";s:101:"https://www.laquadrature.net/2021/07/28/loi-renseignement-2-nos-arguments-au-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17499";s:7:"pubDate";s:31:"Wed, 28 Jul 2021 10:49:41 +0000";s:11:"description";s:256:"Vendredi, le Conseil constitutionnel rendra sa décision sur la loi terrorisme et renseignement. Nous lui avons envoyé hier nos arguments.
Le mois dernier, nous avons dénoncé l’extrême rapidité de l’examen par le Parlement de la loi…";s:7:"content";s:41593:"
Vendredi, le Conseil constitutionnel rendra sa décision sur la loi terrorisme et renseignement. Nous lui avons envoyé hier nos arguments.
Le mois dernier, nous avons dénoncé l’extrême rapidité de l’examen par le Parlement de la loi terrorisme et renseignement, et cela malgré le bouleversement dramatique du rapport de force entre le gouvernement et la population qu’elle pourrait représenter (vous pouvez retrouver ici notre analyse des dangers de cette loi).
Déposée le 28 avril 2021, la loi a été débattue en quelques jours à l’Assemblée nationale et au Sénat, souvent la nuit et dans des hémicycles quasi-vides, le tout dans un inquiétant silence médiatique et politique. Elle a été définitivement adoptée par l’Assemblée nationale ce jeudi 22 juillet (voir le texte final).
C’est donc encore au Conseil constitutionnel (institution composée de neuf membres désigné·es et non élu·es) qu’il revient de jouer le rôle de véritable contre-pouvoir et de compenser la démission généralisée du Parlement de ses missions démocratiques. Autre signe de la prédominance du tout-sécuritaire : alors que le Conseil constitutionnel a normalement un mois pour se prononcer sur un texte, le gouvernement a utilisé la procédure d’urgence et a demandé à ce qu’il se prononce en seulement 8 jours.
Cette urgence forcée devant le Conseil constitutionnel empêchant tout véritable débat de fond, nous lui avons adressé hier une contribution extérieure se limitant aux dispositions nous paraissant les plus graves. Le texte de cette contribution est disponible ici – nous recopions ci-dessous nos arguments.
Le Syndicat des Avocats de France (SAF) et le Syndicat de la Magistrature (SM) ont également adressé au Conseil constitutionnel leurs arguments, que vous pouvez retrouver ici.
PARTIE 1. Sur la pérennisation et l’extension du recours aux algorithmes de surveillance ainsi que sur l’extension de la possibilité de recueil en temps réel de certaines données (Articles 14, 15 et 16)
Les articles 14 et 15 du projet de loi organisent la pérennisation et l’extension des dispositions prévues à l’article L. 851-3 du code de la sécurité intérieure encadrant le recours aux algorithmes de surveillance. L’article 16 organise l’extension de la possibilité de recueil en temps réel des données de connexion.
Ces articles constituent une atteinte disproportionnée au droit à la vie privée (a) et au secret des correspondances (b) ainsi qu’à l’article 34 de la Constitution (c).
a) Atteinte disproportionnée au droit à la vie privée
En droit :
Au titre notamment du droit au respect de la vie privée protégé par l’article 2 de la Déclaration de 1789, le Conseil constitutionnel a considéré que la « collecte, l’enregistrement, la conservation, la consultation et la communication de données à caractère personnel doivent être justifiés par un motif d’intérêt général et mis en œuvre de manière adéquate et proportionnée à cet objectif » (Cons. constit., n°2012-652 DC, 22 mars 2012).
Ce droit au respect de la vie privée est également inscrit aux articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne, que le Conseil constitutionnel se doit de respecter au titre de l’article 88-1 de la Constitution. De manière générale, si le Conseil constitutionnel n’est pas tenu d’appliquer la jurisprudence de la Cour de Justice de l’Union européenne, il peut cependant utilement s’en inspirer afin de garantir un niveau de protection adapté aux droits et libertés constitutionnellement protégés.
Il est vrai que dans sa décision de 2015 sur la loi « relative au renseignement », le Conseil constitutionnel a considéré que le recours aux algorithmes ne constituait pas une atteinte disproportionnée au droit au respect de la vie privée (Cons. constit., n° n°2015-713 DC, § 60).
Néanmoins, depuis cette décision, la Cour de Justice de l’Union européenne a rendu une décision concernant notamment la compatibilité entre le droit de l’Union européenne et un dispositif de traitement automatisé des données relatives au trafic et des données de localisation (CJUE, C-511/18 et s., 6 octobre 2020). Elle y souligne notamment que le recours à l’analyse automatisée doit être limité « à des situations dans lesquelles un État membre se trouve confronté à une menace grave pour la sécurité nationale qui s’avère réelle et actuelle ou prévisible, le recours à cette analyse pouvant faire l’objet d’un contrôle effectif (…) » (CJUE, précité, § 192).
En l’espèce :
En premier lieu, alors que la loi de 2015 « relative au renseignement » ne permettait l’utilisation des algorithmes de surveillance qu’à titre expérimental, la loi examinée par le Conseil constitutionnel prévoit aujourd’hui la pérennisation de ce dispositif. La CNIL rappelle ainsi dans son avis sur le texte que « l’utilisation d’une telle technique porte une atteinte particulièrement forte à la vie privée des individus et au droit à la protection des données à caractère personnel » (CNIL, Délibération n°2021-040 du 8 avril 2021, § 24). Elle a souligné ne pas avoir pu analyser la proportionnalité de l’atteinte à la vie privée constituée par cette pérennisation (CNIL, idem, § 31).
En second lieu, aucune disposition ne vient répondre aux exigences de la Cour de Justice de l’Union européenne sur les limitations à apporter à l’utilisation des algorithmes de surveillance. Ainsi, l’article 14 ne mentionne aucune limitation du dispositif à l’existence d’une « menace grave pour la sécurité nationale » qui serait « actuelle ou prévisible ». Il ne prévoit encore moins aucun « contrôle effectif » d’une telle analyse. Le législateur n’a donc tiré aucune conséquence des récents arrêts de la Cour de Justice sur la question du recours aux algorithmes.
Il est particulièrement significatif que la loi déférée prévoit un régime spécifique pour la conservation des données de connexion, avec décision du Premier ministre relative à l’existence de « motifs tenant à la sauvegarde de la sécurité nationale », mais qu’aucun régime parallèle ne soit prévu pour le recours aux algorithmes.
Il en résulte que la pérennisation et l’extension du recours aux algorithmes prévues aux articles 14 et 15 de la loi déférée sont contraires à l’article 2 de la Déclaration de 1789 et à l’article 88-1 de la Constitution.
b) Atteinte disproportionnée au secret des correspondances
En droit :
Le Conseil constitutionnel a admis la valeur constitutionnelle du droit au secret des correspondances, rattaché aux articles 2 et 4 de la Déclaration de 1789 (Cons. constit., n°2004-492 DC, 2 mars 2004).
Dans sa décision de 2015 concernant la loi « relative au renseignement », il a conditionné la constitutionnalité des dispositions relatives au recours à l’algorithme au fait que, notamment, ces traitements ne pouvaient porter que sur des informations ou documents mentionnés à l’article L. 851-1 du CSI, c’est-à-dire des données dites de « connexion » ou « métadonnées » (Cons. constit., n°2015-713 DC, § 60). Dans cette même décision, le Conseil constitutionnel précise que les données faisant l’objet du traitement « ne peuvent en aucun cas porter sur le contenu des correspondances échangées ou des informations consultées, sous quelque forme que ce soit » (Cons. constit., n°2015-713 DC, § 55).
À ce titre, si le Conseil constitutionnel a admis dans sa décision de 2015 certaines techniques de renseignement portant atteinte au secret du contenu des correspondances, il ne l’a fait qu’en raison de leur caractère ciblé, différent d’une surveillance généralisée (voir notamment Cons. constit., n°2015-713 DC, § 25).
En l’espèce :
Les articles 15 et 16 étendent le recours aux algorithmes et la possibilité de recueil en temps réel des données de connexion aux « adresses complètes de ressources utilisées sur internet ».
Comme le rappelle la CNIL dans son avis sur le texte, ce type de données « sont susceptibles de faire apparaître des informations relatives au contenu des éléments consultés ou aux correspondances échangées » (CNIL, Délibération n°2021-040 du 8 avril 2021, § 35). Les « adresses complètes de ressources utilisées sur internet » peuvent, en effet, être extrêmement parlantes sur le contenu consulté par l’utilisateur, et indiquer par exemple le titre d’un article complet.
Dans son rapport sur le projet de loi, la commission des lois du Sénat rappelle ainsi qu’aussi bien la CNIL que la Commission nationale de contrôle des techniques de renseignement (CNCTR) ont, dans leur avis sur le projet de décret relatif aux techniques de renseignement « exclu la possibilité que la technique de l’algorithme puisse permettre un accès complet aux URL » du fait que les URL « constituent des données mixtes, comprenant à la fois des données de connexion, c’est-à-dire des éléments relatifs à l’acheminement de la communication internet, et des données de communication, c’est-à-dire des éléments fournissant des précisions sur l’objet ou le contenu du site internet consulté » (Commission des lois du Sénat, Rapport n°694 sur le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement, 16 juin 2021).
La commission des lois du Sénat y ajoute que, selon la Délégation Parlementaire au Renseignement (ci-après « DPR ») « l’élargissement de la technique de l’algorithme souhaité par les services à l’analyse de la totalité des informations contenues dans les URL reviendrait, de fait, à autoriser un traitement automatisé de données révélant, pour partie, le contenu de communications ». En effet, elle précise que si le Conseil constitutionnel n’interdit pas par principe que des services du renseignement accèdent au contenu des communications, cela n’a été autorisé pour l’instant que pour une collecte individualisée et non pour « un traitement en masse des données de communication » (Commission des lois du Sénat, Rapport sur le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement n° 694, 16 juin 2021).
Il en résulte que les articles 15 et 16 autorisent la surveillance en masse de données portant sur le contenu des correspondances, en contradiction avec le secret des correspondances protégées par la Constitution.
c) Incompétence négative du législateur
En droit :
Il ressort de l’article 34 de la Constitution que la loi fixe les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques.
Dans sa décision de 2015 sur la loi « relative au renseignement », le Conseil constitutionnel a ainsi considéré qu’il y avait eu violation de l’article 34 du fait de l’absence de définition dans la loi des « conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1 » en matière de surveillance internationale. Le législateur n’avait ainsi pas déterminé « les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques » (Cons. constit., n°2015-713 DC, § 78).
En l’espèce :
L’article 15 la loi déférée modifie l’article L851-3 du CSI. Désormais, cet article ne prévoit plus que « peut être imposé aux opérateurs […] la mise en œuvre sur leurs réseaux » du dispositif de détection automatisée, mais que ce dispositif sera désormais directement mis en œuvre par les services de renseignement « sur les données transitant par les réseaux des opérateurs ». Cette modification implique une architecture radicalement différente que la loi échoue entièrement à décrire et à encadrer.
En effet, dans son avis sur le texte, la CNIL précise que « le ministère a retenu une architecture selon laquelle les flux de données ne sont pas analysés au moyen d’algorithmes installés sur les réseaux des opérateurs mais dupliqués puis acheminés au sein d’une infrastructure dépendant de l’État pour être soumis à des dispositifs de détection centralisés ». Elle considère ainsi que cela implique de « dupliquer, au bénéfice d’un service administratif du Premier ministre, l’ensemble de ces données, qui concernent tous les appels téléphoniques et accès internet réalisés sur le territoire français, constitue une évolution particulièrement significative » (CNIL, Délibération n°2021-040 du 8 avril 2021, § 16 et s.).
À ce titre, la CNIL considère donc « indispensable que le texte soit précisé » sur ce sujet et que le principe de cette architecture « devrait (…) figurer dans la loi » (idem).
Cette architecture facilite en effet grandement la surveillance réalisée par les services de renseignement et est susceptible d’être dévoyée à d’autres fins que celles définies par le texte, et ce d’autant plus que les dispositifs de l’article 10 de cette même loi permettent de facto de conserver les données analysées par l’algorithme pour la recherche et développement pendant 5 ans. Cela pourrait potentiellement être l’intégralité du trafic internet qui pourrait donc se retrouver dupliqué et mis de côté par les services de renseignement.
La loi déférée n’apporte aucune précision sur les modalités de mise en œuvre de la technique de recours aux algorithmes ni sur l’architecture précise du traitement automatisé. Le législateur n’a donc pas précisé les conditions réelles de collecte, d’exploitation et de conservation des renseignements lié à la particularité de la duplication et de la centralisation des données de connexion concernant potentiellement l’ensemble des personnes vivant en France.
Il en résulte que l’article 15 est en contradiction avec l’article 34 de la Constitution.
PARTIE 2. Sur l’organisation de la conservation des données de connexion par les opérateurs (Article 17)
L’article 17 refond le cadre de conservation généralisée des données de connexion par les opérateurs en réaction à la décision de la Cour de Justice de l’Union européenne du 6 octobre 2020.
Il constitue une atteinte disproportionnée aussi bien au droit à la vie privée protégé par l’article 2 de la Déclaration de 1789 qu’à l’article 88-1 de la Constitution en ce qu’il représente une violation directe du droit de l’Union européenne tel qu’interprété par la Cour de Justice de l’Union européenne.
En droit :
Comme vu précédemment, le Conseil constitutionnel a reconnu que la collecte, l’enregistrement et la conservation de données personnelles étaient constitutives d’une atteinte à la vie privée et devaient donc être justifiées par un motif d’intérêt général et proportionné à cet objectif (Cons. constit., n°2012-652 DC, 22 mars 2012).
La Cour de justice de l’Union européenne rappelle de façon constante que [les données de connexion] « sont susceptibles de révéler des informations sur un nombre important d’aspects de la vie privée des personnes concernées (…). [qui] peuvent permettre de tirer des conclusions très précises concernant la vie privée des personnes dont les données ont été conservées (…). En particulier, ces données fournissent les moyens d’établir le profil des personnes concernées, information tout aussi sensible, au regard du droit au respect de la vie privée, que le contenu même des communications » (Digital Rights, 8 avril 2014, C‑293/12 et C‑594/12, § 27;Tele2, 21 décembre 2016, C‑203/15 et C‑698/15, § 99 ; La Quadrature du Net, 6 octobre 2020, C-511/18 et s., § 117).
Dans sa décision du 6 octobre 2020 « La Quadrature du Net », la Cour de Justice de l’Union européenne définit les limitations et garanties permettant aux régimes de conservation généralisée des données de connexion de se conformer aux articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne et à l’article 15 paragraphe 1 de la directive 2002/58 (CJUE, C-511/18 et s., 6 octobre 2020). Il convient à ce titre de rappeler que l’article 88-1 de la Constitution impose au législateur de respecter le droit de l’Union européenne.
Dans cette décision, la Cour de Justice de l’Union européenne a réaffirmé sa jurisprudence selon laquelle le droit de l’Union européenne s’opposait « à des mesures législatives prévoyant (…) à titre préventif, une conservation généralisée et indifférenciée des données relatives au trafic et des données de localisation ».
À titre exceptionnel, et étant mis de côté les cas particuliers des données relatives à l’état civil et des adresses IP, la Cour de Justice a considéré que seul était permis « le recours à une injonction faite aux fournisseurs de services de communications électroniques de procéder à une conservation généralisée et indifférenciée des données relatives au trafic et des données de localisation, dans des situations où l’État membre concerné fait face à une menace grave pour la sécurité nationale qui s’avère réelle et actuelle ou prévisible », précision étant faite que cette décision doit pouvoir faire l’objet d’un contrôle effectif : « soit par une juridiction, soit par une entité administrative indépendante, dont la décision est dotée d’un effet contraignant (…) » (CJUE, La Quadrature du Net, 6 octobre 2020, § 168). La Cour insiste bien sur le fait que « cette conservation ne saurait présenter un caractère systématique » (même arrêt, § 138).
Il en résulte qu’une conservation généralisée des données de connexion n’est possible qu’à travers une injonction spécifique limitée dans le temps adressée à des opérateurs dans le cas d’une menace grave pour la sécurité nationale d’un État et soumise au contrôle effectif d’une autorité dont la décision est dotée d’un effet contraignant.
En l’espèce :
Il est précisé au 3° du I de l’article 17 que le Premier ministre peut enjoindre « pour des motifs tenant à la sauvegarde de la sécurité nationale », quand il a constaté « une menace grave, actuelle ou prévisible », « par décret aux opérateurs (…) de conserver pendant une durée d’un an » certaines données de connexion.
Ce régime d’organisation de conservation des données de connexion ne respecte aucune des garanties imposées par la Cour de Justice de l’Union européenne, aussi bien sur la nature de l’injonction (1), sur les motifs tenant à la sauvegarde de la sécurité nationale (2) que sur l’absence de contrôle effectif (3).
1. Sur la nature de l’injonction
Le fait que le Premier ministre puisse enjoindre cette conservation des données par un décret ne remplit pas les conditions exigées par la Cour de Justice de l’Union européenne. En effet, un acte administratif réglementaire ne saurait constituer une injonction : cette dernière doit nécessairement être spécifique et ne peut prendre la forme que d’un acte individuel. De plus, la durée d’un an prévue pour l’application du décret est excessive au regard de la nécessité de circonscrire cette collecte au strict nécessaire, d’autant qu’aucune limite du nombre de reconduction n’est prévue dans la loi, permettant alors un caractère systématique de la collecte des données de connexion.
2. Sur les motifs tenant à la sauvegarde de la sécurité nationale
La notion de sécurité nationale telle qu’interprétée par le Conseil d’État et à laquelle renvoie la loi déférée ne correspond en aucun cas à celle, restreinte et devant répondre à un critère d’exception, retenue par la Cour de Justice de l’Union européenne comme pouvant seule légitimer la conservation généralisée et indifférenciée des données de connexion.
En effet, la notion de sécurité nationale telle qu’entendue en droit français doit aujourd’hui, selon le Conseil d’État « être appréciée au regard de l’ensemble des intérêts fondamentaux de la Nation listés à l’article L. 811-3 du code de la sécurité intérieure », notion extrêmement large concernant notamment « les intérêts majeurs de la politique étrangère », les « intérêts économiques, industriels et scientifiques majeurs de la France » ou les risques tenant aux « violences collectives » que le Conseil constitutionnel a notamment rattaché, dans sa décision sur la loi renseignement de 2015, à l’organisation de manifestation non déclarées. Ainsi, dans sa récente décision, le Conseil d’État souligne ainsi que la menace pour la sécurité nationale n’est pas seulement liée au risque terroriste mais aussi au « risque d’espionnage et d’ingérence étrangère », à « l’activité de groupes radicaux » (Conseil d’État, 21 avril 2021, n° 393099 et s., § 44).
Une telle notion est donc très éloignée de la notion de menace grave pour la sécurité nationale telle qu’entendue par la Cour de Justice de l’Union européenne, qui ciblait spécifiquement « des activités de terrorisme », et ce dans les seuls cas où ces activités représenteraient une menace réelle et immédiate. Il revenait donc au législateur de limiter la conservation généralisée des données de connexion à des situations beaucoup plus restreintes, exceptionnelles et proportionnées que celles dégagées par le Conseil d’État autour de son interprétation dévoyée de la notion de sécurité nationale.
3. Sur l’absence de contrôle effectif
Le dispositif tel que prévu par le législateur ne prévoit pas de contrôle effectif répondant aux exigences de la Cour de Justice de l’Union européenne.
Aucun contrôle de la CNCTR n’est prévu sur l’injonction du Premier ministre, alors que cette institution est un des maillons essentiel de la chaîne opérationnelle encadrant le recueil des renseignements. C’est d’ailleurs un des regrets exprimé par la CNIL dans son avis sur le projet de loi qui considère que l’injonction du Premier ministre « devrait être soumis pour avis à la CNCTR » (CNIL, Délibération n° 2021-053, § 16).
Le seul contrôle possible de la conservation généralisée des données de connexion n’est finalement pas dans la loi, mais est dévolu à la potentialité du recours à un juge. Comme le rappelle la commission des lois du Sénat, ce contrôle correspondrait en réalité à la possibilité que le Conseil d’État soit « éventuellement saisi en référé du décret du Premier ministre » (Commission des lois du Sénat, Rapport n°694 sur le projet de loi du « relatif à la prévention d’actes de terrorisme et au renseignement, 16 juin 2021). Il ne s’agit en aucun cas d’un contrôle effectif tel que demandé par la Cour de Justice de l’Union européenne mais d’un contrôle dépendant de la volonté de possible requérants qui ne pourrait être réalisé qu’a posteriori, soit une fois que la mesure portant atteinte à la vie privée ait été réalisée.
Il en résulte que l’article 17 de la loi déférée ne respecte pas les articles 2 de la Déclaration de 1789 et 88-1 de la Constitution.
PARTIE 3. Sur l’extension des obligations de coopération des opérateurs de communications électroniques et des fournisseurs de services (Article 12)
L’article 12 prévoit la coopération forcée des opérateurs et fournisseurs de communications électroniques avec les services de renseignement afin de mettre en œuvre des techniques d’intrusion informatique directement sur des terminaux.
En droit :
Le Conseil constitutionnel censure depuis longtemps l’incompétence négative du législateur (cf. Cons. constit., 26 janv. 1967, Loi organique modifiant l’ordonnance du 22 décembre 1958, 67-31 DC), même d’office lorsque les auteurs de la saisine ne l’ont pas invoqué (cf. Cons. constit., 20 janv. 1984, Loi relative à l’enseignement supérieur, 83-165 DC). Le Conseil constitutionnel analyse ainsi régulièrement la méconnaissance, par le législateur, de l’étendue de sa propre compétence en lien avec le principe de clarté de la loi, d’une part, et l’objectif de valeur constitutionnelle d’intelligibilité et d’accessibilité de la loi, d’autre part (voir notamment Conseil constit., 12 août 2004, Loi relative aux libertés et responsabilités locales, 2004-503 DC, cons. 29).
Précisément, le commentaire autorisé du Conseil constitutionnel sous la décision 2004-503DC, explique que : «le principe de clarté, qui résulte de l’article 34 de la Constitution, et l’objectif de valeur constitutionnelle d’intelligibilité et d’accessibilité de la loi, qui découle des articles4,5,6 et 16 de la Déclaration de 1789 (…), imposent au législateur d’adopter des dispositions suffisamment précises et des formules non équivoques. A défaut, il renverrait à d’autres (administrations, juridictions) des choix que la Constitution lui a confiés en propre ».
De plus, le Conseil constitutionnel a pu censurer des dispositions au regard de leur complexité excessive, qui se traduisait notamment par censurer une disposition sur le fondement du « caractère imbriqué, incompréhensible pour le contribuable, et parfois ambigu pour le professionnel, de ses dispositions, ainsi que par les très nombreux renvois qu’il comporte à d’autres dispositions elles-mêmes imbriquées ; […] les incertitudes qui en résulteraient seraient source d’insécurité juridique, notamment de malentendus, de réclamations et de contentieux » (Décision n° 2005-530 DC du 29 décembre 2005, cons. 84)
Enfin, le Conseil constitutionnel a déjà jugé que ne sont pas conformes à la Constitution en ce qu’elles portent une atteinte manifestement disproportionnée au droit au respect de la vie privée des dispositions prévoyant des mesures de surveillance et de contrôle qui peuvent « être utilisées à des fins plus larges que la seule mise en œuvre » des exigences constitutionnelles et qui ne « définissent pas la nature des mesures de surveillance et de contrôle que les pouvoirs publics sont autorisés à prendre » (cons. 7 et 8, 2016-590 QPC du 21 octobre 2016).
En l’espèce :
Par le jeu de multiples renvois, l’article 12 étend le champ d’application des articles L.871-3 et L.871-6 du Code de sécurité intérieure qui permettent de contraindre les opérateurs et les fournisseurs d’accès à collaborer à la mise en œuvre des mesures de renseignement directement sur les réseaux et terminaux. L’article 12 aboutit ainsi in fine à permettre aux services de renseignement de solliciter ces acteurs pour la mise en œuvre de nouvelles mesures extrêmement intrusives, qui étaient circonscrites auparavant aux seuls acteurs du renseignement.
En premier lieu, le législateur n’a pas pris le soin de viser explicitement le contenu des mesures de surveillance et de contrôle visées par cette extension et s’est contenté de viser, par renvoi, plusieurs articles du code de sécurité intérieure et même des sections entières du code de procédure pénale. En élargissant de façon substantielle le nombre des situations pour lesquelles les services de renseignement peuvent requérir la contribution des fournisseurs et opérateurs et en ne listant pas précisément dans quelle mesures et sous quelles conditions cette contrainte pourrait être justifiée, le législateur a empêché les destinataires et personnes concernées par ces dispositions de comprendre et appréhender les situations concrètes prévues par ces dispositions.
L’analyse réelle de ces dispositions étaient par ailleurs totalement absente de l’exposé des motifs et de l’étude d’impact du Gouvernement ainsi que de l’avis du Conseil d’État et des rapports des différentes commissions.
Par cette absence de précision et par la complexité excessive de la rédaction de cet article, le législateur a incontestablement créé une situation d’insécurité juridique et méconnu l’étendue de sa compétence en manquant à remplir l’objectif de valeur constitutionnelle d’intelligibilité et d’accessibilité de la loi.
En second lieu, l’élargissement des techniques de renseignement pour lesquelles les opérateurs et fournisseurs peuvent être contraints de collaborer crée une atteinte manifestement disproportionnée au droit au respect de la vie privée.
À titre d’exemple, l’article L.853-2 du code de sécurité intérieure permettrait de contraindre des opérateurs de messagerie ou de téléphonie chiffrée à déployer des failles de sécurité sur des terminaux préalablement identifiés. Will Cathcart, dirigeant de la société Whatsapp, exprimait ces inquiétudes dans le journal Le Monde : « Ce serait une bonne chose que les implications de cet article soient clarifiées. », le journaliste indiquant que « la formulation actuelle évoque la mise en place de mesures de contournement du chiffrement de bout en bout » (Le Monde, « Vie privée, sécurité, e-commerce… Le patron de WhatsApp s’explique », 28 juin 2021).
De la même manière, les opérateurs pourraient être contraint de collaborer aux interceptions de données de connexions et interceptions de correspondances par « IMSI-catching » prévues par les article L. 852-1 et L. 851-6 du code de sécurité intérieure ainsi que par l’article 706-95-20 du code de procédure pénale. Pour rappel, l’IMSI-catcher est un outil permettant de capter toutes les données de communication dans un rayon donné.
De manière pratique, cela peut correspondre aussi à, par exemple, contraindre un opérateur de téléphonie ou d’Internet d’envoyer un SMS contenant un lien vérolé en son nom ou de le contraindre à déployer une mise à jour frauduleuse du code d’une box Internet pour en donner le contrôle aux services de renseignement, ou même encore de profiter de l’action d’un technicien pour conduire une attaque contre un périphérique informatique d’un abonné.
De même, le ministre de l’intérieur expliquait ainsi sur France Inter, avant le dépôt de la loi déféré, que « nous discutons avec les grands majors d’Internet, on leur demande de nous laisser entrer via des failles de sécurité, certains l’acceptent, d’autres pas. Il faut sans doute une loi pour contraindre des services étrangers, elle arrive » (France Inter, 28 avril 2021, L’invité de 8h20). Cherchant à détailler ce point, le ministre a expliqué en hémicycle lors de l’examen de la loi à l’Assemblée nationale le 17 mai 2021 : « Pour ce qui est des messageries cryptées, comme Telegram, WhatsApp ou Signal, elles ont précisément bâti leur modèle économique sur la garantie de ne pas pouvoir être écouté. […] le recueil des données informatiques permettra d’accéder au terminal informatique de la personne qui utilise ces messageries pour recueillir les données qui sont stockées dans ces messageries. »
Si les précédentes possibilités de requérir l’aide de ces acteurs se limitaient à donner accès aux données et contenus déjà produits dans l’utilisation de leurs services et auxquels ils pouvaient accéder, il s’agirait ici de les rendre directement acteurs de la compromissions des outils des utilisateurs de leurs services les mettant en position de conduire ou de participer à une intrusion informatique sur demande des services sans pouvoir s’y opposer.
La modification des dispositions du code de sécurité intérieure change considérablement la nature, l’échelle et les circonstances permettant l’utilisation des techniques visées par l’article 12. Pourtant, le législateur n’a prévu aucune garantie ou limitation supplémentaires spécifiques aux nouvelles situations créées par cette disposition propres à empêcher l’atteinte manifestement disproportionnée au droit à la vie privée générée par cette extension.
Il en résulte que l’article 12 de la loi déférée est contraire aux articles 2 et 34 de la Constitution.
PARTIE 4. Sur la conservation à des fins de recherche – (Article 10)
L’article 10 allonge la durée de conservation des renseignements à des fins de recherche et de développement.
En droit :
Comme vu précédemment, le Conseil constitutionnel a reconnu que la collecte, l’enregistrement et la conservation de données personnelles étaient constitutives d’une atteinte à la vie privée et devaient donc être justifiées par un motif d’intérêt général et proportionné à cet objectif (Cons. constit., n°2012-652 DC, 22 mars 2012).
Par ailleurs, l’article 34 de la Constitution oblige le législateur à fixer les règles concernant les garanties fondamentales accordées au citoyen et, notamment à ce titre, de définir en cas d’atteinte à ces libertés, les conditions d’exploitation, de conservation et de destruction des données collectées. Le Conseil constitutionnel a ainsi considéré que ne sont pas conformes à la Constitution des dispositions prévoyant des mesures de surveillance qui peuvent « être utilisées à des fins plus larges que la seule mise en œuvre [des exigences de sauvegarde des intérêts fondamentaux de la Nation] » (Cons. 7 et 8, 2016-590 QPC du 21 octobre 2016).
Enfin, si le Conseil constitutionnel a admis, notamment dans sa décision de 2015, la légalité de certaines techniques de renseignement conduisant au recueil et à la collecte de certaines données à caractère personnel, il ne l’a admis que pour des finalités précisément détaillées et liées notamment à la sécurité nationale, la prévention du terrorisme ou les intérêts majeurs de la politique étrangère (voir Décision n° 2015-713 du 23 juillet 2015). De la même manière, comme rappelé précédemment, la Cour de Justice a limité la possibilité d’une conservation des données de connexion à l’existence de considérations liées à des menaces graves pouvant porter atteinte à la sécurité nationale d’un État membre (voir CJUE, La Quadrature du Net, 6 octobre 2020, tel que cité précédemment).
En l’espèce :
L’atteinte à la vie privée constituée par ce dispositif est particulièrement grave et disproportionnée.
En premier lieu, l’article 10 concerne l’intégralité des renseignements qui sont obtenus dans le cadre des activités de renseignement (factures téléphoniques détaillées, écoutes téléphoniques, surveillance et analyse du réseau de télécommunication…). Cela pourrait donc être potentiellement la totalité du trafic téléphonique et Internet français (et a minima de très nombreuses données de personnes qui n’ont pas été directement la cible d’une technique de renseignement) qui pourraient être récupérées, par les services dédiés de recherche et développement, et conservées pour une très longue durée. Une fois stockées au prétexte de la recherche et développement, il faut redouter que, par l’autorisation d’une loi future, ces informations puissent être exploitées pour les nombreux et larges objectifs du renseignement (surveillance économique, répression des opposants politiques…).
À ce titre, la conservation de l’ensemble de ces données n’est justifiée que par un objectif de « recherche et de développement en matière de capacités techniques de recueil et d’exploitation des renseignement ». C’est une finalité particulièrement large et libre d’interprétation qui ne correspond en aucun cas aux exigences du Conseil constitutionnel ou à celles édictées par la Cour de Justice de l’Union européenne.
En second lieu, la Défenseure des droits a considéré que la loi manquait de précision sur les conditions exactes de traitement et d’anonymisation des données et que, au minimum, un décret était nécessaire pour préciser l’anonymisation de ces données et les modalités d’élaboration des algorithmes utilisés (Avis du défenseur des droits n° 21-07 du 18 mai 2021, p. 16). C’est également l’avis de la CNIL qui estime que « le régime de réutilisation des données (…) devrait être encadré par un décret d’application et que des garanties complémentaires soient prévues dans l’hypothèse où ce traitement serait mis en œuvre au moyen d’un traitement algorithmique » (CNIL, Délibération n° 2021-040, § 43).
Aucune précision n’a pourtant été apportée sur ces différents points par le législateur qui n’a prévu aucun report à un décret permettant au minimum de préciser ces différents points. Le seul encadrement réside en amont dans l’autorisation préalable du Premier ministre et l’existence d’avis non contraignants rendus par la CNCTR, ce qui est largement insuffisant au vu des dangers de cette disposition et ne répond pas aux critères d’exigence d’un contrôle effectif.
Il en résulte que l’article 10 est contraire aux articles 2 de la Déclaration de 1789 ainsi qu’aux articles 24 et 88-1 de la Constitution.
";s:7:"dateiso";s:15:"20210728_124941";}s:15:"20210727_100000";a:7:{s:5:"title";s:108:"[Bastamag] Nouvelle loi renseignement : le gouvernement place la population sous surveillance algorithmique";s:4:"link";s:144:"https://www.laquadrature.net/2021/07/27/bastamag-nouvelle-loi-renseignement-le-gouvernement-place-la-population-sous-surveillance-algorithmique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17495";s:7:"pubDate";s:31:"Tue, 27 Jul 2021 08:00:00 +0000";s:11:"description";s:262:"Conservation généralisée des données de connexion, surveillance de masse… Adopté par les députés, avant le Sénat fin juin, le projet de loi renseignement passe en procédure accélérée. Mais son contenu inquiétant mériterait un débat public…";s:7:"content";s:1166:"
Conservation généralisée des données de connexion, surveillance de masse… Adopté par les députés, avant le Sénat fin juin, le projet de loi renseignement passe en procédure accélérée. Mais son contenu inquiétant mériterait un débat public d’ampleur. […]
« Un monstre qui grandit dans l’ombre » : voilà ce que constitue, pour Arthur Messaud, cette nouveauté. « Un État qui conserve pendant cinq ans les données captées de la population… Il y a deux ans, ça aurait fait la Une de la presse pendant des semaines » se désespère le juriste. Pour lui, il s’agit d’un copié-collé du modèle de recherche exploratoire de la NSA, révélé par Edward Snowden […].
";s:7:"dateiso";s:15:"20210727_100000";}s:15:"20210726_190000";a:7:{s:5:"title";s:115:"[Reporterre] Le passe sanitaire, un pas de plus dans « l’autoritarisme » et la « société du contrôle »";s:4:"link";s:131:"https://www.laquadrature.net/2021/07/26/reporterre-le-passe-sanitaire-un-pas-de-plus-dans-lautoritarisme-et-la-societe-du-controle/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17496";s:7:"pubDate";s:31:"Mon, 26 Jul 2021 17:00:00 +0000";s:11:"description";s:336:"« Overdose d’autoritarisme », « adoption hâtive de lois », « politique absurde »… Penseurs telle Barbara Stiegler, associatifs, défenseurs des libertés, syndicats, politiques s’inquiètent des mesures liberticides de l’exécutif. Car avec le passe sanitaire, un cran de plus a été…";s:7:"content";s:1283:"
« Overdose d’autoritarisme », « adoption hâtive de lois », « politique absurde »… Penseurs telle Barbara Stiegler, associatifs, défenseurs des libertés, syndicats, politiques s’inquiètent des mesures liberticides de l’exécutif. Car avec le passe sanitaire, un cran de plus a été atteint dans le contrôle des corps et des esprits. […]
Bastien Le Querrec, membre de la Quadrature du net, regrette que « la fin justifie désormais les moyens. Les effets de bord en matière de liberté ne sont pas pris en considération, dit-il à Reporterre. On habitue la population à ce genre de contrôle, on lui refuse l’anonymat. Il y a une continuité entre cet outil et les autres dispositifs de surveillance qui se sont développés avec la crise sanitaire : la vidéosurveillance automatisée, la reconnaissance faciale, etc. ». […]
";s:7:"dateiso";s:15:"20210726_190000";}s:15:"20210716_192556";a:7:{s:5:"title";s:102:"Lundi prochain, Laurent Wauquiez veut autoriser la reconnaissance faciale dans les trains et les gares";s:4:"link";s:142:"https://www.laquadrature.net/2021/07/16/lundi-prochain-laurent-wauquiez-veut-autoriser-la-reconnaissance-faciale-dans-les-trains-et-les-gares/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17479";s:7:"pubDate";s:31:"Fri, 16 Jul 2021 17:25:56 +0000";s:11:"description";s:281:"Cet article a été publié à l’origine sur notre blog Technopolice
Lundi 19 juillet prochain, Laurent Wauquiez présentera à l’assemblée de la région Auvergne-Rhône-Alpes un projet de délibération pour lui permettre de déployer la reconnaissance faciale…";s:7:"content";s:7709:"
Cet article a été publié à l’origine sur notre blog Technopolice
Lundi 19 juillet prochain, Laurent Wauquiez présentera à l’assemblée de la région Auvergne-Rhône-Alpes un projet de délibération pour lui permettre de déployer la reconnaissance faciale dans les gares, de financer l’achat de logiciel d’analyses comportementales et de multiplier les caméras de vidéosurveillance. C’est un pur projet de Technopolice, dangereux et illégal, que l’assemblée plénière du conseil régional se doit de rejeter.
Après les mensonges et les fantasmes sécuritaires de Valérie Pécresse en Île-de-France, Laurent Wauquiez veut lui aussi faire la promotion de la Technopolice dans la région Auvergne-Rhône-Alpes.
Lundi 19 juillet prochain, jour de l’assemblée générale du conseil régional, il présentera un projet qu’il entend bien faire voter (le projet, qui nous été transmis par le groupe « Les Écologistes » de la région est disponible ici). Au programme, notamment :
– « accompagner, [dans les trains régionaux et les gares] à titre expérimental, un premier dispositif de reconnaissance faciale, uniquement accessible aux autorités compétentes » ;
– « déployer la vidéoprotection à l’intérieur des cars scolaires et interurbains » ;
– « poursuivre l’équipement en caméras de vidéoprotection en temps réel des trains régionaux » ;
– « renforcer le bouclier “vidéoprotection” avec 10 000 caméras supplémentaires et en l’étendant à la vidéoprotection intelligente ainsi qu’à l’expérimentation de systèmes innovants (exemple : la technologie biométrique…) ».
Logique sécuritaire sans fin
Dans le document, Laurent Wauquiez revient ainsi sur sa politique de sécurité des dernières années : déploiement massif de caméras dans les gares, les trains et les lycées, financement de la vidéosurveillance en temps réel… Selon lui, cela ne suffit toujours pas : il faut surveiller encore plus et « intégrer de nouveaux espaces », comme les « stationnements des vélos, certains ascenseurs, passages souterrains, passerelles », sans oublier « l’ensemble des transports scolaires ». Filmer tout, tout le temps, en temps réel, ne plus laisser un seul espace de libre à l’anonymat. Peut-être rejoindra-t-il Christian Estrosi qui veut maintenant mettre des projecteurs de lumière ultra-puissants dans la ville qui se déclencheraient en cas d’attroupements : comme si l’ombre était liée à la criminalité.
On imagine tristement leur ville rêvée : partout de la lumière et des caméras, la ville transformée en un grande un espace où des robots dissèquent et analysent nos moindres gestes.
Reconnaissance faciale et analyse comportementale
Car évidemment, le projet de Laurent Wauquiez rejoint un son de cloches que l’on entend de plus en plus du côté des promoteurs de la Technopolice : toutes ces caméras ne serviraient selon eux à rien si des logiciels d’ « intelligence artificielle » ne venaient pas aider à alerter sur les comportements préalablement établis comme « suspects ». C’est une inversion de logique : alors que la vidéosurveillance est toujours contestée, et puisque son efficacité est régulièrement remise en question (la Cour des comptes en parlait encore en 2020), ses promoteurs affirment qu’il faut donc aller encore plus loin.
Dans la même lignée, Laurent Wauquiez veut expérimenter la reconnaissance faciale et financer l’équipement des communes en logiciels de vidéosurveillance automatisée (la délibération telle que présentée est d’ailleurs étonnamment floue : « reconstituer rapidement a posteriori le parcours de délinquants ou criminels dans les trains régionaux »).
Alors même que de tels dispositifs seraient illégaux car ils ne remplissent en aucun cas les critères posés par la loi française ou le droit européen (voir notamment la directive Police-Justice) : ils n’obéissent nullement à une « nécessité absolue », ne présentent pas les « garanties appropriées » et ne sont encadrés par aucun texte spécifique (comme l’exige pourtant l’article 10 de la directive Police-Justice).
C’est pour cela que nous avons gagné contre le projet de portiques de reconnaissance faciale à Nice et Marseille (voir notre article ici), que nous avons attaqué le projet de surveillance de Marseille (voir notre article ici) et que nous sommes en ce moment devant le Conseil d’État contre la reconnaissance faciale via le fichier des traitements des antécédents judiciaire (voir notre article).
Surenchère sécuritaire et élection présidentielle
Il est probable que Laurent Wauquiez et son équipe soient parfaitement conscients de l’illégalité de leur projet. On imagine que, comme Valérie Pécresse ou Christian Estrosi, la véracité de leur propos ou la légalité de leurs actions ne les intéressent que peu. Ils veulent avant tout mettre en avant une idéologie sécuritaire, qu’ils imaginent flatter une certaine catégorie d’électeurs en vue des échéances électorales à venir. A chaque échéance, ils iront donc un peu plus loin dans leurs propositions.
Il faut que cessent ces projets mis en place illégalement par la classe politique, comme l’usage de drones par la police l’année dernière et tous ces projets technopoliciers que nous avons pu participer à faire échouer. Il faut leur opposer, aujourd’hui et demain, notre refus de la surveillance biométrique et du tout-sécuritaire. Il nous faut dénoncer leurs fantasmes totalitaires. Nous appelons le conseil régional à s’opposer lundi prochain à ce projet de délibération.
";s:7:"dateiso";s:15:"20210716_192556";}s:15:"20210715_124046";a:7:{s:5:"title";s:40:"In memoriam Philippe Aigrain (1949-2021)";s:4:"link";s:79:"https://www.laquadrature.net/2021/07/15/in-memoriam-philippe-aigrain-1949-2021/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17446";s:7:"pubDate";s:31:"Thu, 15 Jul 2021 10:40:46 +0000";s:11:"description";s:233:"Informaticien et grand humaniste, militant infatigable, chercheur et intellectuel qui aidait à y voir clair dans ces temps troublés, Philippe a fait partie en 2008 des cofondateurs historiques de La Quadrature du Net. Il fut…";s:7:"content";s:5934:"
C’est avec une immense tristesse que nous avons appris lundi le décès de Philippe Aigrain en montagne, près de sa maison dans les Pyrénées.
Photo : Jérémie Zimmermann
Informaticien et grand humaniste, militant infatigable, chercheur et intellectuel qui aidait à y voir clair dans ces temps troublés, Philippe a fait partie en 2008 des cofondateurs historiques de La Quadrature du Net. Il fut président de l’association de 2013 à 2017. Tout jeune, il avait été actif lors du soulèvement de mai 1968. Il fut ensuite un compagnon de route des radios libres dans les années 1970, avant d’explorer les potentialités démocratiques d’Internet et de devenir un ardent défenseur des logiciels libres et des biens communs. Ces dernières années, il travaillait à l’accueil solidaire des exilés et dirigeait la maison d’édition publienet, tout en faisant paraître ses poèmes et, plus récemment, son premier roman, intitulé Sœur(s).
Philippe était de ces personnes qui forcent d’emblée le respect et l’admiration par ses qualités humaines exceptionnelles, son immense gentillesse et sa grande sensibilité, mais aussi par la profondeur de sa réflexion, sa curiosité, sa générosité, sa capacité à conjuguer les savoirs à travers une pensée proprement interdisciplinaire. Tout cela lui permettait non seulement de naviguer entre des communautés militantes, intellectuelles et artistiques de par le monde, mais aussi d’y apporter des contributions précieuses et de tisser des ponts entre tous ces gens.
À La Quadrature, il a été un modèle pour nombre d’entre nous, un mentor et un ami qui se montrait toujours curieux, ouvert, mais aussi très encourageant avec les personnes fraîchement arrivées au sein du collectif. Il était l’un des piliers qui nous permettait de tenir et de traverser les moments difficiles. Nous admirions sa capacité d’indignation, la rigueur et la richesse de ses analyses, la manière dont il savait mettre à distance certains réflexes militants pour appréhender une situation dans toute sa complexité. Lors qu’on risquait de se perdre dans les détails d’un dossier, il savait aussi nous inviter à prendre de la hauteur et à revenir aux questions politiques fondamentales. Par exemple, lors d’un débat interne fin 2016, nous discutions de notre position sur la création du fichier biométrique TES, que le gouvernement présentait alors comme une manière de lutter contre la fraude à l’identité… on fourbissait des arguments un peu trop techniques et juridiques à son goût, et il avait mis tout le monde d’accord en évoquant la Résistance et en rappelant que des documents d’identité infalsifiables étaient tout simplement contraires aux formes de vie démocratiques.
Philippe avait également insisté dès le début pour que La Quadrature soit force de propositions positives. Il avait ainsi envisagé un système complet pour permettre au public et aux créateurs et créatrices de se rencontrer autour de leurs œuvres en permettant le partage libre de celles-ci, tout en soutenant et encourageant financièrement la création. Il fut à l’origine de la Contribution Créative, une idée avant-gardiste permettant autant l’accès généralisé à la culture que le soutien matériel à la création. En lien avec Lionel Maurel, il compila ces pistes de réforme dans les propositions positives de réforme du droit d’auteur, publiées par La Quadrature suite au rejet de l’accord commercial anti-contrefaçon ACTA, à l’été 2012.
Durant toutes ces années, Philippe nous a surtout appris par l’exemple qu’on peut conjuguer un regard lucide sur le monde et une grande exigence dans l’engagement politique, sans pour autant se départir ni du soin de soi et des autres, ni de la joie et de la poésie.
Nous allons prendre le temps d’honorer sa mémoire. Nous ferons vivre son héritage en continuant nos combats, que ce soit pour les droits humains dans l’environnement numérique, pour le partage des savoirs ou tout simplement pour plus de beauté et d’humanité dans ce monde.
Pour l’heure, nos pensées endeuillées vont à sa femme Mireille, à ses filles et à ses petits-enfants.
Sœur(s), un roman abordant les enjeux liés à la surveillance, et publié en septembre 2020 aux éditions Publienet.
";s:7:"dateiso";s:15:"20210715_124046";}s:15:"20210708_182133";a:7:{s:5:"title";s:89:"Dysfonctionnements systémiques des autorités de protection des données : le cas belge";s:4:"link";s:124:"https://www.laquadrature.net/2021/07/08/dysfonctionnements-systemiques-des-autorites-de-protection-des-donnees-le-cas-belge/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17436";s:7:"pubDate";s:31:"Thu, 08 Jul 2021 16:21:33 +0000";s:11:"description";s:224:"Nous dénonçons depuis un bon moment le fonctionnement de la CNIL française et son manque de volonté politique de protéger nos libertés. Depuis 2018 et le dépôt de nos plaintes collectives contre les GAFAM nous…";s:7:"content";s:12106:"
Nous dénonçons depuis un bon moment le fonctionnement de la CNIL française et son manque de volonté politique de protéger nos libertés. Depuis 2018 et le dépôt de nos plaintes collectives contre les GAFAM nous avons aussi pu constater l’incurie des autorités irlandaise et luxembourgeoise : cela fait 3 ans que nous avons déposé avec plusieurs milliers de personnes des plaintes, sans aucune nouvelle depuis. Mais ce ne sont pas les seules en Europe à connaître des dysfonctionnements. Petite analyse des soucis que rencontre l’Autorité de protection des données (APD) en Belgique.
En mai 2016 était voté le RGPD, règlement européen visant à protéger les données personnelles contre leur utilisation abusive, tant par les entreprises privées que par les États. Applicable depuis mai 2018, ce texte ordonne par son article 51 la mise en place d’« autorités nationales indépendantes […] chargées de surveiller l’application du présent règlement ». Il est prévu qu’elles coopèrent entre elles, sous une forme de fédération. L’article 52 exige l’indépendance de ces autorités.
Nous avons régulièrement critiqué le fonctionnement de la CNIL en France, tout comme l’autorité irlandaise ou luxembourgeoise, pour la faible qualité de la prise en charge des plaintes et les retards pris dans le traitement de ces dernières.
La commission LIBE1LIBE est la commission libertés civiles, de la justice et des affaires intérieuresdu parlement européen elle-même confirmait en février notre analyse (voir ici, § « Exécution »), préoccupée par l’insuffisante mise en œuvre du RGPD, la trop longue durée des instructions, et les déclarations par les autorités elles-même sur les manque de moyens, humains et financiers, pour mener à bien leur mission.
Nous avions un a-priori plutôt positif sur l’autorité belge, l’APD (Autorité de protection des données). Dirigée par 5 co-directeurs et co-directrices, avec une présidence tournante de 3 ans, très proche du public (l’APD a par exemple organisé un vrai-faux concours pour accéder à un concert pour sensibiliser les jeunes à la protection de leurs données personnelles), critiquant ouvertement l’action des autorités publiques – en particulier pendant la crise sanitaire –, l’APD semblait bénéficier d’une santé politique inégalée.
Malheureusement, les dysfonctionnements dépassaient en réalité ce que nous imaginions. Sa mise en place courant 2019, soit avec un an de retard par rapport à l’entrée en application du RGPD et trois ans après le vote du texte, était un premier signal. L’APD est composée, entre autres organes, d’un Centre de Connaissances qui émet des avis sur des avant-projets de lois, de décrets ou d’arrêtés du gouvernement belge. Cette mission implique naturellement qu’il soit hautement protégé de toute influence de l’État et que ses membres ne soient pas en situation de conflit d’intérêts.
Las : le Centre de Connaissances a vu la nomination d’ « experts » ayant un ou plusieurs mandats publics, mais aussi l’ingérence du président de l’APD dans son travail. On peut citer notamment l’arrivée au sein du Centre de Franck Robben, grand ami du gouvernement et homme multi-casquettes des données personnelles en Belgique : il est entre autres directeur du Comité de Sécurité de l’Information (CSI), organisme qui décide du partage des données personnelles par les administrations belges, et gère aussi une entreprise qui fournit les outils informatiques de gestion des données personnelles, notamment dans le cadre de la crise du covid-19. L’outil de contrôle des lois a bien du mal à remplir sa mission de manière indépendante.
Cette situation a été maintes fois dénoncée, en particulier par deux co-directrices de l’APD, Alexandra Jaspar et Charlotte Dereppe. Que ce soit auprès de la Chambre des représentants (chambre basse du parlement fédéral belge) ou directement auprès des député·es, plusieurs courriers officiels ont régulièrement dénoncé les agissements de certains membres au sein de l’autorité et la mise en péril de son indépendance. Pour un résultat, ne nous le cachons pas, proche du néant. La racine du problème viendrait-elle en ce que l’ADP est la continuation de l’autorité historique, la CPVP, à l’époque si complaisante avec le pouvoir politique ?
La Ligue des Droits Humains s’en était aussi émue en juin 2020 dans un courrier à la Chambre des représentants, pointant nommément les violations flagrantes de la loi belge et du RGPD par le président de l’autorité, mais aussi par la présence d’experts en situation de conflit d’intérêts.
Il aura fallu que soit saisie la Commission européenne en février 2021, puis que cette dernière finisse par lancer en juin 2021 une procédure d’infraction à l’encontre de la Belgique pour son non-respect du RGPD. L’affaire n’est donc pas terminée, et le fait que la Commission soit obligée d’agir contre un État membre comme la Belgique pour obtenir qu’une autorité indépendante le soit réellement n’est pas pour nous rassurer sur la bonne santé des institutions européennes.
De nouveau, l’équipe de co-direction sera auditionnée ce vendredi par la Chambre des représentants. Cette fois, l’objectif semble être la levée des mandats de certains directeurs, y compris les lanceuses d’alerte. Une tactique de la terre brûlée plutôt qu’une remise en question.
Les autorités de contrôle dans l’Union européenne n’appliquent pas le droit tel qu’elles le devraient. Parce qu’elles n’en ont pas les moyens techniques, financiers ou politiques. Elles ont – de même que les États qui se complaisent de cette situation – une responsabilité forte dans la situation dans laquelle nous nous trouvons aujourd’hui, avec des entreprises et des États toujours plus équipé·es en outils de surveillance et d’analyse de nos données personnelles, au mépris flagrant des différents textes juridiques pourtant protecteurs sur le papier.
La situation au sein de l’APD belge s’ajoute aux précédents dysfonctionnements que nous avions relevé. Une remise à plat générale du fonctionnement des APD européennes nous semble essentielle pour que le droit soit enfin appliqué et que le RGPD joue pleinement son rôle de protecteur des données personnelles de la population.
LIBE est la commission libertés civiles, de la justice et des affaires intérieures
";s:7:"dateiso";s:15:"20210708_182133";}s:15:"20210706_130536";a:7:{s:5:"title";s:69:"Passe sanitaire : le Conseil d’État valide la violation de la loi";s:4:"link";s:103:"https://www.laquadrature.net/2021/07/06/passe-sanitaire-le-conseil-detat-valide-la-violation-de-la-loi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17424";s:7:"pubDate";s:31:"Tue, 06 Jul 2021 11:05:36 +0000";s:11:"description";s:244:"Par une ordonnance rendue aujourd’hui, le Conseil d’État a rejeté le référé liberté que nous avions déposé en juin. Dans une décision déplorable qui traduit une absence de compréhension des faits et qui revient sur…";s:7:"content";s:6571:"
Par une ordonnance rendue aujourd’hui, le Conseil d’État a rejeté le référé liberté que nous avions déposé en juin. Dans une décision déplorable qui traduit une absence de compréhension des faits et qui revient sur des éléments que nous ne contestions pas, le Conseil d’État, après avoir laissé la situation pourrir pendant trois semaines (alors que les textes prescrivent un délai de 48 heures) refuse de voir une illégalité manifeste dans le passe sanitaire.
En juin, quelques jours après la mise en œuvre de l’obligation de présenter un passe sanitaire, nous attaquions le dispositif utilisé en raison des nombreuses données personnelles présentes. Nous estimions ainsi que le code en deux dimensions présent sur les passes et qui est scanné à l’entrée de divers lieux banalise un contrôle d’identité permanent et inutile. Nous attaquions également le fait que le passe sanitaire – que ce soit le format français utilisé avant le 25 juin ou le format européen utilisé depuis – permet à n’importe quelle personne scannant les codes en deux dimensions de consulter les données de santé (en plus du nom, prénoms, date de naissance) des personnes détentrices des documents : date, lieu et type de test RT-PCR, résultat du dépistage ; nom et fabricant du vaccin, nombre de doses reçues et nombres de doses nécessaires, date de la dernière injection. Comme l’a relevé un groupe de chercheur·euses, dont NextINpact résumait l’analyse, ces données sont particulièrement bavardes, et permettent par exemple de déterminer si une personne est immunodéprimée.
Dans son ordonnance, le Conseil d’État se pose comme tutelle du gouvernement. Le ministère des solidarités et de la santé n’a absolument pas défendu le dossier, produisant d’abord quatre pages creuses de défense, enchaînant ensuite les contres-vérités techniques à l’audience et assumant avoir fait le choix de mettre en danger les données personnelles des personnes. Malgré tout, le juge des référés estime que ce passe n’est pas manifestement illégal (une condition de recevabilité du référé liberté ; autrement dit, le doute profite à l’administration).
La plus haute juridiction administrative enchaîne également les erreurs pour sauver le passe. Le Conseil d’État dénature ainsi notre requête en affirmant que nous estimions que « [les] données ne sont pas lisibles par les personnes habilitées à contrôler le passe sanitaire ». Au contraire, nous affirmions – preuves techniques à l’appui – que les données du passe sanitaire peuvent être détournées par n’importe quelle personne scannant un passe sanitaire (dont, bien évidemment, les personnes chargées de vérifier ces passes à l’entrée d’un festival ou d’un concert).
L’analyse d’impact produite par le gouvernement estimait pourtant elle-même que ce risque de fausse application de lecture permettant de détourner les données était d’une gravité et d’une vraisemblance importante. Cela n’empêche pas le Conseil d’État de juger que ce risque « semble peu élevé. ».
Par ailleurs, alors que nous ne contestions pas devant le Conseil d’État l’application officielle de vérification des passes sanitaires (nous précisions en outre dans notre requête que cette question était sans conséquence sur l’issue du litige), ni la fonction « Carnet » de TousAntiCovid qui permet de sauvegarder sur son téléphone un passe sanitaire, la décision d’aujourd’hui revient sur ces deux éléments. Le Conseil d’État précise que la version numérique est facultative, alors même que la version papier des passes sanitaires met en danger de la même manière les données personnelles contenues dans le code en deux dimensions…
Résumons cette triste décision : la CNIL, tout en admettant que le détournement des données est possible, se fait depuis le début la porte-parole du gouvernement ; le Conseil d’État laisse pourrir la situation avant de sauver in extremis le gouvernement ; le Parlement a quant à lui été ignoré. Naturellement, le gouvernement prépare donc déjà l’extension du passe sanitaire. Nous avons donc particulièrement besoin de votre soutien pour continuer ces luttes.
";s:7:"dateiso";s:15:"20210706_130536";}s:15:"20210705_120000";a:7:{s:5:"title";s:69:"[blast-info.fr] Le pass sanitaire attaqué devant le conseil d’Etat";s:4:"link";s:104:"https://www.laquadrature.net/2021/07/05/blast-info-fr-le-pass-sanitaire-attaque-devant-le-conseil-detat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17409";s:7:"pubDate";s:31:"Mon, 05 Jul 2021 10:00:00 +0000";s:11:"description";s:242:"La crise sanitaire a conduit le gouvernement à mettre en place de nombreux dispositifs exceptionnels. Parmi eux le pass sanitaire censé attester de l’état de vaccination d’une personne. Mais pour Bastien Le Querrec de la…";s:7:"content";s:741:"
La crise sanitaire a conduit le gouvernement à mettre en place de nombreux dispositifs exceptionnels. Parmi eux le pass sanitaire censé attester de l’état de vaccination d’une personne. Mais pour Bastien Le Querrec de la Quadrature du net, ce pass et en particulier son QR code comportent de nombreux risques pour la protection de nos données personnelles.
";s:7:"dateiso";s:15:"20210705_120000";}s:15:"20210704_223706";a:7:{s:5:"title";s:109:"[Marianne.Net] Sécurité : faut-il adopter la reconnaissance faciale systématique dans les transports ?";s:4:"link";s:155:"https://www.laquadrature.net/2021/07/04/marianne-net-securite%e2%80%89-faut-il-adopter-la-reconnaissance-faciale-systematique-dans-les-transports%e2%80%89/";s:4:"guid";s:155:"https://www.laquadrature.net/2021/07/04/marianne-net-securite%e2%80%89-faut-il-adopter-la-reconnaissance-faciale-systematique-dans-les-transports%e2%80%89/";s:7:"pubDate";s:31:"Sun, 04 Jul 2021 20:37:06 +0000";s:11:"description";s:237:"Dans son programme pour les régionales 2021, Valérie Pécresse prône la mise en place de la reconnaissance faciale dans les transports d’Île de France pour identifier des personnes recherchées par la police, ou bien des…";s:7:"content";s:1604:"
Dans son programme pour les régionales 2021, Valérie Pécresse prône la mise en place de la reconnaissance faciale dans les transports d’Île de France pour identifier des personnes recherchées par la police, ou bien des comportements suspects. Un gain pour notre sécurité ou la voie express vers la surveillance généralisée ? La parole à Arthur Messaud (La Quadrature du Net) et Frédéric Péchenard, chargé des questions de sécurité au conseil régional d’Île-de-France.
(…) Arthur Messaud : L’idée ne vient pas de Valérie Pécresse, mais d’entreprises comme Thales et Safran qui développent ces technologies et le discours qui va avec. Elles remettent parfois des brochures avec tous les éléments de langage à avancer. À défaut d’avoir construit un discours politique concret, certains vont l’ajouter dans leur programme électoral. Pour les industriels, il n’est pas question de restreindre ces technologies aux transports en commun. Les JO 2024 vont d’ailleurs constituer un moment clé à cet égard. Ce sera l’occasion d’une démonstration de la technicité de la France pour vendre ces matériels. (…)
";s:7:"dateiso";s:15:"20210704_223706";}s:15:"20210701_133007";a:7:{s:5:"title";s:73:"Projet de loi Renseignement : pérennisation de la surveillance de masse";s:4:"link";s:110:"https://www.laquadrature.net/2021/07/01/projet-de-loi-renseignement-perennisation-de-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17403";s:7:"pubDate";s:31:"Thu, 01 Jul 2021 11:30:07 +0000";s:11:"description";s:220:"Nous republions sur notre site la tribune d’Arthur Messaud et de Martin Drago, juristes à La Quadrature du Net, sur la loi Renseignement, publiée à l’origine par Le Monde le 29 juin – le texte…";s:7:"content";s:7276:"
Nous republions sur notre site la tribune d’Arthur Messaud et de Martin Drago, juristes à La Quadrature du Net, sur la loi Renseignement, publiée à l’origine par Le Monde le 29 juin – le texte a finalement été adopté dans la nuit du 29 au 30 juin
À partir du 29 juin, les sénateurs examineront en hémicycle le nouveau projet de loi en matière d’antiterrorisme et de renseignement. Nous les appelons à rejeter entièrement ce texte.
Parmi les nombreuses dispositions de ce texte attentatoire à nos libertés [1], l’une des plus graves concerne la surveillance de masse des communications par algorithmes, appelés aussi « boîtes noires ». Ces logiciels analysent l’ensemble des métadonnées (numéros de téléphone appelés, dates et durées des appels, etc.) transitant sur les réseaux afin de détecter des comportements qui, d’après les services de renseignement, pourraient révéler des activités terroristes. Voté comme une mesure expérimentale en 2015, le nouveau projet de loi veut pérenniser ce dispositif et lui permettre d’analyser désormais aussi les adresses des sites Web consultés.
L’analyse des communications est automatique, réalisée par des machines et non des humains. C’est tout le problème : alors que la surveillance « humaine » ne permettait que des analyses « ciblées », l’automatisation rend possible de surveiller l’ensemble du réseau — toute la population. C’est la logique de la surveillance de masse, du « tous suspects », qui est pérennisée en même temps que cette mesure.
État d’urgence perpétuel
Le fait que le dispositif soit limité à la prévention du terrorisme ne doit en aucun cas nous rassurer : ce critère a déjà été dévoyé pour surveiller des opposants politiques, que ce soit dans l’affaire de Tarnac [affaire politico-judiciaire qui a abouti, en avril 2018, à la relaxe quasi générale de huit militants anticapitalistes] ou dans les diverses mesures de censure contre le réseau Indymedia en 2017[une plate-forme de médias alternatifs]. Les services de renseignement n’étant limités par aucun contre-pouvoir indépendant, nous ne pouvons que redouter une pérennisation de ces dévoiements. Dans sa « Stratégie générale du renseignement » publiée en 2019, l’Élysée considère par exemple que « l’anticipation, l’analyse et le suivi des mouvements sociaux et crises de société par les services de Renseignement constituent une priorité » et que « anticiper les dérives violentes s’applique également […] aux affirmations de vie en société qui peuvent exacerber les tensions au sein du corps social ».
C’est notamment en raison de ces risques pour les libertés que la Cour de justice de l’Union européenne a, dans une décision du 6 octobre 2020, demandé à la France de restreindre l’utilisation de ces algorithmes à une période exceptionnelle de menace grave et imminente pour la sécurité nationale — ce qui, en droit français, renvoie aux périodes d’état d’urgence. Cette limitation n’apparaît nulle part dans le projet de loi du gouvernement, qui choisit donc de placer la France en manquement par rapport au droit européen. Il institue ainsi un état d’urgence perpétuel qui permet de suspendre le droit au secret des correspondances de l’ensemble de la population.
Ce n’est malheureusement pas la seule violation du droit européen qui sera entérinée par ce texte. En plus de permettre leur analyse par algorithme, le droit français exigeait que les métadonnées de l’ensemble de la population soient conservées pendant un an par les opérateurs Internet et de téléphonie. C’est ce qui permet à la police et aux renseignements de géolocaliser facilement des téléphones pour savoir, par exemple, qu’un militant a participé à telle ou telle manifestation. Ici encore, la Cour de justice a décidé en octobre 2020 que cette surveillance de masse n’était possible qu’en période d’état d’urgence. Pour contourner cette exigence, le gouvernement organise dans le nouveau projet de loi un état d’urgence systématique, pour que les métadonnées de l’ensemble de la population restent continuellement à disposition de la police et de l’administration, en violation du droit européen.
Acharnement sécuritaire
Comme si ce mépris flagrant de l’État de droit ne suffisait pas, le projet de loi aggrave la situation. Prétextant simplifier et sécuriser l’analyse algorithmique des métadonnées, l’article 13 du projet de loi propose de dupliquer et d’acheminer l’ensemble des données transitant sur les réseaux vers des locaux relevant du Premier ministre, où elles seront analysées en vue de détecter des communications suspectes. Une fois n’est pas coutume, même la CNIL s’inquiète dans son avis sur le texte que l’ensemble des données relatives aux appels téléphoniques et à l’accès Internet de la population soit ainsi centralisé par un service de l’État.
Tout aussi alarmant, l’article 10 prévoit que les opérateurs de réseaux et de messageries seront désormais contraints de coopérer avec les renseignements pour déployer des logiciels espions sur les appareils ciblés par le gouvernement. Même si nous ne voyons pas encore exactement comment les services pourraient s’y prendre techniquement, le ministère de l’Intérieur annonce trouver dans cette mesure de piratages massifs l’espoir, via la coopération des plus grands acteurs du Web, de contourner à grande échelle le chiffrement des communications.
Ces deux dernières mesures (coopération d’acteurs privés et copie de l’ensemble du trafic) étaient au cœur du scandale mondial provoqué en 2013 par les révélations d’Edward Snowden sur les pratiques des services de renseignement anglo-saxons. Huit ans plus tard, il semble que l’effondrement des libertés publiques soit devenu monnaie courante et n’intéresse plus grand monde, que ce soit au Parlement ou même dans la presse. L’acharnement sécuritaire du gouvernement au cours des dernières années et notamment des derniers mois (loi Sécurité globale, loi Séparatisme, loi Avia, crise sanitaire…) semble avoir largement entamé notre capacité collective à nous mobiliser contre des politiques qui, il y a peu, aurait pourtant été dénoncées comme totalement inacceptables.
[1] Voir notamment le communiqué de l’Observatoire des libertés et du numérique et de Wikimédia France du 15 juin 2021 : « Loi Renseignement 2, refuser l’emballement sécuritaire »
";s:7:"dateiso";s:15:"20210701_133007";}s:15:"20210701_125129";a:7:{s:5:"title";s:67:"En France, des services de renseignement sans vrais contre-pouvoirs";s:4:"link";s:107:"https://www.laquadrature.net/2021/07/01/en-france-des-services-de-renseignement-sans-vrais-contre-pouvoirs/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17398";s:7:"pubDate";s:31:"Thu, 01 Jul 2021 10:51:29 +0000";s:11:"description";s:221:"Nous republions sur notre site la tribune de Félix Tréguer, membre de La Quadrature du Net, publiée à l’origine sur le site The Conversation le 27 juin – avant donc l’adoption du projet de loi…";s:7:"content";s:14767:"
Nous republions sur notre site la tribune de Félix Tréguer, membre de La Quadrature du Net, publiée à l’origine sur le site The Conversation le 27 juin – avant donc l’adoption du projet de loi par le Sénat dans la nuit du 29 au 30 juin
Huit ans après les révélations du lanceur d’alerte Edward Snowden, l’Assemblée nationale vient d’adopter, dans une certaine indifférence, le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement. Le texte est désormais en cours d’examen au Sénat [il a finalement été adopté dans la nuit du 29 au 30 juin].
Il s’agit de la première révision d’ampleur de la loi renseignement adoptée en 2015. À l’époque, le gouvernement de Manuel Valls avait défendu ce texte en expliquant que la France était « l’une des dernières démocraties occidentales à ne pas disposer d’un cadre légal, cohérent et complet pour les activités de renseignement ».
Le rapporteur de la loi à l’Assemblée nationale, Jean-Jacques Urvoas, soulignait à l’envie combien elle constituait « un progrès de l’État de droit ». L’affaire était entendue : les services secrets voyaient leurs missions et leurs méthodes consacrées dans la loi ; le renseignement sortait autant que possible de l’exceptionnalité qui le caractérisait pour rentrer dans le rang des politiques publiques normales.
Cette manière de présenter les choses avait le mérite de reconnaître les lacunes historiques de la France en matière de contrôle des services de renseignement. Elle tendait cependant à faire oublier un important corollaire : le fait que la loi votée légalisait a posteriori des mesures de surveillance employées depuis des années en toute illégalité, ce qui aurait dû valoir aux responsables politiques et administratifs ayant autorisé ces programmes des poursuites pénales.
Le projet de loi débattu en ce moment même au Sénat est certes bien moins ambitieux que son prédécesseur de 2015. Il relève cependant d’une même logique, bien analysée par les sociologues Laurent Bonelli, Hervé Rayner et Bernard Voutat, laquelle consiste à recourir au droit pour légitimer l’action des services et préserver leurs marges de manœuvre.
Cette nouvelle loi cherche en effet à sécuriser sur le plan juridique des capacités de surveillance toujours plus étendues – telles les « boîtes noires » scannant le trafic Internet pour détecter des URL « suspectes » (article 13), le partage de données entre services français (article 7), ou l’obligation pour les opérateurs et gestionnaires de serveurs de collaborer avec les autorités pour « pirater » les messageries chiffrées (article 10), etc. –, tout en abritant les services de renseignement de tout réel contre-pouvoir.
Renforcer le contrôle du renseignement devrait pourtant constituer une priorité compte tenu de sa place croissante au sein de l’État. Depuis 2015, les services de renseignement ont vu leurs effectifs augmenter de 30 %, notamment pour développer leurs capacités technologiques. Dans ce contexte, le recours aux différentes techniques de surveillance connaît lui aussi une forte croissance et porte sur des domaines toujours plus sensibles pour les libertés publiques. Ainsi, l’activité consacrée à la surveillance des mouvements sociaux – érigée en priorité depuis 2019 à la suite du mouvement des Gilets Jaunes – a plus que doublée en trois ans, passant de 6 % du total des mesures de surveillance en 2017 à plus de 14 % en 2020.
En dépit de cette montée en puissance, la quasi-totalité des propositions visant à renforcer les dispositifs de contrôle sont restées lettres mortes, qu’elles émanent de la Délégation parlementaire au renseignement (la DPR, composée de députés et de sénateurs), de la Commission nationale de l’informatique et des libertés (CNIL, censée contrôler les fichiers dits « régaliens »), ou encore de la Commission nationale de contrôle des techniques de renseignement (la CNCTR, qui rend des avis sur les mesures de surveillance sollicitées par les services).
Des échanges de données hors de tout contrôle
Depuis plusieurs années, la CNCTR demande par exemple de pouvoir contrôler le partage de données entre services de renseignement français et services étrangers. En France, la question est d’autant plus pressante que les flux de données échangés entre la Direction générale de la sécurité extérieure (DGSE) et la National Security Agency (NSA) ont connu une augmentation rapide suite à la conclusion des accords SPINS, signés fin 2015 entre la France et les États-Unis pour renforcer la coopération des deux pays en matière de renseignement.
Or, la loi de 2015 proposée par le gouvernement Valls excluait explicitement tout contrôle de la CNCTR sur ces collaborations internationales, nourries par des réseaux de professionnels du renseignement jouissant d’une forte autonomie, et que le chercheur Didier Bigo a proposé d’appréhender à travers la notion de « guilde transnationale ».
Dans son rapport annuel publié en 2019, la CNCTR admettait que ce véritable trou noir dans le contrôle du renseignement présentait un risque majeur, puisqu’il pourrait permettre aux services français de recevoir de leurs homologues des données qu’ils n’auraient pas pu se procurer légalement au travers des procédures définies dans la loi française. Dans le langage feutré qui la caractérise, la commission estimait qu’« une réflexion devait être menée sur l’encadrement légal des échanges de données entre les services de renseignement français et leurs partenaires étrangers ».
Pour appuyer sa demande, la CNCTR évoquait la jurisprudence de la Cour européenne des droits de l’Homme (CEDH). Celle-ci a encore rappelé dans [son arrêt Big Brother Watch c. Royaume-Uni du 25 mai 2021 que ces échanges devaient être encadrés par le droit national et soumis au contrôle d’une autorité indépendante (§ 362). Or, à ce jour, la France est le dernier État membre de l’Union européenne à ne disposer d’aucun cadre juridique pour encadrer ces échanges internationaux. Ni le gouvernement ni les députés n’ont apparemment trouvé opportun d’y remédier.
La jurisprudence ignorée
Un autre principe essentiel dégagé par la jurisprudence européenne est le droit à l’information des personnes ayant fait l’objet d’une mesure de surveillance, dès lors qu’une telle information n’est plus susceptible d’entraver l’enquête menée à leur encontre par les services.
Dans un rapport publié en janvier 2018, la CNCTR passait en revue la jurisprudence afférente et mentionnait plusieurs exemples de législations étrangères – la loi allemande notamment – garantissant une procédure de notification des personnes surveillées et prévoyant un certain nombre d’exceptions étroitement limitées. Elle était forcée de constater que, en l’état du droit français, « les personnes surveillées ne peuvent être informées des techniques de renseignement mises en œuvre à leur encontre ». Le projet de loi élude complètement cet enjeu.
Le gouvernement a également choisi d’ignorer une autre exigence, encore rappelée par le Conseil d’État dans son arrêt du 21 avril 2021 relatif à la conservation généralisée des données de connexion. Dans cette décision qui donnait largement gain de cause au gouvernement, le Conseil d’État se fondait sur un arrêt de la Cour de justice de l’Union européenne du 6 octobre 2020 pour exiger que les avis rendus par la CNCTR sur les mesures de surveillance soient « conformes » (c’est-à-dire impératifs pour le gouvernement) et non plus simplement consultatifs. La CNIL l’a à son tour rappelé début mai dans son avis rendu sur le projet de loi. Nouvelle fin de non-recevoir du gouvernement.
Quant à la volonté conjointe de la DPR et de la CNCTR de garantir à cette dernière un droit de regard sur les fichiers du renseignement, elle se heurte à l’opposition farouche des services. Comme l’ont souligné les parlementaires de la DPR, il s’agit pourtant d’une étape cruciale du contrôle, seule capable de permettre à la CNCTR de « s’assurer qu’aucune donnée n’a été recueillie, transcrite ou extraite en méconnaissance du cadre légal, voire en l’absence d’une autorisation accordée par le Premier ministre ».
On sera par ailleurs bien en peine de trouver, dans le cadre juridique français, des dispositions encadrant d’autres activités typiques du renseignement et extrêmement sensibles du point de vue des libertés publiques. C’est le cas de la surveillance des lettres et des colis postaux, ou encore de l’infiltration de certains groupes par des agents du renseignement. Au Royaume-Uni, l’Investigatory Powers Act de 2016 couvre pourtant ces deux domaines.
Le loi française ne fait également aucune mention de la surveillance dite « en source ouverte », notamment sur les réseaux sociaux comme Facebook ou Twitter – une activité sur laquelle peu de choses ont fuité dans la presse mais dont on sait qu’elle a pris une importance croissante ces dix dernières années.
L’impossible transparence ?
Enfin, le texte aujourd’hui débattu au Parlement ne s’accompagne d’aucun progrès en matière de transparence des activités de renseignement. Pourtant, l’étendue du secret obère gravement la capacité des journalistes, des ONG, des chercheurs mais aussi d’autres acteurs institutionnels, comme les juges, à jouer leur rôle de contre-pouvoirs.
En dehors des quelques informations ayant filtré grâce au petit cercle de journalistes spécialisés disposant d’un accès à des sources au sein des services, et outre les rares allusions faites par les responsables du renseignement lors d’auditions parlementaires ou par la CNCTR, aucune information officielle n’est fournie sur la nature exacte des technologies utilisées par les services. Leur imbrication dans les processus de production du renseignement, la nature des marchés publics et l’identité des sous-traitants privés, et même les interprétations juridiques ayant cours au sein des services, restent également marqués par une grande opacité.
Là encore, la comparaison avec les principales puissances européennes du renseignement révèle en miroir le retard français. Il suffit pour s’en convaincre de consulter le rapport publié en août 2016 par David Anderson en marge du débat parlementaire sur l’Investigatory Powers Act en Grande Bretagne. Ce juriste en charge du contrôle indépendant des législations antiterroristes y faisait état des capacités technologiques en matière de collecte et d’exploitation « massive » de données («_ bulk powers_ »). Il donnait aussi plusieurs exemples de cas dans lesquels ces technologies étaient employées et évaluait leur intérêt opérationnel à partir de documents internes et d’entretiens avec certains hauts responsables.
En France, un tel degré de transparence semble pour l’heure inimaginable. Même si la CNCTR a fait quelques progrès dans la précision des informations fournies dans ses rapports, elle se contente pour l’essentiel de décrire l’état du droit et son évolution, ou de diffuser des statistiques générales sur les types de mesures autorisées et leurs finalités. On est encore loin du niveau de détail venant nourrir le débat public et alimenter les travaux des parlementaires, des journalistes ou des ONG dans des pays comme le Royaume-Uni ou l’Allemagne.
Faute pour le Sénat d’amender le projet de loi sur ces différents points, cette réforme constituera une nouvelle occasion manquée dans la tentative de réconcilier le renseignement français avec les normes internationales et les bonnes pratiques observées à l’étranger.
";s:7:"dateiso";s:15:"20210701_125129";}s:15:"20210630_155737";a:7:{s:5:"title";s:70:"Point d’étape des lois renseignement, séparatisme et anti-piratage";s:4:"link";s:105:"https://www.laquadrature.net/2021/06/30/point-detape-des-lois-renseignement-separatisme-et-anti-piratage/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17394";s:7:"pubDate";s:31:"Wed, 30 Jun 2021 13:57:37 +0000";s:11:"description";s:233:"Ce mois de juin, le Parlement français aura discuté de trois textes différents qui portent tous en partie sur Internet. Chacun a pour effet, notamment, d’augmenter le pouvoir de censure et de surveillance de l’État…";s:7:"content";s:12913:"
Ce mois de juin, le Parlement français aura discuté de trois textes différents qui portent tous en partie sur Internet. Chacun a pour effet, notamment, d’augmenter le pouvoir de censure et de surveillance de l’État sur les réseaux.
Difficile de ne pas angoisser quand on essaie de suivre (et surtout de lutter contre) les multiples projets de lois du gouvernement touchant au numérique en France.
Après une année 2020 particulièrement éprouvante (crise sanitaire, loi sécurité globale, loi Avia…), l’année 2021 ne baisse pas en intensité, au contraire. C’est ainsi que trois textes ont été en débat ce mois-ci devant le Parlement sur nos sujets : une nouvelle loi concernant (entre autres) les services de renseignement, une nouvelle loi concernant le « piratage » et la loi dite « Séparatisme » qui prévoit notamment un régime important de « régulation » des plateformes. Même si chacune de ces lois aura un effet significatif sur nos libertés, l’anéantissement du débat parlementaire, le mépris du débat public et l’épuisement des associations rendent le combat particulièrement difficile.
Si chacun de ces textes mériterait une analyse approfondie, nous vous proposons ici une revue rapide de leur contenu qui permet toutefois d’alerter sur leurs dangers et les dispositions à surveiller.
Notons que tous ces textes sont passés en « procédure accélérée », c’est-à-dire qu’il n’y a, sauf surprise, qu’une lecture par chambre, et donc réduction d’autant du débat parlementaire. Ce régime d’exception est devenu la normalité depuis le début du quinquennat – sans que personne ne s’en émeuve plus vraiment.
Loi sur la prévention d’actes de terrorisme et renseignement
Déposée le 28 avril 2021, débattue dans la foulée à l’Assemblée en seulement deux jours, et adoptée hier par le Sénat, la nouvelle loi anti-terrorisme et renseignement continue son avancée aussi rapide que discrète : vous en trouverez une analyse complète ici (et une tribune signée avec d’autres associations ici).
En résumé : pour la partie « renseignement », la loi n’est pas une simple mise à jour. Elle pérennise les « boîtes noires » (en étendant leur capacité de surveillance aux URL) et réaffirme – en le modifiant à la marge – le régime français de conservation des données de connexion. Le tout en pleine opposition avec l’arrêt de la Cour de Justice de l’Union européenne (et dont on parlait ici).
Dans le même temps, elle donne de nouveaux pouvoirs aux services : facilitation des échanges d’informations entre la DGSI et la DGSE mais aussi avec des services publics comme la CAF ou Pôle Emploi, possibilité de conserver des données à des fins de recherche pour 5 ans, surveillance des communications satellitaires, possibilité de dupliquer l’ensemble du trafic vers les locaux du gouvernement et enfin possibilité de forcer les opérateurs à coopérer sur des techniques d’intrusion informatique.
Le projet a donc été adopté hier par le Sénat, en pleine nuit, dans un hémicycle quasi-vide. En tout : un peu plus de deux mois laissés au Parlement pour voter ces mesures profondément liberticides.
Loi anti-piratage
Formellement, cette loi est relative à « la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique ». Elle a été déposée au Sénat le 8 avril 2021, votée le 20 mai, transmise ensuite à l’Assemblée nationale qui l’a votée le 23 juin. Le texte est aujourd’hui en commission mixte paritaire, pour que les deux chambres s’entendent sur leurs versions. Deux mois et demi donc pour voter la loi.
Cette loi est en réalité la reprise partielle d’une ancienne loi sur l’audiovisuel abandonnée du fait de la crise sanitaire (que nous avions déjà commencé à analyser ici). Même si on pourra se réjouir du symbole que représente de la disparition de feu l’HADOPI (fusionnée avec le CSA pour créer l’ARCOM), la loi cherche en fait à accentuer la lutte contre le piratage. Le texte veut notamment permettre à la nouvelle ARCOM d’éditer des « listes noires » des « pires » sites de piratage (et de les rendre publiques – en espérant assécher ainsi le financement par la publicité de ces sites) et de demander à un opérateur (et à un juge si besoin) le blocage d’un site qui reprendrait totalement ou partiellement un site déjà jugé illégal (ce qu’on appelle les sites miroirs). Il crée aussi un dispositif spécifique pour le piratage des retransmissions sportives : la possibilité de saisir un juge et d’obtenir de lui une ordonnance dite « dynamique », c’est-à-dire une décision de justice pouvant être utilisée contre des sites qui n’ont pas encore été individuellement désignés mais qui pourront cependant faire l’objet d’un blocage (car retransmettant la même compétition que celle visée dans la décision de justice).
Bref, au lieu de supprimer HADOPI (on en parlait ici), ce projet la transforme en lui donnant un nouveau nom et de nouveaux pouvoirs. La seule réponse qu’a su donner le gouvernement aux changements apportés par Internet (et ses possibilités de partage non-marchand) a toujours été la même : non pas, par exemple, une réflexion sur le financement de la culture (on en parlait ici il y a déjà longtemps), mais toujours plus de surveillance, toujours plus de pouvoir à l’administration – multipliant les cas de censure sans juge.
Seul motif de soulagement : la « transaction pénale » voulue par le Sénat (qui revient à donner à l’ARCOM un pouvoir de sanction financière) a été supprimée par l’Assemblée nationale.
Loi Séparatisme
Dernière loi : celle sur le « séparatisme », devenue depuis loi sur « le respect des principes de la République ». Outre ses dispositions gravement liberticides hors Internet (voir par exemple les tribunes ici, ici ou encore ici), le projet contient tout un volet concernant les réseaux sociaux, notamment :
un article 18 déjà, qui interdit la diffusion d’informations privées si cela est fait dans l’intention de porter atteinte à une personne ou à ses biens. Avec une formulation aussi large et aussi confuse, le risque est évident de voir le gouvernement ou la police tenter de l’utiliser pour réprimer tout et n’importe quoi ;
un article 19 pour lutter contre les sites miroirs : de la même manière que pour la lutte anti-piratage, l’ARCOM pourra, à la suite d’une décision de justice ordonnant le blocage d’un site ayant hébergé des contenus « haineux », aller demander aux personnes compétentes (les fournisseurs d’accès à Internet notamment) de bloquer un site reprenant un contenu équivalent (aussi imprécis que ce terme puisse l’être) ;
un article 19 bis qui prévoit un bon nombre d’obligations pour certaines grandes plateformes (transparence, coopération avec les autorités, modération…), avec fortes sanctions de l’ARCOM à la clé.
Sur cet article 19 bis, il est la transposition « en avance » d’un texte européen en construction, la directive « Digital Services Act ». Oui, le gouvernement a choisi de faire adopter en France un texte européen qui vient juste d’être proposé par la Commission européenne et qui doit encore faire l’objet de plusieurs mois (si ce n’est années) de discussions, et donc de modifications. Qu’importe, comme le dit Sacha Houlié (député LaREM), « si pour une fois nous pouvons prendre un peu d’avance, ça ne sera pas du luxe ».
Ce choix interviendra néanmoins au détriment de l’exercice des libertés sur le Net : le texte ne remet pas une seule fois en cause le modèle toxique des plateformes (et leurs modes de financement par la publicité ciblée) et préfère appliquer une succession d’obligations de transparence que Facebook et consorts appliquent sans doute déjà en partie (et en y soumettant Wikipédia, à l’encontre de toute compréhension de leur modèle – voir leur note de blog ici). Nous reviendrons sur l’ensemble de ces nouvelles obligations dans un autre article dédié ultérieurement.
Le texte a déjà fait un tour complet devant l’Assemblée et le Sénat, mais les parlementaires n’ont pas réussi à s’entendre et doivent maintenant repasser dessus au moins une fois. Il doit être débattu cette semaine à l’Assemblée avant de retourner de nouveau devant le Sénat.
Trois textes donc, tous traités en vitesse accélérée et qui risquent de transformer toujours plus Internet en un outil de surveillance de masse, géré par une autorité administrative toute-puissante, l’ARCOM. La stratégie d’épuisement du gouvernement marche à plein régime. Après la loi Avia et la loi Sécurité Globale en 2020, le gouvernement cherche à épuiser les oppositions en multipliant les fronts. Il révèle par la même occasion son mépris du débat public et parlementaire, à laquelle sa majorité dévouée lui permet d’échapper.
";s:7:"dateiso";s:15:"20210630_155737";}s:15:"20210615_145945";a:7:{s:5:"title";s:59:"Loi Renseignement 2 : refuser l’emballement sécuritaire";s:4:"link";s:93:"https://www.laquadrature.net/2021/06/15/loi-renseignement-2-refuser-lemballement-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17379";s:7:"pubDate";s:31:"Tue, 15 Jun 2021 12:59:45 +0000";s:11:"description";s:240:"Lettre commune de l’Observatoire des libertés et du numérique (OLN) et de Wikimedia France, Paris, le 15 juin 2021
Après son adoption le 2 juin dernier par l’Assemblée nationale, le Sénat doit maintenant se prononcer sur…";s:7:"content";s:5738:"
Lettre commune de l’Observatoire des libertés et du numérique (OLN) et de Wikimedia France, Paris, le 15 juin 2021
Après son adoption le 2 juin dernier par l’Assemblée nationale, le Sénat doit maintenant se prononcer sur le projet de loi « relatif à la prévention d’actes de terrorisme et au renseignement ». Au regard des graves dangers que porte ce texte, les organisations membres de l’Observatoire des Libertés et du Numérique (OLN) et Wikimedia France [1] appellent à refuser l’emballement sécuritaire imposé par le gouvernement et à rejeter ce projet de loi.
Tel qu’adopté par l’Assemblée nationale, le projet de loi « relatif à la prévention d’actes de terrorisme et au renseignement » vise à pérenniser plusieurs des mesures d’urgence décidées dans la loi du 24 juillet 2015 ainsi qu’à donner aux services de renseignement de nouveaux pouvoirs profondément attentatoires à nos libertés.
Inscrit en urgence dans le calendrier parlementaire à la suite d’autres lois liberticides, comme la loi « Sécurité Globale » ou la loi dite « séparatisme », ce texte est une nouvelle étape dans l’emballement sécuritaire qu’impose le gouvernement depuis plusieurs mois.
Concernant les dispositions « renforçant la prévention d’actes de terrorisme », les organisations membres de l’OLN rejoignent les critiques émises par la note d’analyse des membres du réseau « anti-terrorisme, droits et libertés » [2].
Concernant les dispositions « relatives au renseignement », plusieurs d’entre elles sont nouvelles et viennent considérablement renforcer les pouvoirs de surveillance des services de renseignement, parmi lesquelles : la facilitation des échanges d’informations entre les services de renseignements entre eux et avec d’autres services de l’État (article 7), la conservation pendant 5 ans, à des fins de recherche et développement, des informations obtenues dans le cadre d’opérations de renseignement (article 8), la possibilité de forcer les opérateurs et fournisseurs de communications électroniques à coopérer avec les services de renseignement sur des techniques d’intrusion informatique (article 10), la surveillance des communications satellitaires (article 11).
Concernant les algorithmes de surveillance dits « boîtes noires » (articles 12 à 14), le texte veut pérenniser et étendre ces dispositifs de surveillance de masse, pourtant votés de manière expérimentales en 2015 et dont il n’existe à ce jour aucun rapport public explicitant l’intérêt ou l’efficacité réelle pour les services de renseignement.
Concernant la conservation des données de connexion (article 15), le projet de loi vient modifier à la marge le système existant qui oblige les opérateurs à conserver pendant un an l’ensemble des données de connexions de la population. Ce système a pourtant été jugé en grande partie inconventionnel par la Cour de Justice de l’Union européenne en octobre dernier.
L’ensemble des dispositions de ce projet de loi n’a donné lieu qu’à un débat public limité et à une relativement faible attention des acteurs médiatiques, bien loin des craintes énoncées lors de la loi de 2015 et qui concernait pourtant plusieurs dispositifs similaires. Il représente pourtant une nouvelle étape dangereuse dans les atteintes régulières et toujours plus importantes portées par ce gouvernement à nos libertés.
C’est une nouvelle mise en œuvre de ce terrible « effet-cliquet » sécuritaire : il n’y a jamais de retour en arrière sur les expérimentations et mesures liberticides mises en place, aucun retour plus favorable aux libertés, et ce quand bien même des demandes légitimes et mesurées seraient avancées (augmentation des pouvoirs de la CNCTR, contrôle des échanges avec des services étrangers, réels pouvoirs de contrôle parlementaire, réelle possibilité de contestation individuelle…).
Malgré la complexité du sujet, le Sénat est appelé à se prononcer en moins d’un mois sur ce texte. Les organisations membres de l’OLN ainsi que Wikimedia France appellent les sénatrices et sénateurs à refuser cette urgence et à rejeter ce texte.
—
[1] Signataires :
Organisations signataires membres de l’OLN (Le CECIL, Creis-Terminal, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM)) et Wikimedia France
";s:7:"dateiso";s:15:"20210615_145945";}s:15:"20210611_145705";a:7:{s:5:"title";s:60:"Le mythe participatif de la Smart city et de sa surveillance";s:4:"link";s:101:"https://www.laquadrature.net/2021/06/11/le-mythe-participatif-de-la-smart-city-et-de-sa-surveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17364";s:7:"pubDate";s:31:"Fri, 11 Jun 2021 12:57:05 +0000";s:11:"description";s:259:"La smart city en fait rêver certains. Les ingénieurs qui la convoitent parlent dorénavant d’une « citoyenneté augmentée ». Ce nouveau concept de la ville connectée et sûre aspire à ce que « les civic tech transforment le…";s:7:"content";s:12703:"
La smart city en fait rêver certains. Les ingénieurs qui la convoitent parlent dorénavant d’une « citoyenneté augmentée ». Ce nouveau concept de la ville connectée et sûre aspire à ce que « les civic tech transforment le consommateur capté en citoyen capteur ». Cette citoyenneté augmentée permettrait une plus grande démocratie et ce, grâce aux nouvelles technologies et à leur injection dans l’aménagement urbain.
A travers cette obsession des industriels et des collectivités territoriales, c’est l’informatisation de la ville tout entière qui est brandie – sa connectivité, la multiplication des capteurs, l’analyse massive des données – et qui permettrait une émancipation de la population. En réalité, il n’en est rien : les technologies sont imposées à la population et celle-ci ne peut s’y opposer qu’à la marge.
L’un des arguments avancés pour justifier le déploiement de smart cities est l’opportunité d’une plus grande implication des citoyens et citoyennes, par le biais de ces nouvelles technologies. Ce serait notamment à travers les smartphones et autres capteurs que les habitants et habitantes auraient la possibilité de dialoguer numériquement avec la municipalité. C’est un des objectifs affichés de la métropole dijonnaise, qui permettrait : « une généralisation du processus de démocratie participative pour mieux impliquer les habitants dans la vie de la métropole ». Par exemple, à travers une application qui autoriserait les habitantes à être « actrices » de la ville en géolocalisant un dépôt d’ordures sauvage. Ces éléments de langage font partie de l’impératif délibératif, c’est-à-dire la tendance observée dans les pratiques politiques de prise de décision qui consiste à ancrer sa légitimité dans la délibération et dans la référence à une réflexion commune. Or, cette tendance à justifier la pertinence d’un projet politique à travers la « participation de la population » vise à légitimer ces projets sans jamais poser la question de leur pertinence.
La population, exclue du processus de décision
De fait, on ne demande pas l’avis des populations pour imposer ce genre de gadget technologique, de même qu’on impose l’informatisation des villes. Cette mise en numérique des villes se caractérise par une multiplication des capteurs – caméras de vidéosurveillance, indicateurs de la pollution de l’air, capteurs sur les poubelles, smartphones, lampadaires connectés etc -, par une collecte massive des données et par une automatisation de leur traitement. Pourtant il s’agit d’un choix politique, or les habitants et habitantes des villes n’ont pas leur mot à dire sur le déploiement de ce nouveau visage de l’ethos néolibéral.
Une participation contrainte
Si la population n’est pas conviée au processus de décision sur le principe d’un déploiement de dispositifs de surveillance en amont, elle est sommée de participer à l’élaboration et la mise au point de ces dispositifs. Elle est également attendue de manière active dans la production de la sécurité urbaine numérique.
L’expérimentation : la population comme laboratoire
Lors de la mise en place de dispositifs de surveillance, la population est régulièrement envisagée comme une matière première, afin de tester les technologies et les nouveaux algorithmes. Et cela pour deux raisons apparentes :
Premièrement, c’est une ressource gratuite pour entraîner les algorithmes et pouvoir ensuite généraliser la commercialisation dudit dispositif en France ou à l’étranger. Ainsi, par exemple, la population de la ville de Suresnes s’est transformée en cobaye au profit de l’entreprise XXII, comme nous le montrons ici.
Deuxièmement, l’expérimentation permet d’habituer une population à un dispositif ; cela permet d’en faciliter « l’acceptation » c’est-à-dire d’en faciliter la réception sociale.
Ces deux aspects de l’expérimentation peuvent parfois se recouper ou bien former deux tendances distinctes avec des caractéristiques propres. Un des usages possibles permis par l’expérimentation est de tester l’acceptabilité d’une technologie tout en en faisant la promotion et de profiter des retombées qu’elle peut conférer. Par exemple, à Nice, l’expérimentation de février 2019 consistait, durant les trois jours du carnaval de la ville, à utiliser la reconnaissance faciale pour identifier des personnes dans la foule. L’expérimentation avait été jugée conforme par la CNIL car le groupe de personnes sur lequel s’effectuait le traitement biométrique avait donné un consentement considéré comme « libre » et « éclairé ». Il s’agissait de faire la démonstration du fonctionnement de la reconnaissance faciale et de son utilisation en milieu urbain. Ici, en plus de l’effet de communication apporté par cette expérimentation, elle permet d’établir un précédent : la reconnaissance faciale a été utilisée, a produit des données et n’a pas été massivement rejetée par la population.
À l’inverse, d’autres expérimentations visent à améliorer des algorithmes et dispositifs sécuritaires et ne cherchent pas à être connues. C’est le cas du Lab’IA créé à la station de métro Châtelet – Les Halles à Paris par la RATP, un laboratoire d’intelligence artificielle où sont testées de nombreuses technologies dans la station de métro la plus fréquentée de France avec 750 000 visiteurs par jour. Le rapport de l’Institut Paris Région nous apprend que depuis 2017, la régie des transports a conclu des partenariats avec plusieurs entreprises (dont Thalès, Axone System et plus récemment, la société Datakalab sur la détection de port de masque) pour tester des algorithmes de maraudage, de détection de comportements suspects, d’abandon de colis. Mais du fait de l’ancienneté du parc de vidéosurveillance de la RATP (qui n’est pas doté de caméras HD), les algorithmes donnaient trop de faux-positifs. Par exemple, en attendant leur train, les voyageurs créaient de trop nombreuses alertes, car ils étaient détectés par l’algorithme de « maraudage », qui s’enclenche au bout de 300 secondes d’immobilité. Ce Lab’IA de la RATP à Châtelet est un bon exemple d’expérimentation où la population est vue comme un laboratoire pour tenter de « valoriser » son réseau de caméras et permettre à des entreprises d’améliorer leurs algorithmes sur des voyageurs. Ce type d’expérimentation ne gagne pas forcément à être publicisé.
Ainsi les expérimentations peuvent avoir plusieurs usages, que ce soit pour tenter de créer l’acceptabilité de ces dispositifs, pour améliorer les technologies ou encore parer à leur illégalité. Lorsque la population participe, c’est la plupart du temps malgré elle. Mais dans certain cas, sa participation est attendue :
La population, une coproductrice attendue de la surveillance urbaine numérique
Dans certains cas particuliers, la participation de la population est attendue et même souhaitée par les acteurs développant les smart cities. Ainsi à Nice, au début de l’année 2018, la municipalité voulait mettre en place une application dite citoyenne « Reporty » qui permettait de faire des appels vidéos avec la police tout en se géolocalisant et se filmant en temps réel pour dénoncer des « incivilités ». Une camionnette qui décharge de l’électroménager sur la voie publique, un maraudeur qui lorgne sur une voiture ou encore un cycliste renversé furent cités comme exemples par le maire de Nice, Christian Estrosi lors de la mise en place expérimentale de cette application (auprès de 2000 utilisateurs). Il affirme également : « Chacun d’entre nous doit devenir un citoyen engagé acteur de sa propre sécurité, et donc de la sécurité collective ». Finalement, Reporty fut épinglée par la CNIL, le dispositif étant disproportionné entre l’atteinte à la vie privée (collecte et enregistrement immédiat de données biométriques (voix, visage) et l’objectif escompté.
C’est ce que Vannessa Codaccioni nomme « société de vigilance » pour parler de la tendance à l’autosurveillance et à la délation qui s’institutionnalise.
Ainsi, les autorités s’attendent à ce que la population participe et contribue activement à la construction de la sécurité urbaine numérique. Guillaume Faburel : la population entière peut être envisagée comme capteurs, grâce aux technologies embarquées (smartphone). La population peut être actrice de sa propre surveillance « Depuis son smartphone, le citoyen pourra, dans un second temps, signaler un problème sur la voie publique (éclairage en panne, mur tagué, sac poubelle sur le trottoir,…), gérer ses demandes administratives ou encore optimiser ses déplacements dans la métropole. » toujours selon la métropole dijonnaise.
Ici la population d’une ville est l’objet des mesures de surveillance urbaine et en même temps considérée comme coproductrice de cette sécurité : le citoyen est envisagé comme partenaire et acteur de cette surveillance.
Conclusion
La smart city et l’informatisation qu’elle amène cache son déploiement dans nos vies et villes à travers le mythe de la participation. Or, comme on l’a vu, celle-ci est circonscrite : les habitant·es ne peuvent participer au gouvernement de la ville qu’en faisant office de nouveaux capteurs d’information. En ce sens, la ville connectée et intelligente n’apporte pas l’idéal démocratique tant promis par les autorités. Les dispositifs technologiques déployés renforcent la surveillance de l’espace public car ils sont porteurs de normes et de la vision du monde de leur promoteurs.
";s:7:"dateiso";s:15:"20210611_145705";}s:15:"20210609_143750";a:7:{s:5:"title";s:62:"Passe sanitaire : attaquons l’obligation d’identification";s:4:"link";s:94:"https://www.laquadrature.net/2021/06/09/passe-sanitaire-attaquons-lobligation-didentification/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17348";s:7:"pubDate";s:31:"Wed, 09 Jun 2021 12:37:50 +0000";s:11:"description";s:259:"Le gouvernement vient de lancer son système de passe sanitaire. Nous allons déposer un référé (recours d’urgence) contre ce passe sanitaire devant le Conseil d’État car il divulgue de façon injustifiée des données sur l’état…";s:7:"content";s:7994:"
Le gouvernement vient de lancer son système de passe sanitaire. Nous allons déposer un référé (recours d’urgence) contre ce passe sanitaire devant le Conseil d’État car il divulgue de façon injustifiée des données sur l’état civil et des données de santé.
Mise à jour 11 juin : nous avons envoyé dans la nuit de jeudi à vendredi notre recours au Conseil d’État. Vous pouvez le consulter ici.
L’accès aux grands événements sera limité aux personnes présentant certaines garanties contre la pandémie, telles que le fait d’être vaccinées, d’avoir réalisé un test PCR ou de s’être récemment rétablies de la maladie. Ce n’est pas cette limitation que nous avons choisi d’attaquer. Le problème principal que nous attaquons est que, pour apporter la preuve d’une telle garantie, chaque personne devra fournir un passe sanitaire comportant son nom afin, comme l’a expliqué Cédric O, de prouver qu’elle en est bien la titulaire par la production d’une carte d’identité ou d’un passeport. Ainsi, l’accès aux grands événements sera en pratique limité aux personnes disposant d’une carte d’identité ou d’un passeport. C’est cette conséquence du passe sanitaire que nous sommes sur le point d’attaquer devant le Conseil d’État.
Si, en pratique, la possession d’une carte d’identité semble être une obligation pour beaucoup de personnes, elle ne l’est pas en droit : notre identité se prouve par tout moyen (pendant des siècles, par exemple, elle se prouvait simplement par témoignage oral, ce que l’administration admet d’ailleurs comme étant toujours valable). La possession d’une carte d’identité ne doit pas s’imposer davantage qu’elle ne l’est aujourd’hui, car ce type de fichage généralisé risque d’avoir de terrible conséquences avec le développement des nouvelles technologies et la légalisation de la surveillance de masse.
Reconnaissance faciale
Dès aujourd’hui, nombre d’entre nous refusons de renouveler notre carte d’identité depuis qu’un décret de 2015 prévoit que la photo de notre visage doit obligatoirement être numérisée et centralisée dans le méga-fichier TES en cas de renouvellement de papiers d’identité. Ce méga-fichier, que nous avons attaqué sans succès devant le Conseil d’État, sera la base idéale du système de reconnaissance faciale généralisée dont rêvent les différents partis de droite dure qui se partagent actuellement le pouvoir.
Traçage automatisé
De plus, la crise sanitaire ne doit pas être un prétexte pour rétablir l’obligation généralisée de détenir une carte d’identité, telle que l’avait imposée le gouvernement de Vichy afin de traquer et de tuer les séparatistes juifs et résistants.
Cette crainte est d’autant plus grave que le système de code en deux dimensions (parfois appelé « cachet électronique visible » ou « 2D-Doc ») intégré au passe sanitaire est celui destiné à intégrer les futures cartes d’identité biométriques. Ce système simple et pratique de code en 2D facilitera le traçage constant et à grande échelle de toute personne présentant sa carte d’identité. Si, à l’heure actuelle, le passe sanitaire permet déjà et très facilement la constitution de fichiers illicites de données personnelles, la situation pourrait très vite s’aggraver s’agissant des futures cartes d’identité. En facilitant le contrôle d’identité (il suffit de scanner un code 2D, n’importe qui peut le faire avec un smartphone) on peut s’attendre à des contrôles d’identité de plus en plus numérisés et nombreux, de la part de la police (en entrée de manifestation ou en cités) comme des services de sécurité privée (discothèques, festivals, transports, hôtels…).
Tel que cela a été le cas pour les téléphones (voir notre dossier), il faut redouter que la loi impose rapidement à ces systèmes de contrôle d’identité de conserver durablement les informations automatiquement collectées sur les cartes d’identité, afin de les mettre à disposition de la police et des services de renseignement pour leur permettre de suivre à la trace nombres de nos activités.
En résulte un triptyque idéal du traçage constant, automatisé et centralisé de l’ensemble de la population : géolocalisation du téléphone, reconnaissance faciale et contrôle d’identité automatisé.
Données de santé
Comme si ce futur n’était déjà pas assez insupportable, le passe sanitaire pose dès aujourd’hui un autre problème aussi absurde qu’injustifiable : la lecture du code en 2D permet à n’importe qui, toujours aussi facilement, d’accéder à des données de santé très sensibles mais parfaitement inutiles au fonctionnement du passe : date de prise du vaccin, nom du vaccin, contraction passée de la maladie… Difficile de comprendre pourquoi le gouvernement a permis un tel système, parfaitement contraire tant au décret qu’à la loi encadrant le passe sanitaire. C’est un autre argument que nous déploierons devant le Conseil d’État contre ce système.
Refuser la surveillance de masse
Nous devons repousser toute tentative de rendre obligatoires les cartes d’identité et de généraliser la reconnaissance faciale (qui sera une conséquence probable de l’obligation d’avoir une carte d’identité). Le passe sanitaire, dans son format actuel, renforce ces deux risques mortels pour nos libertés.
À la place de ce passe sanitaire, nous appelons à la seule alternative capable de repousser l’enfer sécuritaire souhaité par l’extrême droite : faisons-nous confiance les un·es les autres pour ne pas mettre en danger notre entourage, demandons-nous de ne pas aller en festival ou en concert sans vaccin ou test PCR à jour, et arrêtons de nous considérer comme des irresponsables. Depuis plus d’un an, aucun laboratoire ne demande une pièce d’identité pour réaliser un test PCR ; il est absurde d’en demander une aujourd’hui pour le passe sanitaire. La crise sanitaire ne pourra être traversée sans confiance réciproque, et la confiance ne saurait jamais naître de la contrainte.
";s:7:"dateiso";s:15:"20210609_143750";}s:15:"20210608_160734";a:7:{s:5:"title";s:189:"Lettre ouverte appelant à l’interdiction mondiale du recours à la reconnaissance faciale et biométrique permettant une surveillance de masse et une surveillance ciblée discriminatoire";s:4:"link";s:223:"https://www.laquadrature.net/2021/06/08/lettre-ouverte-appelant-a-linterdiction-mondiale-du-recours-a-la-reconnaissance-faciale-et-biometrique-permettant-une-surveillance-de-masse-et-une-surveillance-ciblee-discriminatoire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17343";s:7:"pubDate";s:31:"Tue, 08 Jun 2021 14:07:34 +0000";s:11:"description";s:255:"La Quadrature du Net est signataire d’une lettre ouverte internationale, signée par plus de 170 associations dans le monde entier et rédigée par EDRi, Access Now, Amnesty International, Human Right Watch, Internet Freedom Foundation (IFF),…";s:7:"content";s:1809:"
La Quadrature du Net est signataire d’une lettre ouverte internationale, signée par plus de 170 associations dans le monde entier et rédigée par EDRi, Access Now, Amnesty International, Human Right Watch, Internet Freedom Foundation (IFF), et l’Instituto Brasileiro de Defesa do Consumidor (IDEC).
Nous, les soussigné·e·s, demandons l’interdiction totale du recours aux technologies de reconnaissance faciale et de reconnaissance biométrique à distance qui permettent une surveillance de masse et une surveillance ciblée discriminatoire. Ces outils ont la capacité d’identifier, de suivre, de distinguer et de repérer des personnes où qu’elles aillent, compromettant ainsi nos droits fondamentaux et nos libertés civiles – notamment les droits à la vie privée et à la protection des données, le droit à la liberté d’expression, le droit à la libre association (ce qui mène à la criminalisation des actions de protestation et a un effet dissuasif), et les droits à l’égalité et à la non-discrimination.
Ces technologies menacent délibérément les droits des citoyen·ne·s et ont déjà causé de graves préjudices. Aucune mesure de protection technique ou juridique ne pourrait totalement éradiquer le risque qu’elles représentent, et nous pensons donc qu’elles ne doivent jamais être utilisées en public ni dans des espaces accessibles au public, que ce soit par des gouvernements ou par le secteur privé.
";s:7:"dateiso";s:15:"20210608_160734";}s:15:"20210608_103141";a:7:{s:5:"title";s:66:"Le Printemps Marseillais dans la Technopolice ? Au fond à droite";s:4:"link";s:103:"https://www.laquadrature.net/2021/06/08/le-printemps-marseillais-dans-la-technopolice-au-fond-a-droite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17333";s:7:"pubDate";s:31:"Tue, 08 Jun 2021 08:31:41 +0000";s:11:"description";s:271:"À Marseille, la nouvelle majorité municipale s’était engagée durant la campagne 2020 à mettre un coup d’arrêt aux projets technopoliciers de l’ancien maire Jean-Claude Gaudin. Hélas, un an plus tard, l’ensemble de ces engagements ont…";s:7:"content";s:20886:"
À Marseille, la nouvelle majorité municipale s’était engagée durant la campagne 2020 à mettre un coup d’arrêt aux projets technopoliciers de l’ancien maire Jean-Claude Gaudin. Hélas, un an plus tard, l’ensemble de ces engagements ont été trahis. La gauche au pouvoir serait-elle condamnée à reproduire les vieux réflexes sécuritaires qui, depuis quarante ans, gangrènent le débat public ?
La participation des représentants de la plupart des partis de gauche à la scandaleuse manifestation policière devant l’Assemblée nationale, le 19 mai dernier, est loin d’être un fait isolé ou une erreur de parcours. Bien au contraire, elle constitue la dernière illustration en date d’une stratégie quasi-constante depuis quarante ans, qui voit ces partis de gauche se livrer à une surenchère sécuritaire dans le but de séduire les électeurs des partis plus à droite. Or, ce faisant, ces partis entretiennent non seulement leurs propres défaites électorales, aggravant la désaffection des électeurs, mais ils actent aussi une véritable démission idéologique, puisqu’ils renoncent de ce fait à réfléchir à d’autres réponses que la répression et le musellement des libertés pour assurer la « paix sociale ». La droite et ses obsessions autoritaires gagnent ainsi par forfait.
Depuis le lancement de la campagne Technopolice en septembre 2019, et à notre modeste mesure, l’un de nos objectifs consiste à battre en brèche ces tendances délétères en contribuant à politiser les enjeux liés à la surveillance numérique dans nos villes. C’est dans cette optique que, lors des élections municipales de l’an dernier, nous avions cherché à interpeller les équipes en lice autour des projets de vidéosurveillance automatisée ou de police prédictive.
À Marseille par exemple, en lien avec d’autres associations et collectifs locaux, nous avons rédigé une lettre ouverte à l’adresse des candidats, et publiée le 5 mars 2020 dans le journal La Marseillaise. Cette lettre ouverte faisait quatre demandes :
la réduction drastique du nombre de caméras de vidéosurveillance (qui tourne aujourd’hui autour de 1600, faisant de Marseille l’une des villes les plus vidéo-surveillées de France),
un comité citoyen organisé en fédération et doté de pouvoirs d’audit et de supervision sur les technologies de surveillance et autres activités policières.
Parmi les principaux partis en lice, le Printemps Marseillais fut le seul à nous contacter suite à cette lettre ouverte.
Des promesses électorales…
En campagne pour les élections municipales, cette liste de « gauche plurielle » incorporant des profils issus de la « société civile » nous disait être en accord avec ces demandes. Compte tenu de l’illégalité de l’expérimentation de la vidéosurveillance automatisée (voir notre recours déposé devant le Tribunal administratif de Marseille en octobre dernier) et des nombreux problèmes soulevés par l’Observatoire Big Data de la Tranquillité Publique, l’abandon de ces projets par la nouvelle majorité municipale nous semblait constituer une simple formalité.
Quant au moratoire sur l’installation de nouvelles caméras de surveillance, l’idée était explicitement reprise dans le programme du Printemps Marseillais. En page 15, celui-ci rappelait « que quatre études nationales successives [avaient] démontré leur inefficacité » et que ces équipements étaient « très coûteux (installation, fonctionnement, personnel mobilisé) ». S’il n’était plus question d’un audit citoyen permanent sur les politiques de sécurité et l’achat de technologies de surveillance, le programme évoquait néanmoins la mise en place d’« Assises annuelles des Sécurités pour Marseille » afin de « co-construire, suivre et évaluer la stratégie et les politiques publiques municipales de la sécurité, de la tranquillité publique et du vivre ensemble » (p. 14).
De manière plus générale, l’arrivée de nouvelles équipes municipales issues de la « gauche plurielle » à l’issue des élections municipales 2020 nous semblait de bon augure : face aux projets techno-sécuritaires le plus souvent portés par des élus locaux classés à droite, elle laissait espérer un changement de politique. Notre espoir était qu’à Marseille et ailleurs, ces nouvelles majorités puissent non seulement porter un coup d’arrêt à ces projets, mais aussi batailler dans le débat public pour battre en brèche les discours sécuritaires qui saturent le débat public et font aujourd’hui le lit de l’autoritarisme. Les manifestations du mois de juin 2020 contre le racisme policier, ou les mobilisations historiques contre la loi « sécurité globale » aux mois de novembre et décembre 2020, auraient pu aider à convaincre les politiciens et politiciennes les moins téméraires qu’il y avait là un espace politique à occuper et à faire vivre.
C’est en substance le discours que nous avons tenu à Yannick Ohanessian, le nouvel adjoint en charge de la sécurité à la mairie de Marseille, lors d’une rencontre organisée en octobre dernier. L’échange avec ce proche du nouveau maire PS de la ville, Benoît Payan, fut cordial. Mais alors que le rendez-vous était programmé depuis plus de deux mois, et que nous avions bien indiqué qu’il s’agissait pour nous de savoir ce que le Printemps Marseillais, désormais « aux manettes », comptait faire pour tenir ses promesses de campagne, l’élu était apparu bien peu au fait des dossiers. À la suite de cet échange, nous lui avions envoyé un certain nombre de documents et d’analyses pour lui permettre de s’informer davantage, et nous avions alors convenu de nous reparler début 2021.
Huit mois plus tard : plus de son, plus d’images. Pas même de réponses à nos multiples demandes de rendez-vous, malgré des relances multiples. Au lieu de cela, ces dernières semaines ont de nouveau illustré ce fait : une fois au pouvoir, les partis de gauche ont une fâcheuse tendance à s’asseoir sur leurs promesses anti-sécuritaires pour reprendre les politiques promues par leurs concurrents de droite. Jugez plutôt : un an à peine après l’arrivée au pouvoir du Printemps Marseillais à la mairie, l’ensemble des engagements de campagne liés à la Technopolice ont été rompus.
… honteusement trahies un an plus tard
S’agissant des caméras de vidéosurveillance, la nouvelle mairie continue à procéder à l’installation de nouvelles caméras de surveillance dont elle dénonçait pourtant le coût. En décembre dernier, la majorité municipale faisait voter un marché estimé entre 12 et 44 millions d’euros pour assurer la maintenance du parc existant de caméras de surveillance, mais aussi son « amélioration » et « l’installation ponctuelle et/ou temporaire de nouveaux points de captation avec ses capteurs vidéos ou spécifiques ». Le budget 2021 de la ville indique également, page 278, que plus de 3 millions d’euros de recettes ont été encaissées par la ville pour procéder à l’« extension de la vidéo-protection », grâce à des fonds transférés par le département des Bouches-du-Rhône et l’État. Quant au budget municipal, il versera au pot commun de la vidéosurveillance 800 000 euros en 2021, et alors que le maire Benoît Payan ne cesse d’insister sur l’état calamiteux des finances publiques de la ville.
Au lieu des « Assises annuelles des Sécurités pour Marseille » censées inclure les citoyens et citoyennes marseillaises, le Printemps Marseillais s’en tient à un audit de sécurité qui sera conduit par une entreprise privée de manière totalement opaque. Nous avons envoyé une demande d’accès aux documents administratifs pour en savoir plus sur ce marché, mais la mairie n’a même pas daigné nous répondre. Cela nous a conduit à saisir la CADA, la commission d’accès aux documents administratifs.
Sur la vidéosurveillance automatisée, les nouvelles ne sont pas non plus encourageantes. Après le dépôt de notre recours contre ce projet illégal en décembre dernier, l’équipe municipale avait annoncé à l’AFP la « suspension » du projet. Mais six mois plus tard, aucune nouvelle de cette suspension (nos demandes CADA sur ce point sont restées lettre morte). Pire, nous apprenions en février dernier que la ville avait passé un contrat avec un cabinet d’avocats parisien pour défendre la licéité de ce projet, prenant le risque d’obtenir une jurisprudence qui pourrait faire tâche d’huile et encourager le couplage de l’« intelligence artificielle » et des caméras de vidéosurveillance à travers l’ensemble du pays.
Enfin, s’agissant de l’Observatoire Big Data de la Tranquillité Publique, dont l’expérimentation était censée s’achever fin 2020 et dont la direction des affaires juridiques de la ville prétend aujourd’hui qu’il a été suspendu, c’est encore plus affligeant : alors qu’on lui faisait remarquer la subsistance de lignes budgétaires consacrées à ce prototype de police prédictive dans le budget 2021 (975 000 euros abondés par le département et l’Union européenne), le représentant du Parti Pirate au sein de la mairie de Marseille, Christophe Huguon, conseiller municipal à la transparence et à l’open data, se fendait d’une réaction sur Twitter :
« Nous avons pu, avec @yann_ohanessian, voir et tester le logiciel. Il ne s’agit absolument pas d’un outil de contrôle d’état policier fantasmé par l’ancienne majorité. Mais un outil de gestion (cartographique) de l’espace public (événements sportifs, culturels, marchés etc.). Cela dit une réflexion a déjà commencé pour avoir une vision et une utilisation plutôt orienté intérêt public que juste gestion d’espace public (un indice, il y a un peu d’open data dedans) » ».
Après avoir minimisé la dangerosité de cet outil — pourtant évidente à la lecture des documents associés au marché public –, il tentait de se dédouaner en précisant qu’il était « financé essentiellement par le département et l’Europe ». Comme si cela justifiait de dilapider l’argent public pour financer ce type d’outils. Quant à la référence à l’open data, Christophe Huguon semble y voir une monnaie d’échange : certes, semble-t-il vouloir nous dire tout en entretenant le suspense, « la mairie investit dans la police prédictive, mais nous publierons l’emplacement des caméras de surveillance en open data ». Maigre lot de consolation pour les collectifs locaux qui, ces derniers mois, ont passé de longues journées à cartographier eux-même l’emplacement de centaines de caméras sur le territoire marseillais, faute de transparence en la matière.
Mais le plus effarant, c’est sans doute de voir un élu du Parti Pirate délégué à la transparence administrative de sa ville tenter de « rassurer » la population en se félicitant d’avoir « vu et testé » ce logiciel propriétaire avec l’adjoint en charge de la sécurité dans le bureau de ce dernier. Il faudrait donc le croire sur parole ? Un peu d’open data ne suffira pas à remédier à l’opacité structurelle qui entoure les technologies de surveillance. Et nous ne pouvons que rappeler monsieur le conseiller municipal aux engagements du parti Pirate qu’il représente, lequel proclame non seulement que « l’accès à l’information, à l’éducation et au savoir doit être illimité », mais aussi que « nous, Pirates, soutenons la culture libre et le logiciel libre » tout en combattant « l’obsession croissante de surveillance car elle empêche le libre développement de l’individu ». Comme le dit le Parti pirate, « une société libre et démocratique est impossible sans un espace de liberté hors-surveillance » ; une telle société n’est évidemment pas soluble dans la police prédictive.
Mais ce n’est pas tout : outre les projets évoqués ici, le Printemps Marseillais encourage aussi la Technopolice sous couvert de « Smart City » : un « Smart Port » qui renforcera la surveillance aux abord du port autonome de Fos-Marseille et placera ses travailleurs et travailleuses sous la vigilance constante des machines ; une « Smart Métropole », avec des « Smart Réverbères » et la mesure « intelligente » du niveau de pollution atmosphérique, du niveau sonore, mais aussi des flux de piétons et de cyclistes… La surveillance constante des espaces publics urbains semblent avoir de beaux jours devant elle dans la cité phocéenne.
La stratégie perdante des partis de gauche
Nous ne sommes pas les seuls à nous heurter à l’incurie de la nouvelle majorité : le Collectif des écoles de Marseille, les associations d’aide aux migrants, des tiers-lieux culturels et bien d’autres encore trouvent également portes quasi-closes, ou bien se heurtent à une lenteur administrative effarante. Même les demandes CADA envoyées à la mairie sont aujourd’hui traitées dans des délais bien plus longs que sous l’ancienne majorité. Ce manque de considération pour les collectifs citoyens est d’autant moins excusable que l’équipe en lice s’était justement faite élire sur la promesse de refonder la démocratie à partir des dynamiques militantes locales. Là encore, difficile de ne pas y voir une forme d’instrumentalisation politicienne des mouvements sociaux.
Désormais au pouvoir, tout se passe en fait comme si le Printemps Marseillais se laissait sciemment prendre au piège tendu par ses opposants de la droite locale. Depuis plusieurs mois, Martine Vassal, présidente LR de la métropole Aix-Marseille et du département des Bouches-du-Rhône, successeure désignée de Jean-Claude Gaudin, attaque en effet la majorité municipale en dénonçant sa supposée insouciance en matière de sécurité. Début mars, le département lançait une grande campagne de communication — avec les élections régionales et départementales en ligne de mire — où il vantait son action en matière de sécurité, mettant notamment en exergue l’installation des caméras de vidéosurveillance.
Un mois plus tôt, en février, c’est Gérald Darmanin lui-même qui dénonçait le supposé moratoire de la ville de Marseille. Le ministre de l’Intérieur prétendait que « la mairie de Marseille refuse l’installation de caméras de vidéoprotection », s’empressant d’ajouter une de ces petites phrases toutes faites dont les politiciens ont le secret : « il faut arrêter d’être pyromane et pompier ».
Or, plutôt que de résister à ces attaques — en rappelant par exemple que la vidéosurveillance est une politique publique qui se chiffre en milliards d’euros, sur laquelle les citoyens et citoyennes n’ont jamais leur mot à dire, et dont l’efficacité n’a jamais été démontrée, ou qu’il serait urgent d’envisager des réponses aux problèmes d’insécurité qui ne soit pas fondées sur la répression policière ou la fuite en avant techno-sécuritaire –, la plupart des partis de gauche s’entêtent à reproduire la même stratégie perdante depuis plus de quarante ans, à savoir : s’enfoncer dans un « consensus sécuritaire » où la peur et le contrôle social tiennent lieu de politique. De ce point de vue, les élus et responsables politiques « de gauche » qui concourent à ces stratégies ont une immense responsabilité dans la fascisation croissante du climat politique français.
";s:7:"dateiso";s:15:"20210608_103141";}s:15:"20210602_150039";a:7:{s:5:"title";s:76:"Partage de données : les services de renseignement violent la Constitution";s:4:"link";s:115:"https://www.laquadrature.net/2021/06/02/partage-de-donnees-les-services-de-renseignement-violent-la-constitution-2/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17315";s:7:"pubDate";s:31:"Wed, 02 Jun 2021 13:00:39 +0000";s:11:"description";s:256:"La Quadrature du Net vient de demander au Conseil d’État de saisir le Conseil constitutionnel d’une Question prioritaire de constitutionnalité (QPC) contre une disposition de la loi renseignement, l’article L. 863-2 du code de la…";s:7:"content";s:7221:"
La Quadrature du Net vient de demander au Conseil d’État de saisir le Conseil constitutionnel d’une Question prioritaire de constitutionnalité (QPC) contre une disposition de la loi renseignement, l’article L. 863-2 du code de la sécurité intérieure. Comme le révélait le journal Le Monde il y a près de deux ans, un data-center attenant au siège de la DGSE permet aux services de renseignement d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce en contournant certaines des garanties inscrites dans la loi renseignement, déjà bien maigres. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement français, et des autorités de contrôle qui les couvrent.
MAJ du 2 juin 2021 : par une décision du 19 mai 2021, le Conseil d’Etat a accepté de transmettre au Conseil constitutionnel notre question prioritaire de constitutionnalité. Nous venons d’adresser au Conseil Constitutionnel notre mémoire sur ce sujet, demandant la censure de l’article L. 863-2 du code de la sécurité intérieure. Ce même article est également en débat devant l’Assemblée nationale dans le cadre de la réforme de la loi Renseignement
En juin 2019, La Quadrature déposait un recours au Conseil d’État contre « l’entrepôt », dont l’existence venait d’être révélée dans la presse. Comme nous l’expliquions alors, « les activités de surveillance relèvent de régimes plus ou moins permissifs », avec des garanties plus ou moins importantes accordées aux droits fondamentaux selon les régimes.
Autant de garanties écartées d’un revers de main dès lors que les données sont versées dans ce pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.). En pratique, l’entrepôt permet à un service donné d’accéder à des données qu’il n’aurait légalement pas le droit de collecter et d’exploiter dans le cadre des procédures prévues par la loi.
Ces échanges de données se fondent sur une disposition inscrite en 2015 dans la loi renseignement : l’article L. 863-2 de code de la sécurité intérieure. Or, celui-ci ne fournit aucun encadrement spécifique : le législateur s’était alors défaussé en renvoyant à un décret d’application, mais celui-ci n’est jamais paru. Une source du Monde évoquait pour s’en expliquer un « défaut de base constitutionnelle ». Or, c’est bien à la loi d’encadrer ces pratiques, raison pour laquelle l’article L. 863-2 est tout simplement inconstitutionnel.
Depuis l’introduction de notre recours devant le Conseil d’État, des rapports parlementaires sont venus corroborer les révélation du Monde. Dans le rapport d’activité 2019 publié l’été dernier, la Délégation parlementaire au renseignement note ainsi :
(…) il ressort des travaux conduits par la délégation que l’absence de cadre réglementaire n’a pas empêché les services de procéder à des partages réguliers non seulement de renseignements exploités, c’est-à-dire d’extractions et de transcriptions, mais également de renseignements collectés, c’est-à-dire de données brutes recueillies dans le cadre d’une technique de renseignement.
La délégation a ainsi été informée de l’existence d’une procédure dite d’extension, qui permet la communication de transcriptions effectuées au sein du GIC [le Groupement interministériel de contrôle] à un service autre que celui qui a fait la demande initiale de technique de renseignement (…). La délégation regrette de n’avoir pu obtenir, en revanche, d’informations plus précises sur les conditions juridiques et opérationnelles dans lesquelles il est procédé à des partages de données brutes.
Dans ce rapport, la Délégation parlementaire au renseignement estimait également « urgent qu’un encadrement précis de ces échanges soit réalisé », notant à juste titre que « le renvoi simple à un décret pourrait se révéler insuffisant et placer le législateur en situation d’incompétence négative ».
Nous espérons que le Conseil d’État acceptera de transmettre notre QPC au Conseil constitutionnel afin de que celui-ci mette fin à cette violation manifeste de la Constitution, malheureusement caractéristique du renseignement français. Un autre exemple flagrant d’illégalité est le partage de données entre les services français et leurs homologues étrangers, qui porte sur des volumes colossaux et n’est nullement encadré par la loi. Pire, celle-ci interdit explicitement à la CNCTR, la commission de contrôle des activités de surveillance des services, de contrôler ces activités.
L’illégalité persistante du renseignement français et l’impunité dont bénéficient ses responsables sont d’autant plus problématiques que l’espionnage politique constitue désormais une priorité assumée des services de renseignement la surveillance des groupes militants ayant vu sa part plus que doubler entre 2017 et 2019 (passant de 6 à 14% du total des mesures de surveillance autorisées).
";s:7:"dateiso";s:15:"20210602_150039";}s:15:"20210531_171922";a:7:{s:5:"title";s:54:"Vidéosurveillance biométrique dans nos supermarchés";s:4:"link";s:92:"https://www.laquadrature.net/2021/05/31/videosurveillance-biometrique-dans-nos-supermarches/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17302";s:7:"pubDate";s:31:"Mon, 31 May 2021 15:19:22 +0000";s:11:"description";s:243:"Pendant que le combat continue pour faire interdire la surveillance dans nos rues, le secteur privé déploie discrètement ses dispositifs jusque dans les supermarchés. Afin de détecter de vols, Carrefour, Monoprix, Super U ou encore…";s:7:"content";s:9900:"
Pendant que le combat continue pour faire interdire la surveillance dans nos rues, le secteur privé déploie discrètement ses dispositifs jusque dans les supermarchés. Afin de détecter de vols, Carrefour, Monoprix, Super U ou encore Franprix expérimentent des logiciels d’analyse biométrique pour surveiller nos moindres gestes dans leurs surfaces.
Plusieurs entreprises françaises proposent maintenant de détecter automatiquement les vols en magasin « en temps-réel » grâce à des logiciels d’analyse biométrique directement branchés sur les caméras déjà présentes dans les magasins.
Les start-up françaises rêvent de surveillance généralisée
Si l’idée de détecter automatiquement les vols dans les magasins a déjà été testée au Japon, plusieurs entreprises françaises n’ont pas hésité à développer leur propre logiciel :
« Anaveo », une entreprise de 320 personnes avec un chiffre d’affaires de 70 millions d’euros travaille dans la vidéosurveillance pour la grande distribution. Son logiciel « SuspectTracker » promet de capter les flux d’images issus des caméras pour analyser les « comportements suspects », par exemple les « gestes vers poussette, sac à dos, poche de pantalon ou de veste ». Leurs vidéos de présentation mentionnent en passant que la détection de vols vient alimenter une base de données permettant de continuer à améliorer l’algorithme.
« Oxania », une start-up fondée en 2019, a produit un logiciel « Retail Solutions » qui serait capable de « reconnaître les gestes associés au vol en temps réel, détecter les comportements, les situations dangereuses, le parcours client et bien plus encore ». La vidéo de présentation assume calmement faire une analyse biométrique des comportements des personnes présentes dans le magasin (chaleur corporelle, gestes, corps…).
et surtout « Veesion », start-up parisienne qui vend un produit de « reconnaissance des gestes » avec « une brique qui repère l’humain, une autre qui localise les membres sur ce corps humain, une autre qui repère les objets d’intérêt […] » pour ensuite envoyer une alerte sur le téléphone des équipes. En bonus, Veesion se
propose d’analyser « vos historiques de vol et [fournir] des recommandations personnalisées ».
En bref : un ensemble de dispositifs de surveillance et de suivi biométrique déployés en toute liberté et sans aucune information des personnes la subissant.
La grande distribution s’engouffre dans la surveillance biométrique
Le plus impressionnant est peut-être d’examiner la liste des clients des entreprises précitées et de se rendre compte que leur déploiement est déjà bien avancé.
L’entreprise Veesion annonce équiper plus de 120 magasins en France et la carte affichée sur en laisse deviner bien plus. Dans l’onglet « Success Stories » de leur site, on trouve quelques exemples mis en avant, parmi un ensemble bien plus vaste que l’on peine encore à mesurer : Monoprix (produit installé en juillet 2019 dans un magasin de Paris sur 22 caméras), Franprix (3 magasins à Paris sur 48 caméras en 2019), Super U Express (1 magasin à Paris avec 13 caméras en 2019), Bio c’ Bon (4 sites à Paris).
L’entreprise Anaveo n’est pas en reste même s’il est difficile de deviner le nombre exact de leurs clients. Nous savons au moins que son déploiement a déjà commencé, tel qu’en atteste les témoignages d’un Carrefour Market à Bourges qui annonce avoir acheté 11 licences du logiciel pour ses 32 caméras et celui d’un Intermarché à Artenay.
Protéger la rentabilité de la grande distribution avec la Technopolice
Aucune gêne ni chez les concepteurs des logiciels ni dans la grande distribution. Au contraire, comme le dit clairement la société Anaveo, l’objectif du déploiement de cette surveillance biométrique est de lutter contre la « démarque invisible » (comprendre, le vol à l’étalage), c’est d’« aider le secteur de la distribution à protéger son chiffre d’affaires »
Pire, pour le créateur de Veesion, la détresse sociale créée par la récente pandémie va provoquer des troubles sociaux, forçant les commerces « à investir davantage dans les solutions leur permettant de s’en prémunir ». Son entreprise devra alors être, selon lui, « à la hauteur des nouvelles exigences du retail physique », c’est-à-dire, à bien le suivre, développer les outils de la Technopolice pour protéger la grande distribution des populations pauvres poussées au vol par la crise sociale. Autant d’énergie et de ressources qui auraient pu venir en aide aux pauvres mais qui seront retournées contre eux.
Cette Technopolice privée ne se contente pas de reprendre les outils des États policiers – elle en adopte aussi l’idéologie et le vocabulaire. Dans sa communication commerciale, Veesion met en scène une crainte sinistre : « on peut pas se fier aux clients, même fidèles ». C’est exactement sur cette idée du « tous suspects » que la surveillance de masse policière se fonde.
De nouveau, l’action de la CNIL ne semble pas nous protéger de ces attaques. En juin 2020, l’autorité avait bien alerté qu’une grande partie des dispositifs de vidéosurveillance automatisée ne respectaient pas le cadre légal. Ce communiqué ne semble pourtant pas avoir mis fin aux dérives de l’industrie sécuritaire ou à la grande distribution, au contraire. Malgré la gravité de leurs dispositifs (détection et suivi biométrique), ces entreprises se vantent encore de leurs systèmes de surveillance sans qu’aucune sanction publique ne soit venue les arrêter (nous venons d’adresser à la CNIL, en même temps que cet article, une demande CADA sur ce sujet précis pour savoir si une enquête, ou équivalent, était en cours).
Notre combat contre la surveillance biométrique ne doit évidemment pas se limiter aux autorités publiques. Comme la surveillance sur Internet, c’est une progression qui se fait à deux têtes, les entreprises privées main dans la main avec les responsables publics, déployant ensemble et en parallèle un contrôle social toujours plus poussé : les rues, les bureaux, les supermarchés — pour ne plus nous laisser aucun espace d’anonymat.
Si vous avez des informations sur ces dispositifs, vous pouvez utiliser notre plateforme dédiée pour nous envoyer des documents.
";s:7:"dateiso";s:15:"20210531_171922";}s:15:"20210528_132017";a:7:{s:5:"title";s:47:"Les Cookies, qui sont-ils ? Que veulent-ils ?";s:4:"link";s:81:"https://www.laquadrature.net/2021/05/28/les-cookies-qui-sont-ils-que-veulent-ils/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17267";s:7:"pubDate";s:31:"Fri, 28 May 2021 11:20:17 +0000";s:11:"description";s:177:"Les cookies, nous les voyons de plus en plus souvent. En tout cas, on nous demande de plus en plus ce que nous voulons faire des cookies : les accepter ou pas ? Mais pour…";s:7:"content";s:11995:"
Un cookie, son histoire.
Lorsque vous vous baladez dans les sentiers fleuris du Web, vous utilisez un navigateur web. C’est ce logiciel qui permet d’afficher une page web. Par exemple, Firefox est un navigateur. Google Chrome est un navigateur. Ces logiciels vont communiquer avec un site web, en principe celui que vous êtes en train de visiter, pour recevoir et envoyer des instructions, comme « comment afficher une page », « quelle requête faire ensuite », etc… Parmi les requêtes que peut faire un site web, il pourra demander à votre navigateur de stocker de l’information dans un fichier, pour pouvoir y accéder dans le futur, lors de vos prochaines visites. Ce fichier, on appelle ça un cookie.
Résumons ; un cookie, c’est un fichier dans lequel votre navigateur va mettre des informations, sur demande des sites web que vous visitez. Nous devons le nom de cookie à Lou Montulli.
Comment un cookie surveille.
À partir de là, il faut bien se demander de quelle manière on aboutit à un système de surveillance globale.
Un cookie n’est pas mauvais en soit, et il est d’ailleurs nécessaire dans plein de cas. On l’utilise par exemple pour conserver des informations de connexion, ou un panier lors d’un achat sur le web. Ce qui importe donc, c’est ce qu’on met dans le cookie, et surtout qui demande à déposer le cookie.
Lorsque vous visitez un site web, ce dernier peut demander à mettre des cookies sur votre ordinateur pour plusieurs raisons, de fonctionnement notamment, mais ceux qui nous intéressent ici, ce sont les cookies de mesure d’audience et de publicité. Ils sont souvent créés par du code venant de régies publicitaires, des groupements de publicitaires et de médias, comme Google Adsens ou New Relic, pour ne citer que les plus connus, mais il en existe des centaines et des centaines d’autres. Ce code est le plus souvent chargé quand vous visitez la page, sans que vous n’en soyez averti.
Ces régies vont déposer des cookies contenant le plus souvent un identifiant unique. Et comme ces régies sont présentes sur de multiples sites web , elles vont pouvoir vous suivre de site en site, grâce à cet identifiant. Cela leur donne accès à une partie de votre historique de navigation, mais aussi à tout un tas d’informations privées : combien de temps vous restez sur une page, sur quels liens vous cliquez… Imaginez un tas de publicitaires regardant par dessus votre épaule en prenant des notes quand vous naviguez.
Leurs notes vont être sauvegardées, et leur consolidation va aboutir à la création d’une fiche sur vous. Fiche qui sera utilisée pour vous influencer, par exemple à travers la publicité ciblée, mais aussi pour vous surveiller. Ces informations peuvent être revendues à des personnes tierces dont les intentions ne sont pas forcément connues. Au fur et à mesure, il devient possible de vous identifier personnellement, et donc d’influencer vos choix, de façon subtile et quasi indétectable. Par exemple, en fonction de vos opinions politiques, vous n’aurez pas les mêmes résultats dans vos recherches que vos amis, pour la même requête..
Ces données peuvent aussi être utilisées dans le cadre d’une surveillance policière, ou un procès. Cela peut vous amener à vous censurer par vous-mêmes : éviter de faire des recherches par peur que cela se retourne contre nous. Et oui, tout le monde à quelque chose à cacher, même vous : jenairienacacher.fr .
Et surtout, cela conduit à une société panoptique, ou société-prison, dont les conséquences sont désastreuses. Sous l’effet d’une surveillance constante, on se retrouve à ne plus pouvoir s’exprimer librement, notamment à cause de la disparition de l’anonymat et de la vie privée. En somme, ce qui permet à une démocratie saine d’exister.
Légalement, c’est quoi la recette ?
Quelle est la légalité de ce système de surveillance ? La loi dit, à travers la CNIL et le RGPD, dont vous avez peut-être entendu parler, que vous pouvez consentir à être sous surveillance, mais aussi que vous avez le droit de la refuser. Il faut, pour que puissiez faire votre choix, qu’il soit ;
libre : avoir réellement le choix, sans que ce choix ne soit contraint ou influencé ;
éclairé : savoir à quoi on consent ;
univoque : que vous consentiez explicitement. En cliquant sur « Accepter » par exemple. Continuer la navigation sans répondre, ça n’est pas un consentement univoque par exemple.
spécifique : une finalité à la fois. L’analyse ok, la vente ok, mais pas en même temps.
Face aux cookies, que faire ?
Vu que les cookies sont gérés par votre navigateur, c’est avant tout là que la bataille a lieu. Au final, refuser des cookies sur un site web, même s’il existe une protection légale, rien ne garantit qu’elle sera vraiment respectée. Évidemment, vous devriez refuser les cookies. Mais c’est souvent rendu le plus compliqué possible : des centaines d’options à cocher, attendre que nos options soient prises en compte, naviguer entre plusieurs pages…
Et dernièrement, certains sites web vont jusqu’à vous refuser l’accès si vous n’acceptez pas leurs cookies, en vous donnant la possibilité de payer pour échapper à la surveillance. Le Conseil d’État dit que la légalité de cette pratique est à voir au cas par cas, autant dire que ça ne risque pas de s’en aller du jour au lendemain. Dans ce cas, la solution est donc de configurer votre navigateur, au moyen d’extensions, pour pouvoir accepter les cookies et donc accéder au site, sans que vous ne soyez pisté, dans les faits.
Tout d’abord, n’utilisez pas Google Chrome. Vu que l’intérêt de Google en matière de surveillance est directement opposé au vôtre, son navigateur est construit pour rendre la protection de la vie privée difficile. Nous recommandons donc des extensions pour Firefox, dont le code source est libre. Les voici donc ;
UBlock Origin, un bloqueur général de contenu, y compris les pubs, et les scripts tiers, qui pourraient mettre des cookies. À ne pas confondre avec UBlock, version frelatée de la même extension.
Privacy Badger, réalisé par nos camarades de l’EFF (Electronic Frontier Foundation), qui va mettre en place plusieurs mesures comme le blocage de cookies tiers, le nettoyage des URLs pour en enlever les traceurs. L’idée est de vous protéger sans avoir besoin de configurer quoique ce soit.
En dépit de tout ceci, pour être vraiment sûr de ce qu’il y a sur votre ordinateur, vous pouvez aller voir par vous-mêmes dans votre profil Firefox..
En allant un peu plus loin, on peut se poser la question de comment résoudre le problème à la base. Installer des extensions, ça nous protège nous, mais quid de nos proches ? L’utilisation des cookies n’étant un problème que dans le contexte du capitalisme de surveillance, c’est donc à lui qu’il faut s’attaquer directement.
En somme, trouver un autre moyen pour le web et l’internet d’exister, sans avoir besoin de connaître les goûts et opinions de tout le monde. Nous avons déjà écris à ce sujet ici et là.
Le cookie, un outil parmi d’autres pour la surveillance.
Malgré le blocage des cookies, le problème de la surveillance sur internet n’est que partiellement résolu. Il existe d’autres moyens, à d’autres niveaux, pour enregistrer ce que vous lisez. Notamment, le blocage des cookies lui-même rencontre des limites, comme nous en avions parlé dans cet article sur le déguisement des trackers pour échapper au blocage.
On pense aussi à l’utilisation de l’empreinte numérique unique de votre navigateur, que vous pouvez découvrir ici avec l’outil de l’EFF. Les fournisseurs d’accès à Internet peuvent aussi surveiller ce que vous consultez, et ils ont d’ailleurs l’obligation de le faire selon le droit français, qui est là en totale contradiction avec le droit européen.
Heureusement, d’autres avant nous ont développé des outils et des ressources autour de l’autodéfense numérique, avec lesquelles se former et se renseigner, dont voici un extrait ci dessous ;
Nous espérons que cet article vous aura appris quelque chose, et que le soucis des cookies vous paraît plus clair. Si vous souhaitez nous aider à lutter pour un internet libre et sans surveillance, n’hésitez pas à venir nous parler, et à partager cet article autour de vous
Illustration « 210202 » par Sayama via http://openprocessing.org/sketch/1085727
";s:7:"dateiso";s:15:"20210528_132017";}s:15:"20210527_165321";a:7:{s:5:"title";s:38:"Loi renseignement : le retour en pire";s:4:"link";s:76:"https://www.laquadrature.net/2021/05/27/loi-renseignement-le-retour-en-pire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17265";s:7:"pubDate";s:31:"Thu, 27 May 2021 14:53:21 +0000";s:11:"description";s:255:"Le 28 avril 2021, le gouvernement a proposé un nouveau projet de loi renseignement, complété le 12 mai par de nouveaux articles tirant les conséquences de notre défaite devant le Conseil d’État (relire notre réaction).
L’objectif…";s:7:"content";s:21054:"
Le 28 avril 2021, le gouvernement a proposé un nouveau projet de loi renseignement, complété le 12 mai par de nouveaux articles tirant les conséquences de notre défaite devant le Conseil d’État (relire notre réaction).
L’objectif premier du texte sera de faire définitivement entrer dans le droit commun les mesures de l’état d’urgence débuté en 2015 (assignation à résidence, perquisitions administratives…) ainsi que les mesures expérimentales de la loi renseignement de 2015 (surveillance automatisée du réseau par des « algorithmes »). L’objectif secondaire sera d’inscrire dans la loi française les violations du droit européen actées par le Conseil d’État le mois dernier afin de défendre à tout prix la surveillance de masse française. Toutefois, la menace la plus grave pourrait se situer entre les lignes : une multitude d’ajustements d’apparence sommaire qui semblent cacher un bouleversement dramatique du rapport de force entre le gouvernement et la population.
Dans cette première analyse, nous prenons le temps d’examiner l’ensemble des modifications apportées par ce projet de loi en matière de renseignement. Le texte qui vient d’être validé par la commission des lois de l’Assemblée nationale sera étudié en hémicycle à partir du 1er juin prochain.
Perquisitions administratives de matériel informatique (article 4)
Les perquisitions administratives appelées « visites domiciliaires » en novlangue sécuritaire, se voient dotées d’une nouvelle possibilité. Toujours sans contrôle d’un juge, l’article 4 offre à la police la possibilité d’exiger l’accès sur place à du matériel informatique. Si la personne perquisitionnée refuse, son matériel pourra être saisi et analysé par un laboratoire de la police.
Services sociaux comme auxiliaires de renseignement (article 7)
Aujourd’hui, les services de renseignement peuvent exiger des services sociaux (comme la CAF) la transmission de données confidentielles, mais ces derniers peuvent y opposer le secret professionnel. Tout cela disparaît dans la réforme en cours de discussion. Le secret professionnel ne pourra plus être invoqué. Les services sociaux devront, de leur propre initiative ou sur requête, transmettre aux services de renseignement toute information qui pourrait permettre l’accomplissement d’une mission de renseignement. Les finalités sont larges, puisqu’elles concernent n’importe quelle finalité de renseignement (dont l’espionnage économique ou la surveillance des mouvements sociaux).
Cela continue donc de renforcer le rôle des services sociaux en tant qu’auxiliaire de contrôle et de surveillance de la population. Cette modification continuerait de rendre légitime une réelle défiance à leur égard alors qu’ils sont censés concourir au service (du) public.
Larges partages de renseignements entre services (article 7)
Depuis 2015, les services de renseignement peuvent échanger entre eux les renseignements obtenus. Cet échange, prévu par l’article L863-2 du code de la sécurité intérieure, échoue à prévoir le moindre cadre procédural sérieux pour éviter un total dévoiement du dispositif. La Quadrature du Net avait donc attaqué ce dispositif devant le Conseil d’État, qui vient tout juste de saisir le Conseil Constitutionnel – et celui-ci ne devrait pas trop hésiter à censurer l’article.
La réforme du renseignement tente de contrer cette probable future censure constitutionnelle en posant des gardes-fous de pacotille à ce système absurde. Le partage de renseignements reste ainsi ouvert à tous les services de renseignement de premier comme du second cercle. Un service pourra obtenir de la part de ses partenaires des informations obtenues grâce à des techniques qui lui sont interdites, ou pour des finalités différentes de celles qui avaient motivé l’autorisation de la mesure de surveillance (l’avis de la CNCTR sera dans ces deux cas demandé). Le texte ne prévoit aucune limite dans le nombre de partages et n’impose pas non plus que certains agents seulement puissent accéder aux informations partagées. Le partage de renseignement vers ou depuis des services de renseignement étrangers est, quant à lui, totalement passé sous silence par la loi alors que différentes voix (telles que celle de la CNCTR et celle de la CEDH) questionnent depuis des années cette absence totale de contrôle.
Conservation portée à 5 ans pour la R&D (article 8)
Prenant l’exemple de la NSA et des sociétés privées comme Palantir, l’article 8 autorise la conservation jusqu’à 5 ans de toutes les informations obtenues dans le cadre d’opération de renseignement. En théorie, les informations ainsi conservées ne pourront plus être exploitées que pour faire de la recherche et du développement d’outils de renseignement divers (notamment les algorithmes d’analyses en masse des données collectées). Mais cette évolution permettra surtout de faire sauter toutes les limitations de durée pour des dizaines de milliers de fadettes (factures téléphoniques détaillées), d’écoutes téléphoniques, d’images de surveillance, d’analyses réseau, etc. Une fois stockées au prétexte de la R&D, il faut redouter que, par l’autorisation d’une loi future, ces informations puissent bientôt être exploitées pour les nombreux et larges objectifs du renseignement (surveillance économique, répression des opposants politiques…). Les lois sécuritaires reposent presque systématiquement sur ces tours de passe-passe à deux étapes.
Et même sans loi explicite, le détournent illégal des données recueillies, par des pratiques que le gouvernement ne se gênerait pas de qualifier de « alégales », ne seraient en rien une nouveauté (qu’il s’agisse par exemple du partage de données entre services, décrit plus haut, ou des nombreuses pratiques illégales antérieures à 2015 que le gouvernement avait rétrospectivement assumées en 2015).
Conservation doublée pour le piratage (article 9)
Une des techniques les plus invasives autorisées par la loi renseignement de 2015 a sans doute été le piratage informatique, tel que permis par l’article L. 853-2 du code de la sécurité intérieure. Les attaques informatiques déployées par les services de renseignement donnent potentiellement accès à l’intégralité des éléments de la vie d’une personne, largement au-delà des informations concernées par l’autorisation initiale. Les données visées sont si nombreuses et totales que la durée de leur conservation avait été limitée à un mois en 2015. Le projet de loi de 2021 propose de doubler cette durée, sans prendre la peine de donner la moindre justification opérationnelle, si ce n’est celle d’aligner cette durée sur d’autres pratiques proches dont la conservation avait été fixée à deux mois en 2015. Le gouvernement ne prend pas la peine d’expliquer pourquoi le nivellement de nos libertés se fait par le bas plutôt que par le haut…
Surveillance des communications satellitaires (article 11)
Pour le gouvernement, le champ d’action des services de renseignement doit être total : rien ni personne ne doit échapper à leur contrôle. Si Elon Musk et Starlink envisagent de multiplier les communications par satellites, l’article 11 du présent projet de loi ouvre déjà les vannes à leur surveillance. Cette surveillance sera tout aussi illicite et illégitime que celle déjà réalisée sur les réseaux câblés et hertziens.
On peut également se questionner sur le spectre des interceptions si elles sont réalisées du côté des téléports ou peuvent transiter de très nombreuses communications qui ne seraient pas spécifiquement visées, mais néanmoins accessibles en interception satellitaire. Selon les techniques envisageables, on peut redouter des conséquences similaires à celles des IMSI catcher où, afin d’écouter une seule personne, on se met en situation de pouvoir écouter toutes les personnes alentours.
Des drones contre la population (article 18)
L’article 18 donne à la police le pouvoir de brouiller les drones non-policiers, tout en renforçant l’interdiction imposée à la population de se défendre elle-même contre les drones policiers (qui ont toujours été illégaux) ou non-policiers (ce qui rend la population entièrement dépendante de la police pour protéger sa liberté). La position du gouvernement est claire : il souhaite violer la loi pour nous surveiller puis punir celles et ceux qui tenteraient d’échapper à cette surveillance illégale.
Conservation généralisée des données de connexion (article 15)
L’article 15 du projet de loi reprend docilement le schéma proposé par le Conseil d’État dans sa récente décision sur le renseignement. Comme nous le dénoncions amèrement, ce schéma repose sur l’idée que la notion de « sécurité nationale » doit être comprise le plus largement possible, tel que recouvrant par exemple les objectifs de surveillance économiques ou la lutte contre les manifestations non-déclarées. Cette notion est si large qu’elle permet de considérer que la sécurité nationale est exposée à une menace grave et constante depuis 2015 (et sûrement pour toujours).
Ce constat permet d’écarter les garanties qui devraient habituellement protéger les libertés fondamentales. Ainsi, la surveillance de masse est-elle autorisée à titre « exceptionnel » mais systématique : l’ensemble des opérateurs Internet et téléphoniques ont l’obligation de conserver pendant un an les données de connexion de toute la population.
Ce schéma est une violation frontale du droit européen. Un des buts de ce projet de loi est de rendre le Parlement français complice de la violation commise par le gouvernement et le Conseil d’État, afin de la verrouiller durablement et d’acter encore plus officiellement la fin de l’État de droit européen en France.
Toujours aucun contre-pouvoir (article 16)
Une autre exigence du droit de l’Union était que la CNCTR, l’autorité qui contrôle de façon indépendante les services de renseignement, soit dotée de pouvoirs contraignants. Ici encore, le Conseil d’État avait refusé cette logique et le projet de loi adopte sa position. Les décisions de la CNCTR n’ont toujours aucun effet contraignant : le gouvernement est libre de ne pas les respecter. Le seul pouvoir de la CNCTR est de demander au Conseil d´État de vérifier qu’une mesure de surveillance n’est pas illicite. L’unique nouveauté concédée par le projet de loi est que, dans ce cas, le Conseil d’État doit se prononcer en 24 heures durant lesquelles la mesure contestée ne pourra pas être déployée – sauf urgence justifiée.
Cet ajustement ne change presque rien à l’équilibre général des pouvoirs : le Conseil d’État, si proche du gouvernement, reste seul à décider qui le gouvernement peut surveiller et comment. La CNCTR, seule instance officielle osant encore vaguement contester l’orientation des renseignements, reste considérée avec défiance et maintenue loin du pouvoir.
Si la CNCTR considère une demande comme problématique et qu’elle conteste son usage, le Conseil d’État – s’il est saisi – pourra la sauver, mais toutes les techniques jugées positivement par la CNCTR ne pourront de fait être questionnées – le Conseil d’état ne peut qu’être moins disant.
Surveillance algorithmique de masse (articles 12 et 13)
La mesure phare mise en avant par Gérald Darmanin est l’autorisation définitive de la surveillance algorithmique permise à titre expérimental en 2015. Ici encore, ce changement acte la violation du droit de l’Union européenne souhaitée par le Conseil d’État. Alors que la Cour de justice de l’Union européenne avait exigé en 2020 que ces algorithmes ne puissent être déployés qu’en période exceptionnelle de menace grave et imminente pour la sécurité nationale, le Conseil d’État considère, comme dit plus haut, que cet état d’exception est constant : le déploiement des algorithmes est donc permis de façon constante.
Le projet de loi ne se limite pas à acter cette violation : il propose aussi de l’étendre. Alors que les deux ou trois algorithmes déployés depuis 2017 auraient, d’après la CNIL, été restreints à l’analyse du réseau téléphonique, il s’agira pour l’avenir d’analyser aussi le réseau Internet, notamment en observant désormais les URL (les noms des pages Web consultées par potentiellement l’ensemble de la population).
En vérité, ce changement de paradigme était déjà envisagé dès 2015 et il ne doit pas en cacher un autre, bien plus dramatique. Jusqu’à présent, les algorithmes ne pouvaient être déployés que sur l’infrastructure propre des opérateurs de communications : concrètement, on imagine que la DGSI avait installé des serveurs dans une armoire fournie par Orange à côtés de câbles exploités par l’opérateur, analysant plus ou moins à la volée les informations qui y étaient acheminées.
Le projet de loi permet désormais aux services de renseignement de détourner l’ensemble du trafic vers sa propre infrastructure, dans ses propres locaux, afin de l’analyser tranquillement dans son coin. Concrètement, on peut imaginer que Orange copiera l’ensemble des données échangées sur tout ou partie de son réseau pour les envoyer via une canal dédié vers des locaux de la DGSI (voir l’inquiétude d’une rare vigueur de la CNIL à ce sujet, à partir du point 14 de son premier avis). En théorie, en fonction de ses moyens techniques, il peut être envisagé que la DGSI conserve en mémoire dans ses propres locaux l’ensemble du trafic d’une ville ou du pays sur plusieurs jours (pour l’instant, le gouvernement a expliqué à la CNIL se contenter d’un délai de 24h, mais cette limite n’est même pas dans le texte de la loi).
Une fois stockées et bien organisées entre ses mains, nous ne pouvons que redouter ce que la DGSI fera de ces informations. Nos craintes sont d’autant plus fortes que le projet de loi organise déjà, dans son article 7, une logique de partage de données de plus en plus structurante et généralisée.
Coopération des opérateurs pour pirater (article 10)
Le changement le plus grave est sans doute le plus discret. Ni l’exposé des motifs et l’étude d’impact réalisées par le gouvernement, ni l’avis du Conseil d’État ou de la CNIL n’en parle. Étrangement, seul Gérald Darmanin a pris la peine de l’évoquer, rapidement. Il expliquait ainsi le 28 avril 2021 sur France Inter que, pour contourner le chiffrement des communications, « nous discutons avec les grands majors d’Internet, on leur demande de nous laisser entrer via des failles de sécurité, certains l’acceptent, d’autres pas. Il faut sans doute une loi pour contraindre des services étrangers, elle arrive ».
C’est au sein du II de l’article 10 du projet de loi que nous pensons avoir trouvé une traduction de cette affirmation grandiloquente. Cet article semble permettre aux services de renseignement de contraindre les opérateurs et fournisseurs de communications électroniques (tel que Orange, SFR, mais aussi Whatsapp ou Signal au sens du droit de l’UE) de collaborer avec eux afin de déployer des failles de sécurité sur le terminal des personnes ciblées. C’est du moins l’interprétation que nous a confirmée M. Kervrain, co-rapporteur sur ce projet de loi, qui nous a auditionné le 17 mai dernier.
Un peu plus tard dans la journée, le député Ugo Bernalicis (La France Insoumise) a bien voulu demander au ministre de l’intérieur de confirmer ce point à son tour. Ce dernier s’est montré encore plus précis :
« Pour ce qui est des messageries cryptées, comme Telegram, WhatsApp ou Signal, elles ont précisément bâti leur modèle économique sur la garantie de ne pas pouvoir être écouté. Que les choses soient claires : il ne s’agit pas d’écouter les conversations téléphoniques qui se font sur ces applications mais de profiter du fait qu’elles passent par des connexions internet. Pour les cibles les plus dangereuses, et sous le contrôle de la CNCTR, le recueil des données informatiques permettra d’accéder au terminal informatique de la personne qui utilise ces messageries pour recueillir les données qui sont stockées dans ces messageries. »
Pour étayer sa réponse, le ministre a explicitement visé l’opération conduite l’an dernier contre le système de communication chiffrée Encrochat et qui avait conduit la gendarmerie à déployer une attaque informatique particulièrement complexe lui offrant l’accès au terminal de milliers de téléphones en même temps.
Nous pensons ainsi que l’objet de l’article 10 de ce projet de loi est de légaliser et généraliser des opérations similaires à celles conduite contre Encrochat en les élargissant de plus à la surveillance administrative, pour les sécuriser juridiquement afin de les reproduire de plus en plus régulièrement pour contourner massivement les mesures de chiffrement.
Les implications de cette nouvelle menace sont aussi complexes que graves (la protection offerte par les messageries chiffrées telles que Signal est largement remise en cause) et méritent une analyse ultérieure plus poussée. Nous y reviendrons en détail prochainement.
";s:7:"dateiso";s:15:"20210527_165321";}s:15:"20210525_145314";a:7:{s:5:"title";s:46:"Les GAFAM échappent au RGPD, la CNIL complice";s:4:"link";s:98:"https://www.laquadrature.net/2021/05/25/les-gafam-echappent-au-rgpd-avec-la-complicite-de-la-cnil/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17249";s:7:"pubDate";s:31:"Tue, 25 May 2021 12:53:14 +0000";s:11:"description";s:270:"Le 25 mai 2018, le RGPD entrait en application. Nous célébrions l’espoir qu’il renverse le modèle économique des GAFAM, qui font de nos données personnelles une vulgaire monnaie d’échange. Porté·es par notre enthousiasme, nous déposions…";s:7:"content";s:21408:"
Le 25 mai 2018, le RGPD entrait en application. Nous célébrions l’espoir qu’il renverse le modèle économique des GAFAM, qui font de nos données personnelles une vulgaire monnaie d’échange. Porté·es par notre enthousiasme, nous déposions immédiatement avec 12 000 personnes cinq plaintes devant la CNIL, une contre chacun des GAFAM. Trois ans plus tard, aucune de ces plaintes n’a donné le moindre résultat. Ce total échec résulte d’une multitude d’irrégularités qui, toutes ou presque, révèlent le rôle coupable de la CNIL pour protéger les GAFAM contre le droit.
Pour saisir la gravité de ce bilan, nous reviendrons en détail sur chacune des cinq plaintes. Mais faisons d’abord une remarque de stratégie générale. Dès le début de notre action, nous nous attendions à rencontrer des résistances, notamment sous la forme de stratégies dilatoires à base d’expertises, de contre-expertises ou de débats infinis sur l’interprétation de chaque alinéa du RGPD. Pour contrer ces stratégies dilatoires, nous avions fait un double choix stratégique :
concentrer nos plaintes sur un argument juridique unique, commun aux cinq plaintes et déjà bien cerné en droit (l’argument est le défaut de validité du consentement que les GAFAM nous arrachent par la ruse ou la contrainte) ;
limiter notre argumentation à des éléments publiés par nos adversaires (dans leurs CGU, typiquement) en évitant d’invoquer le moindre fait qui nécessiterait une enquête matérielle.
Aucune de nos plaintes ne nécessite plus de quelques jours pour être traitées par deux ou trois juristes spécialisés : elles se contentent de faire des liens logiques simples entre des choses déjà admises. Comme on le verra, nos plaintes ont été réparties dans plusieurs pays, ce qui justifiait probablement d’allonger ce délai de quelques semaines. Matériellement, rien ne justifiait que ce délai s’étale sur plus de six mois. Si aucune plainte n’a abouti après trois années, c’est au prix de manipulations que la CNIL a sciemment laissé se dérouler.
Pour masquer sa démission sur les sujets les plus graves, la CNIL en est réduite à mettre en avant aujourd’hui son début d’action contre les cookies – alors que cette action aurait dû commencer dès 2018 mais que la CNIL avait offert sans justification trois années de répit aux sites web violant la loi. Si les cookies, avec leur bandeau d’information, sont la face la plus visible du traçage publicitaire, s’en prendre prioritairement à eux serait une tentative stérile de contourner le cœur du modèle économique illégal des GAFAM.
Apple joue la montre
Le 18 mai 2018, nous déposons devant la CNIL notre plainte collective contre Apple. Le 28 juin 2018, la CNIL traduit puis envoie notre plainte à son homologue irlandais, la « DPC » (Data Protection Commission). Puisque Apple a un siège social européen en Irlande, c’est à la DPC de coordonner le traitement de notre plainte. Le 20 août 2018, la DPC se décide enfin à ouvrir une enquête.
Le 9 mai 2019, soit 9 mois plus tard, la CNIL nous écrit : « l’autorité irlandaise nous a précisé avoir besoin d’obtenir la preuve qu’au moins une personne physique vous ayant donné mandat est bien une personne « concernée » par les traitements mis en œuvre par [Apple]. En conséquence, nous vous remercions de nous communiquer le nom, le prénom, l’adresse électronique ou tout identifiant de l’un de vos mandants, afin d’attester que cette personne dispose effectivement d’un compte utilisateur ». Même si cette exigence est absente du RGPD, nous jouons le jeu pour ne pas perdre du temps : une plaignante accepte de partager ses informations personnelles avec l’autorité irlandaise.
Le 14 septembre 2020, après 1 an et 4 mois de silence, la CNIL nous envoie la traduction de ce courrier laconique de la DPC. « Veuillez noter que l’enquête de la DPC à cet égard est toujours en cours et que nous continuons à nous impliquer auprès d’Apple à cet égard. La DPC vous fera parvenir une nouvelle mise à jour en temps utile ».
Le 14 avril 2021, soit 7 mois plus tard, la CNIL nous envoie un courrier nous indiquant que la plaignante que nous avions déclarée 2 années plus tôt n’aurait plus de compte sur les services d’Apple, ce qui empêcherait la DPC de poursuivre son enquête. Pour reprendre l’enquête, nous sommes invités à déclarer un nouveau plaignant. Nous répondons immédiatement pour dénoncer la manœuvre dilatoire flagrante qui consiste à « exiger l’identifiant d’une plaignante, attendre plusieurs années sans rien faire, le temps que le compte soit supprimé ou modifié, puis exiger un nouvel identifiant. Il est inadmissible que la DPC ait permis à Apple de prendre 2 ans pour vérifier un simple identifiant. Si nous lui donnions un nouvel identifiant, nous n’avons aucune raison de penser que celui-ci ne sera pas vérifié dans 2 ans, lui aussi. La CNIL cautionne-t-elle cette façon de faire de la part de la DPC et d’Apple ? Ou a-t-elle entamé des démarches pour contraindre la DPC à faire cesser ces manœuvres dilatoires ? ».
La CNIL refuse d’agir
La CNIL a le pouvoir et le devoir d’empêcher ces stratégies dilatoires. C’est à elle qu’il revient en dernier ressort de défendre les libertés fondamentales des 12 000 personnes qui se sont placées sous sa protection. Dans notre réponse contre Apple, nous avons invité la CNIL à nous rencontrer pour chercher rapidement une issue à ces trois années de blocage, lui pointant deux voies distinctes qu’elle peut emprunter pour y parvenir.
En premier lieu, le paragraphe 4 de l’article 60 du RGPD permet à la CNIL de contester les décisions de la DPC devant le comité européen à la protection des données (CEPD, l’institution qui réunit la CNIL et l’ensemble de ses homologues européens). Cette procédure est décrite au point a), paragraphe 1, de l’article 65 du RGPD. Dans ce cas, le CEPD est tenu de trancher l’affaire dans un délai d’un mois. Nous considérons que le silence gardé pendant 2 ans par la DPC, et plus encore son apparent refus de poursuivre l’enquête sans un nouvel identifiant Apple, est une décision que la CNIL aurait pu et dû contester devant le CEPD.
En deuxième lieu, le paragraphe 1 de l’article 66 du RGPD prévoit que, lorsque la CNIL estime qu’il est « urgent d’intervenir pour protéger les droits et libertés des personnes concernées », elle peut court-circuiter la DPC pour « adopter immédiatement des mesures provisoires visant à produire des effets juridiques sur son propre territoire et ayant une durée de validité déterminée qui n’excède pas trois mois » (l’autorité de Hambourg a par exemple déjà déployé cette stratégie contre Google en août 2019). La CNIL aurait ensuite pu rendre ces effets définitifs en saisissant le CEPD. Nous considérons que les manœuvres dilatoires d’Apple et/ou de la DPC, par leur caractère grave et manifeste, assimilent la situation à un déni de justice et caractérisent à elles seules l’urgence d’agir, permettant à la CNIL de prendre elle-même une décision. De plus, le paragraphe 3 du même article 66 prévoit que, sans prendre elle-même de décision, la CNIL peut directement saisir le CEPD pour lui demander de reprendre l’affaire en main dès lors que la DPC « n’a pas pris de mesure appropriée dans une situation où il est urgent d’intervenir ».
En dépit de ces deux stratégies que nous lui avons suggérées, et de l’aide que nous lui avons proposée pour en trouver d’autres si nécessaire, la CNIL n’a simplement jamais répondu à notre message. À défaut de la moindre explication, de la moindre réaction face à notre dénonciation du comportement d’Apple et de la DPC et aux solutions que nous proposions, il nous est difficile d’interpréter le silence de la CNIL autrement que comme un refus de mettre fin à ces stratégies dilatoires.
Facebook et Linkedin
Le début des plaintes contre Facebook et contre Linkedin est identique au cas d’Apple : la CNIL traduit et transmet nos plaintes à la DPC, qui commence l’enquête fin août 2018. Le 9 mai 2019, comme pour Apple, la DPC demande les informations de deux personnes qui ont signé les plaintes et qui peuvent prouver utiliser Linkedin et Facebook : deux de nos salarié·es se portent volontaires.
Le 13 février 2020, 10 mois plus tard, la CNIL écrit à un de nos salarié·es volontaires : « la DPC est intervenue auprès de Facebook, en lui demandant notamment d’illustrer ses explications quant à ses pratiques à l’aide des données concernant l’utilisateur concerné, en l’occurrence vous-même. La DPC nous demande maintenant votre accord formel pour que Facebook lui transmette les données vous concernant, que ce réseau social détient et traite dans le cadre de son traitement d’analyse comportementale ».
Encore une fois, cette demande ne repose sur aucune base légale et n’a aucun rapport avec notre plainte initiale qui, il faut le rappeler, ne visait que les CGU de Facebook et ne nécessitait donc aucune sorte d’illustration concrète. Pire, au-delà de la simple manœuvre dilatoire, cette demande peut être assimilée à une forme de pression sur nous, les personnes à l’origine de la plainte : par définition, les défenseur·es de la vie privée supportent assez mal l’idée que leur intimité soit auscultée par Facebook puis détaillée dans le rapport d’autorités publiques. Tant pis pour notre propre vie privée, l’espoir d’une résolution rapide nous fait céder aux demandes de la DPC.
Le 14 septembre 2020, nous recevons un courrier traduit par la CNIL : « La DPC adressera notamment bientôt à LinkedIn un certain nombre de demandes d’information complémentaires. Nous vous ferons parvenir une copie de ces questions dès qu’elles auront été émises. ». Impossible de comprendre quelles « informations complémentaires » sont encore nécessaires après deux ans de procédure. Nous n’en saurons jamais rien car, contrairement à ce qu’elle avait annoncé, la DPC ne nous en fera jamais parvenir la copie. Son dernier courrier, du 6 janvier 2021, se contente de rappeler génériquement la procédure sans évoquer le fond du dossier ni donner la moindre date concrète.
Le 25 mars 2021, la DPC nous dit être en train de rédiger un « compte rendu d’enquête » sur Facebook et s’engage à nous le transmettre plus tard. Le 23 avril 2021, par l’intermédiaire de la CNIL, la DPC nous demande si notre salarié ausculté par Facebook consent à ce que La Quadrature du Net ait accès aux données personnelles qui seront présentes dans le compte rendu d’enquête… Difficile de croire en la sincérité de ces démarches interminables tant elles sont ubuesques et parfaitement étrangères aux besoins de l’enquête. En tout cas, si notre salarié a bien donné son consentement, nous n’avons toujours pas vu de compte rendu.
Depuis trois ans, les réseaux sociaux Facebook et Linkedin continuent de violer le RGPD : le fichage publicitaire qu’ils réalisent repose sur un consentement obtenu de façon illégale – sous la contrainte de ne plus pouvoir accéder à leur service. La CNIL n’a aucun souci à reconnaître que cette marchandisation de nos libertés est illégale quand elle est le fait d’acteurs français. S’agissant des GAFAM, la CNIL s’interdit toute intervention, alors même que les articles 60, 65 et 66 du RGPD lui en donnent les pouvoirs.
Google perdu au rebond
Notre plainte contre Google est la seule qui pouvait être traitée directement par la CNIL, en France : contrairement aux autres GAFAM, Google n’avait pas de siège social en Europe et pouvait donc être sanctionné depuis n’importe quel pays. Pour mettre fin à cette situation inconfortable, Google a rapidement annoncé que, à compter du 22 janvier 2019, il installerait un siège social en Irlande. La veille de cette date butoir, dans la précipitation, la CNIL a rendu une décision contre Google, sanctionnant le caractère non-explicite du consentement obtenu sur Android.
Étrangement, dans sa décision, la CNIL présente la sanction comme une réponse directe à notre plainte, ce qui est faux : notre plainte ne visait pas Android mais uniquement Youtube, Gmail et Google Search, qui présentaient des problèmes différents. Ainsi, la CNIL ne répond même pas à nos demandes concrètes : elle se contente de prononcer une sanction de 50 millions d’euros que Google a pu payer sans difficulté (son chiffre d’affaire est de l’ordre de 20 millions d’euros par heure) afin de continuer à violer la loi. Dans notre plainte, en plus d’une amende de 4 milliards d’euros, nous demandions surtout que Google soit interdit d’exploiter nos données personnelles tant qu’il continuera d’obtenir notre consentement de façon forcée. En se contentant de sanctionner le passé sans chercher à protéger notre avenir, la décision de la CNIL n’aura finalement produit aucun effet notable – si ce n’est de nous faire perdre du temps. Et la date de « l’emménagement » de Google en Irlande est maintenant passée.
Dans un courrier du 27 novembre 2019, la CNIL nous informe du « transfert de votre réclamation contre Google à l’autorité irlandaise afin que celle-ci prenne en charge l’instruction des points restants de votre réclamation » – comme vu plus haut, ces « points restants » sont en vérité l’ensemble de notre plainte. Le CNIL précise qu’elle « continuera de suivre étroitement ce dossier des investigations menées par son homologue jusqu’à la décision […], en apportant son analyse dans le cadre des mécanismes de coopération ». Pourtant, dans les années qui suivront, la CNIL ne prendra aucune initiative.
Sa seule action se résumera à traduire et à nous transmettre le 10 juin 2020 l’unique courrier de la DPC à propos de Google : « l’affaire est actuellement en cours d’examen afin de déterminer la procédure réglementaire appropriée pour traiter au mieux les questions soulevées dans votre plainte ». Encore un détour qui ne fait aucun sens : la « procédure appropriée » est exactement la même que pour Apple, Facebook et Linkedin (toutes nos plaintes découlent de la même procédure initiale et reposent sur la même démonstration juridique).
À ce jour, après trois années, aucune autorité, en France comme en Irlande, ne semble avoir entamé la moindre enquête pour traiter la plainte signée par 10 000 personnes contre Google. Comme pour les autres plaintes, la CNIL aurait pu utiliser ses pouvoirs pour nous défendre mais n’a rien fait.
Amazon ou l’échec définitif du RGPD
Notre plainte contre Amazon avait été transmise en 2018 à l’homologue de la CNIL au Luxembourg, où l’entreprise a son siège européen. Nous n’avons jamais reçu d’accusé de réception du transfert de cette plainte, nous n’avons jamais eu signe de vie de l’autorité luxembourgeoise et notre plainte n’a vraisemblablement jamais été examinée par personne. À notre connaissance, la CNIL n’a rien fait pour corriger cette totale défaillance alors que, dans ce cas plus encore que dans tous les autres, les pouvoirs conférés par le RGPD lui permettent de reprendre la main sur le dossier.
S’il est confirmé que la CNIL n’a effectivement rien fait pour corriger cette situation, qu’elle a abandonné à leur sort 10 065 personnes qui lui avaient demandé protection, sa déchéance serait entière et durable.
Conclusion
Sur nos cinq plaintes, deux n’ont jamais été examinées (Google, Amazon), deux autres semblent faire l’objet de manœuvres dilatoires absurdes (Apple, Facebook) et la cinquième n’a pas davantage abouti sur quoi que ce soit de tangible en trois années (Linkedin).
On l’a souligné plusieurs fois : si les GAFAM échappent aussi facilement au RGPD, ce n’est pas en raison de la complexité de nos affaires ou d’un manque de moyens matériels. Le budget annuel de la CNIL est de 18 millions d’euros et elle emploie 215 personnes. Au fil des ans et sur d’autres sujets, nous avons souvent échangé avec les personnes employées par la CNIL : leur maîtrise du droit des données personnelles est sincère. Elles partagent certainement nos frustrations dans une bonne mesure et n’auraient aucune difficulté à redresser la situation si on le leur demandait. Le RGPD leur donne toutes les cartes et, s’il en était besoin, nous leur avons explicitement pointé quelles cartes jouer.
Si les causes de cet échec ne sont pas matérielles, elles ne peuvent être que politiques. La défaillance du RGPD vis à vis des GAFAM est si totale et flagrante qu’il est difficile d’imaginer qu’elle ne soit pas volontaire ou, tout le moins, sciemment permise. Les motivations d’une telle complicité sont hélas déjà bien identifiées : les GAFAM sont les fidèles partenaires des états pour maintenir l’ordre sur Internet. Plus que jamais, l’État français, dans sa dérive autoritaire, a tout intérêt à les maintenir au-dessus des lois pour leur laisser gérer la censure et la surveillance de masse.
À leur échelle, en permettant aux GAFAM d’échapper au droit qui devait protéger nos libertés fondamentales, les 18 membres du collège de la CNIL participent de l’effondrement démocratique en cours. À notre sujet, voici la conclusion : nous avons fait tout ce qui était dans nos capacités pour que le RGPD nous protège collectivement contre les GAFAM, nous avons pleinement joué le jeu du droit et nous avons échoué. N’attendons plus un improbable sursaut démocratique de la CNIL : il faudra nous protéger sans elle.
";s:7:"dateiso";s:15:"20210525_145314";}s:15:"20210524_125915";a:7:{s:5:"title";s:37:"La Quadrature devient membre d’EDRi";s:4:"link";s:75:"https://www.laquadrature.net/2021/05/24/la-quadrature-devient-membre-dedri/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17234";s:7:"pubDate";s:31:"Mon, 24 May 2021 10:59:15 +0000";s:11:"description";s:291:"Après plusieurs années de participation au réseau d’EDRi en tant qu’observateur, à travailler en collaboration avec les organisations membres européennes et l’équipe d’EDRi à Bruxelles pour protéger les droits et libertés dans l’espace numérique et…";s:7:"content";s:1499:"
Après plusieurs années de participation au réseau d’EDRi en tant qu’observateur, à travailler en collaboration avec les organisations membres européennes et l’équipe d’EDRi à Bruxelles pour protéger les droits et libertés dans l’espace numérique et au-delà, la Quadrature rejoint maintenant EDRi en tant que membre à part entière.
La Quadrature a longtemps été observatrice à EDRi : cela remonte au début de la dernière décennie et presque aux débuts de notre organisation. Nous l’avions initialement rejoint sous le statut d’observateur à cause de notre statut légal de l’époque (un collectif de facto plutôt qu’une association déclarée en droit français, comme c’est le cas actuellement). Au fil du temps, ce statut est resté mais est devenu de plus en plus une anomalie historique.
Aujourd’hui, la Quadrature rejoint EDRi comme membre à part entière. Ce changement de statut permettra une collaboration plus facile et étroite avec nos partenaires européens et nous donnera en même temps une voix plus officielle au sein du réseau EDRi. En pratique, ce changement de statut est dans la continuité d’années de travail collectif et officialise notre partenariat de longue date.
Merci à tous les membres d’EDRi qui ont approuvé notre demande d’adhésion ainsi qu’à l’équipe d’EDRi.
";s:7:"dateiso";s:15:"20210524_125915";}s:15:"20210520_180748";a:7:{s:5:"title";s:46:"Censure partielle de la loi sécurité globale";s:4:"link";s:85:"https://www.laquadrature.net/2021/05/20/censure-partielle-de-la-loi-securite-globale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17227";s:7:"pubDate";s:31:"Thu, 20 May 2021 16:07:48 +0000";s:11:"description";s:217:"Le Conseil constitutionnel vient de rendre sa décision sur la loi sécurité globale. Tout en épargnant de larges pans de la loi (voir notre résumé de la loi), il censure certaines des dispositions les plus…";s:7:"content";s:2583:"
Le Conseil constitutionnel vient de rendre sa décision sur la loi sécurité globale. Tout en épargnant de larges pans de la loi (voir notre résumé de la loi), il censure certaines des dispositions les plus symboliques du texte : le fameux article 24 (devenu 52) sur la diffusion des images de la police, la surveillance par drones et hélicoptères et la vidéosurveillance constante des personnes placées en garde à vue ou en centre de rétention administrative. La défait symbolique est extrêmement lourde pour la police et le gouvernement mais le Conseil constitutionnel leur laisse de larges marges d’action pour réintroduire ces mesures dans une future loi.
Ce futur texte pourrait malheureusement tomber à point nommé pour la stratégie gouvernementale de séduction de l’extrême droite. Néanmoins, dans l’attente et pour contrer cette même dérive autoritaire, nous pourrons continuer de manifester sans drone ni hélicoptère pour nous surveiller (ou du moins, si la police en déploie, elle le fera illégalement et nous aurons la légitimité démocratique de la faire cesser). En effet, le Conseil constitutionnel considère que les finalités policières pour lesquelles les drones et les hélicoptères pouvaient être déployés étaient trop larges. De même, il a déploré que l’utilisation de drones n’était pas limitée par un contingentement et par un contrôle de « subsidiarité » limitant leur usage aux seuls cas où ils seraient indispensables.
De nombreuses dispositions très problématiques demeurent néanmoins : l’extension à la police municipale de pouvoirs de vidéosurveillance (et à la SNCF et RATP), la surveillance des halls d’immeubles, la transmission en temps-réel des images des caméras-piétons ou leur usage pour les gardes-champêtres.
La victoire symbolique n’en reste pas moins aussi inespérée que bienvenue. Il faut féliciter l’engagement exemplaire d’une large part de militantes et des militants qui, en France, ne sont pas encore résignées fasse à la répression et aux menaces de l’État policier qui se construit sous nos yeux.
Nous aurons besoin de courage pour les mois à venir : accueillons l’enthousiasme que nous offre la belle victoire symbolique d’aujourd’hui.
";s:7:"dateiso";s:15:"20210520_180748";}s:15:"20210507_153007";a:7:{s:5:"title";s:53:"Règlement de censure terroriste adopté : résumons";s:4:"link";s:88:"https://www.laquadrature.net/2021/05/07/reglement-de-censure-terroriste-adopte-resumons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17218";s:7:"pubDate";s:31:"Fri, 07 May 2021 13:30:07 +0000";s:11:"description";s:235:"La semaine dernière, le Parlement européen a adopté, sans le voter, le règlement de censure terroriste. C’est le triste aboutissement de plus de deux ans de combats et une nouvelle défaite qui vient s’ajouter à…";s:7:"content";s:10972:"
La semaine dernière, le Parlement européen a adopté, sans le voter, le règlement de censure terroriste. C’est le triste aboutissement de plus de deux ans de combats et une nouvelle défaite qui vient s’ajouter à celles subies ces derniers mois.
Comme nous l’avons fait pour la loi Sécurité globale, nous revenons ici sur les changements apportés par ce texte ainsi que sur la procédure qui a abouti à son adoption.
Commençons par rappeler qu’il s’agit ici d’un règlement européen (et non d’une directive), c’est-à-dire d’un texte d’application directe qui n’a normalement pas besoin d’un texte national pour s’appliquer. Plusieurs points restent cependant à préciser pour son application au niveau des États membres, ce qui nécessitera peut-être un véhicule législatif.
Les principales dispositions du texte
La disposition au cœur du texte est à son article 3 : toute autorité, administrative ou judiciaire (et qu’il reviendra aux États membres de désigner), pourra désormais forcer un fournisseur de service en ligne à retirer en seulement 1 heure un contenu qu’elle aura qualifié de terroriste :
Le retrait peut donc être ordonné par une administration, sans contrôle d’un juge. En France, ce pouvoir sera sûrement donné à l’OCLCTIC (qui peut déjà ordonner un retrait en 24 heures).
L’ordre de retrait peut venir de l’autorité de n’importe quel État membre de l’Union européenne vers tout fournisseur de service présent dans l’Union européenne.
Le texte ne définit pas lui-même ce qu’est un contenu terroriste, mais fait référence à une directive de 2017 et à son article 3 : la liste est très large et va jusqu’à concerner les incitations à « provoquer une perturbation grave » d’un système informatique ou de « causer des destructions massives […] à un lieu public ou une propriété privée », le tout en en vue de « gravement déstabiliser » la structure politique ou économique d’un pays — d’où le risque de censure politique que nous dénoncions dès 2018 ici.
Les services en ligne concernés sont tout fournisseur de service d’hébergement qui propose un service dans l’Union européenne en diffusant des informations au public (réseau social, plateforme vidéo, blog…), peu importe sa taille ou son importance .
Les exceptions prévues à cette obligation existent, mais restent très limitées, au vu notamment du délai de 1 heure et des fortes sanctions possibles :
Ne devrait normalement pas être concerné tout ce qui est diffusé au public à des fins éducatives, journalistiques ou de recherche (article 1 (3)), sans qu’on sache comment cette exception sera garantie en pratique (il faudra probablement faire confiance à la police pour faire d’elle-même la part des choses).
Si c’est la première fois que le service en ligne est contacté par une autorité (et s’il ne s’agit pas d’un cas d’urgence, dont l’appréciation est laissée à l’administration), l’autorité doit contacter le site 12 heures avant de demander formellement le retrait (art. 3 (2)).
Le fournisseur de service en ligne peut ne pas se conformer à l’ordre de retrait s’il existe une « force majeure », une impossibilité de fait qui ne lui est pas imputable, ou s’il n’a pas les informations nécessaires (art. 3 (7)).
De la même manière, des recours existent, mais ne sont possibles qu’a posteriori :
Tout service qui a reçu un ordre de retrait ou toute personne qui a vu son contenu retiré peut contester ce retrait, a posteriori, devant une juridiction — dans le cas où le litige s’étalerait sur plusieurs mois ou années, il semble bien que l’information censurée ne puisse pas être rétablie avant la fin du procès.
Dans le cas d’un ordre de retrait venant d’une autorité d’un État membre vers un service en ligne d’un autre État membre, l’autorité de ce dernier État peut décider, dans les 72 heures, que l’ordre de retrait n’est pas fondé et qu’il faut rétablir le contenu en ligne (art. 4).
Le texte contient d’autres obligations :
Tous les sites « exposés » à des contenus de type « terroriste » (c’est-à-dire désignés comme tels par une autorité) doivent lutter contre la diffusion de ces contenus, notamment via des « mesures techniques ». S’ils ne le font pas, une autorité administrative, tel le CSA, peut les y forcer.
Ces « mesures techniques » peuvent correspondre à des filtres automatisés, même si le règlement prévoit qu’il doit toujours y avoir une vérification humaine et qu’aucune autorité ne peut forcer les plateformes à mettre en place un filtre automatisé. Hélas, dans bien des cas, c’est le délai d’1 heure qui forcera en pratique les plateformes à reposer massivement sur des systèmes automatisés de modération en amont.
Les services exposés doivent prendre diverses mesures de transparence sur leurs actions de lutte contre la diffusion de contenus terroristes.
Enfin, il revient aux États membres de définir les sanctions en cas de non-respect des obligations, mais, en cas de « non-respect systématique » des ordres de retrait, la sanction pourra aller jusqu’à 4 % du chiffre d’affaires du service.
Comment en est-on arrivé là ?
Le texte a été présenté par la Commission européenne en septembre 2018.
En avril 2019, après que le Conseil de l’Union européenne puis le Parlement l’ont adopté en première lecture, nous étions déjà longuement revenu·es sur les premières étapes de nos combats (et ceux des autres) contre le texte. Nous y avions rappelé le rôle joué par les GAFAM dans l’élaboration du projet et souligné, à de nombreuses reprises, les risques de surveillance et de censure, notamment politique, d’un tel règlement.
Au cours de l’année 2020, chaque institution européenne ayant adopté une version différente, le texte a été discuté en « trilogue », c’est-à-dire entre des représentant·es des trois institutions, hors de tout débat public. C’est le texte qui en est sorti qui a été adopté la semaine dernière.
Ce texte n’a que peu de différences avec celui proposé par la Commission. Comme nous le répétons depuis le début, il facilitera la censure politique des mouvements d’opposition, aggravera l’utilisation de filtres automatisés en ligne et risquera ainsi de renforcer la centralisation d’Internet dans les mains des grandes plateformes :
Trois constats amers
Premier constat : nos deux ans d’efforts pour lutter contre ce texte, ainsi que ceux d’autres associations (EDRi, Wikimedia, Access Now…), n’auront eu aucun effet significatif en faveur de nos libertés. Deux années de suivi parlementaire, d’analyses juridiques et politiques, de campagnes d’appels aux parlementaires, de lettres ouvertes, françaises et internationales… Pour à la fin ne gagner que sur quelques exceptions à la marge (et détaillées plus haut), sans jamais rien changer au cœur du texte : la censure en 1 heure sans juge.
Deuxième constat : le fait que le Conseil constitutionnel français ait censuré, en juin 2020, une disposition très similaire dans la loi Avia n’a nullement empêché son adoption au niveau européen. Malgré nos appels réguliers pour souligner cette contradiction, la procédure a continué en toute tranquillité, dans un silence médiatique difficile à accepter, et avec le soutien des parlementaires français macronistes qui n’ont aucune gêne à instrumentaliser les institutions européennes afin de contourner la Constitution française.
Troisième constat : le texte a été définitivement adopté sans vote en plénière. S’agissant d’un vote en deuxième lecture, il était en effet nécessaire qu’un groupe parlementaire demande spécifiquement un vote, ce que personne n’a fait, pas même les groupes dits d’opposition.
Un des textes les plus graves jamais adoptés par l’Union européenne en matière de liberté d’expression l’a été dans une passivité générale, tant des médias que des élu·es, de gauche comme de droite. En dépit de cette indifférence décourageante, nous attendons de pied ferme que ce texte soit appliqué en France pour chercher des façons de le contrer, ou de le contourner, au niveau national.
";s:7:"dateiso";s:15:"20210507_153007";}s:15:"20210429_172700";a:7:{s:5:"title";s:66:"Loi sécurité globale : nos arguments au Conseil constitutionnel";s:4:"link";s:102:"https://www.laquadrature.net/2021/04/29/loi-securite-globale-nos-arguments-au-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17209";s:7:"pubDate";s:31:"Thu, 29 Apr 2021 15:27:00 +0000";s:11:"description";s:220:"Le Conseil constitutionnel ayant été saisi pour examiner la loi sécurité globale (voir notre résumé de la loi adoptée le 15 avril), nous venons de lui envoyer les arguments que nous avons développés avec…";s:7:"content";s:38165:"
Le Conseil constitutionnel ayant été saisi pour examiner la loi sécurité globale (voir notre résumé de la loi adoptée le 15 avril), nous venons de lui envoyer les arguments que nous avons développés avec le Syndicat des Avocats de France (SAF), le Syndicat de la magistrature (SM), Droit Au Logement (DAL), le Conseil National des Barreaux (CNB), la Ligue des Droits de l’Homme (LDH), la CGT et Solidaires.
Le Conseil constitutionnel semble être le dernier contre-pouvoir en mesure de s’opposer aux pouvoirs injustifiables exigés par la police et servilement offerts par le Parlement. En parallèle et dès la manifestation du 1er mai, il faudra aussi aller sur le terrain pour documenter et contester les nombreuses irrégularités qui accompagneront inévitablement le déploiement des drones et des caméra-piétons. En effet, comme vous le lirez dans nos arguments envoyés aujourd’hui, ces techniques sont par nature incompatibles avec les garanties exigées tant par la loi que par la Constitution, notamment en matière d’information du public ou de contrôle préalable.
Nous recopions ci-dessous les arguments déployés spécifiquement en matière de vidéosurveillance.
III – SUR LA VIDÉOPROTECTION ET CAPTATION D’IMAGES
L’essentiel des dispositions du titre III de la loi sont contraires à la Constitution, soit qu’elles visent à intensifier la vidéosurveillance fixe (partie IV.1 concernant les articles 40 à 44) soit qu’elles visent à autoriser la vidéosurveillance mouvante (partie IV.2 concernant les articles 45 à 49). De plus, l’ensemble de ces dispositions intensifie la reconnaissance faciale au-delà de ce que la Constitution permet (partie IV.3).
1- Vidéosurveillance fixe
Le Conseil constitutionnel juge que les systèmes de vidéosurveillance affectent la liberté d’aller et venir, le droit à la vie privée ainsi que l’inviolabilité du domicile, protégés par les articles 2 et 4 de la Déclaration des droits de l’Homme et du citoyen de 1789, et ne peuvent être conformes à la Constitution qu’en respectant de strictes garanties (Cons. constit., 94-352 DC, 18 janvier 1995, §§ 3 et 4). Il souligne que des mesures de surveillance généralisée sont susceptibles de porter atteinte à la liberté d’expression et de manifestation (Cons. const., 27 décembre 2019, 2019-796 DC, § 83).
La Cour de justice de l’Union européenne juge que « l’image d’une personne enregistrée par une caméra constitue une donnée à caractère personnel » (CJUE, C-212/13, 11 décembre 2014, §22) dont la protection est garantie par l’article 8 de la Charte des droits fondamentaux de l’Union européenne (la Charte) et qui, à ce titre aussi, ne peut être traitée que dans de strictes limites, notamment définies par la directive 2016/680 (dite « police-justice »).
En l’espèce, les articles 40 à 44 intensifieront la vidéosurveillance bien au-delà des limites définies par la Constitution, sur quatre points : le défaut de nécessité (a), le défaut de protection des lieux privés (b), le champ excessif des personnes accédant aux images (c) et la délégation à des personnes privées de missions de surveillance (d).
a) Défaut de nécessité
En droit :
La loi ne peut porter atteinte aux libertés fondamentales que si cette atteinte est nécessaire à l’objectif qu’elle prétend poursuivre, et ce notamment en matière de vidéosurveillance (Cons. constit., 94-352 DC précité). Cette exigence est reprise à l’article 4 de la directive police-justice qui exige que tout traitement de surveillance policière « soit nécessaire et proportionné » à la lutte contre les infractions et les atteintes à la sécurité publique.
En fait :
Il faut souligner que, depuis son autorisation en 1995, la nécessité et l’efficacité de la vidéosurveillance contre les infractions et les atteintes à la sécurité publique n’ont jamais été démontrées. Bien au contraire, les seules études concrètes déplorent qu’« aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de délinquance commis sur la voie publique » (Cour des comptes, Les polices municipales, octobre 2020).
Pourtant, les articles 40 à 45 de la loi visent à étendre les conditions d’installation et d’exploitation des systèmes de vidéosurveillance.
En conclusion, ayant systématiquement échoué à démontrer la nécessité des systèmes de vidéosurveillance déployés depuis 1995, les articles 40 à 45 ne peuvent étendre ces systèmes sans violer la Constitution, et notamment les articles 2 et 4 de la Déclaration des droits de l’homme de 1789 en ce qu’ils garantissent la liberté d’aller et venir, le droit à la vie privée, l’inviolabilité du domicile et la liberté d’expression et de manifestation.
b) Défaut de protection des lieux privés
En droit :
Une des principales garanties qu’un système de vidéosurveillance doit respecter pour être conforme à la Constitution est de ne pas capter les images de l’intérieur des immeubles et de leurs entrées (Cons. const., décision 94-352 DC, §5). Ainsi, en 2010, le Conseil constitutionnel n’a pas hésité à censurer une disposition qui autorisait la police à accéder aux images de caméras de halls d’immeubles sous la simple condition que surviennent « des événements ou des situations susceptibles de nécessiter l’intervention des services de police ou de la gendarmerie » (Décision 2010-604 du 25 février 2010). En outre, le Conseil avait considéré que la disposition litigieuse ne prévoyait pas les garanties nécessaires à la protection de la vie privée, alors même que ladite disposition prévoyait expressément que « la transmission de ces images relève de la seule initiative des propriétaires ou exploitants d’immeubles collectifs d’habitation ».
Une loi de 2011 a réintroduit la disposition censurée en 2010 en tentant de la corriger par une condition un peu plus stricte que celle censurée par le Conseil constitutionnel en 2010 : la transmission d’image n’est plus permise qu’en présence « de circonstances faisant redouter la commission imminente d’une atteinte grave aux biens ou aux personnes ». Le Conseil constitutionnel n’a jamais eu l’occasion de trancher si cette modification a suffit à rendre le dispositif conforme à la Constitution.
En fait :
L’article 43 de la présente loi supprime la limitation ajoutée en 2011 pour revenir à une situation quasi-identique à celle censurée en 2010. Les images pourraient être transmises en cas de simple « occupation par des personnes qui entravent l’accès et la libre circulation des habitants ou empêchent le bon fonctionnement des dispositifs de sécurité et de sûreté ». Cette condition est aussi large, et même davantage, que celle de « situations susceptibles de nécessiter l’intervention de la police ».
De la même manière, la possibilité, au dernier alinéa, pour la police nationale, la gendarmerie ou la police municipale de décider unilatéralement de cette transmission « en cas d’urgence » et après alerte du gestionnaire de l’immeuble ne remplit aucune des conditions posées par le Conseil constitutionnel. En effet, le Conseil ayant considéré comme insuffisante la garantie que cette transmission ne s’effectue qu’à la seule initiative des propriétaires ou exploitants de l’immeuble, il ne saurait en être autrement pour une transmission qui serait décidée à la seule initiative des forces de l’ordre : une telle possibilité d’accéder en temps réel aux images de lieux d’habitation privés sur décision unilatérale de la police méconnaitrait gravement le droit à la vie privée des personnes qui résident ou se rendent dans ces immeubles.
En conséquence, l’article 43 autorise dans des conditions disproportionnées la vidéosurveillance par la police des lieux de vie, en contradiction avec la Constitution telle qu’interprétée par le Conseil constitutionnel.
c) Le champ excessif des personnes accédant aux images
En droit :
La Cour de justice de l’Union européenne juge contraire à la Charte une mesure de surveillance qui « ne prévoit aucun critère objectif permettant de limiter le nombre de personnes disposant de l’autorisation d’accès et d’utilisation ultérieure des données » (CJUE, grande chambre, 8 avril 2014, Digital Rights Ireland et autres, C-293/12, C-594/12, § 62). Cette limitation est indispensable dans la mesure où les risques de dérives et d’abus des mesures de surveillance ainsi que la difficulté du contrôle que peut en faire une autorité indépendante sont proportionnels au nombre de personnes pouvant les mettre en œuvre. Dans son avis du 21 décembre 2020, la Défenseure des droits insiste sur le fait que cette limitation est une garantie centrale pour le respect de la vie privée.
L’article L. 252-3 du code de la sécurité intérieure limite actuellement le visionnage des images de vidéosurveillance aux seuls agents de la gendarmerie et de la police nationale.
En fait :
La présente loi étend cet accès aux agents :
de la police municipale et de la ville de Paris (article 40) ;
des communes, des communautés de communes et des groupements similaires (article 42) ;
des services de sécurité de la SNCF et de la RATP (article 44).
Aucun élément matériel ni aucune étude concrète n’a été produite pour démontrer la nécessité d’une extension si importante des personnes accédant aux images de vidéosurveillance pour lutter contre les infractions.
En conclusion, les articles 40, 42 et 44 multiplient hors de toute proportion justifiée les risques de détournement et d’abus des mesures de surveillance, tout en diminuant les capacités de contrôle des autorités indépendantes.
d) Délégation à des personnes privées
En droit :
Il convient de rappeler que le Conseil constitutionnel juge que la nécessité d’une force publique, inscrite à l’article 12 de la Déclaration des droits de l’homme de 1789, interdit de déléguer à des personnes privées des compétences de police administrative générale et de surveillance générale de la voie publique, une telle délégation de compétences étant caractérisée lorsque lesdites personnes se voient confier la tâche de visionner les images pour le compte de personnes publiques (Conseil constit., décision 2011-625 DC du 10 mars 2011, précitée).
En fait :
L’article 44 permet aux agents des services internes de la SNCF et de la RATP d’avoir accès aux images de vidéosurveillance de la voie publique. Il s’agit de salariés de droit privé auxquels serait délégué un pouvoir de surveillance de la voie publique. Les encadrements prévus par la loi, comme le contrôle d’un agent de police ou le nombre limité de finalités, n’altèrent en rien la qualification de délégation à une personne privée d’une mission de surveillance.
Aussi, la délégation que prévoit l’article 44 est contraire à la Constitution.
e) Dignité et respect de la vie privée des personnes privées de liberté
En droit :
Le Conseil constitutionnel juge qu’il appartient aux autorités judiciaires ainsi qu’aux autorités administratives de veiller à ce que la privation de liberté des personnes condamnées ou placées en détention provisoires soit, en toutes circonstances, mise en oeuvre dans le respect de la dignité de la personne (Conseil constit., décisions 2021-898 QPC du 16 avril 2021 et 2020-858/859 QPC du 2 octobre 2020).
Par ailleurs, la Cour européenne des droits de l’Homme juge que non seulement une personne détenue ne perd pas les droits conférés par la Convention, mais également que le fait de placer une personne sous vidéosurveillance permanente pendant sa détention est une ingérence grave dans le droit au respect de sa vie privée et que toute disposition légale l’autorisant doit donc protéger l’individu de tout risque d’y être soumis de manière arbitraire (CEDH, Vasilica Mocanu c. Roumanie, n° 43545/13, § 36 ; Gorlov et autres c. Russie, n° 27057/06, § 82, 97 ; Izmestyev c. Russie, n° 74141/10, § 121, 128). C’est notamment à ce titre que le Conseil d’Etat a considéré que la mise en place des systèmes de vidéosurveillance continue devait être strictement réservé aux situations qui l’exigent, et qu’il a autorisé la surveillance par vidéo permanente d’un individu détenu en raison seulement du caractère exceptionnel des faits pour lesquels il était poursuivi (Conseil d’Etat, 28 juillet 2016, n° 401800, § 12).
Enfin, par deux décisions du 21 mars 2019, le Conseil constitutionnel a explicitement consacré la protection de l’intérêt supérieur de l’enfant en la rattachant aux dixième et onzième alinéas du Préambule de la Constitution de 1946 (cf.Cons. const., 21 mars 2019, M. Adama Soumaoro [Examens radiologiques osseux aux fins de détermination de l’âge], no 2018-768 QPC, pt. 6 ; Cons. const. 21 mars 2019, Loi de programmation 2018-2022 et de réforme pour la justice, no2019-778 DC, pt. 60).
En matière de surveillance policière, ce principe est notamment traduit au considérant 50 de la directive 2016/680 (dite « police-justice »), qui précise que « les mesures prises par le responsable du traitement devraient comprendre l’établissement et la mise en œuvre de garanties spécifiques destinées au traitement de données à caractère personnel relatives aux personnes physiques vulnérables telles que les enfants ».
En fait :
L’article 41 de la loi permet au ministère de l’intérieur de mettre sous surveillance vidéo une personne détenue dans un centre de rétention administrative et une cellule de garde à vue. Les finalités prévues sont larges et extrêmement permissives, allant de simples « motifs raisonnables de penser » qu’un individu pourrait représenter une menace pour lui-même ou les autres, à la « collecte de preuve dans le cadre de procédures judiciaires ou administratives ».
De telles conditions à la mise sous vidéosurveillance continue apparaissent bien peu exceptionnelles, au point qu’il en devient même difficile d’imaginer des situations de détention dans lesquelles elles ne seraient point remplies.
Au surplus, l’article 41 ne prévoit aucune garantie spécifique visant à protéger l’intérêt supérieur des enfants qui pourront être soumis à cette surveillance constante, notamment lors de leur enfermement avec leur famille en centre de rétention administrative.
En conclusion, l’article 41 prévoit un dispositif de surveillance qui constitue une atteinte manifestement disproportionnée aux droits et libertés garanties par la Constitution.
2 – Vidéosurveillance mouvante
Les articles 45 à 49 concernent le déploiement et l’intensification de la vidéosurveillance mouvante : transmission en temps réel et systématisation des images captées par les caméras-piétons, légalisation des caméras aéroportées et des caméras embarquées. Ces trois types de vidéosurveillance seront examinés ensembles, car elles partagent toutes le fait d’être mobiles : cette seule caractéristique suffit à les rendre irréconciliables avec quatre garanties fondamentales exigées par la Constitution et le droit européen.
a) Défaut de nécessité
En droit :
Tel qu’exposé précédemment, une atteinte à la vie privée ou à la protection des données personnelles n’est conforme à la Constitution et au droit européen que si elle est strictement nécessaire à la finalité qu’elle poursuit. Plus spécifiquement, l’article 4 de la directive police-justice exige que le traitement de données personnelles réalisé pour lutter contre les infractions et les atteintes à la sécurité publique « soit nécessaire et proportionné » à cette finalité et que les données soient « adéquates, pertinentes et non excessives » au regard de cette finalité.
Plus grave, si les images captées sont des données « sensibles », telles que des données biométriques ou des données pouvant révéler les opinions politiques ou religieuses des personnes filmées, l’article 10 de la directive police-justice, transposé à l’article 88 de la loi informatique et libertés, exige que les autorités démontrent la « nécessité absolue » d’une telle surveillance – autrement dit, la police doit démontrer être dans l’impossibilité matérielle de lutter contre les infractions si elle ne peut pas utiliser ces caméras.
En fait :
Les articles 45, 46 et 49 généralisent la captation, voire la transmission d’images par caméras-piéton. Les articles 47, 48 et 49 autorisent les caméras aéroportées (drones) et embarquées (hélicoptères, voitures). Aucune démonstration n’a été réalisée, ni même tentée, quant à la nécessité de déployer de telles caméras pour poursuivre l’une des très nombreuses et larges finalités qu’elles pourraient poursuivre : sécurité des rassemblements de personnes sur la voie publique, constat des infractions, protection des bâtiments…
C’est même le contraire qui commence à apparaître dans la jurisprudence. Dans sa décision du 22 décembre 2020 (décision n° 446155) qui a interdit les drones policiers à Paris, le Conseil d’État a dénoncé que « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement dans les circonstances actuelles, en l’absence de recours à des drones » – c’est-à-dire grâce au 35 000 caméras fixes surveillant déjà l’espace public. Pour cette finalité, et pour tant d’autres similaires, la démonstration de la nécessité de recourir aux drones fait systématiquement défaut. Le cas des drones est à cet égard identique à celui des caméras embarquées, notamment sur des hélicoptères, désormais autorisées par les article 48 et 49.
De même, si l’objectif antérieur des caméras-piétons était de « prévenir les incidents susceptibles de survenir au cours des interventions [et de] déterminer les circonstances de tels incidents, en permettant l’utilisation des enregistrements à des fins probatoires » (comme l’expliquait la CNIL dans son rapport de 2015), le gouvernement n’a jamais pris la peine d’évaluer si cet objectif avait été atteint.
Pourtant, sans attendre une telle évaluation, l’article 45 étend désormais considérablement le rôle de ce dispositif en autorisant la transmission des images au centre de commandement, en direct et à la libre initiative de la police et de la gendarmerie, dès lors que celles-ci considèrent que « la sécurité des agents […] ou la sécurité des biens et des personnes est menacée ». La nécessité d’une extension si importante est encore moins démontrée que celle du dispositif initial, qui fait pourtant défaut. Ce même article 45 prétend en outre supprimer du dispositif initial la garantie selon laquelle « les personnels auxquels les caméras individuelles sont fournies ne peuvent avoir accès directement aux enregistrements auxquels ils procèdent », et prévoie que cet accès direct sera désormais permis lorsqu’il sera « nécessaire pour faciliter » le travail des agents – une formulation qui tient de l’oxymore juridique, puisque ne saurait être « facilité » que ce qu’il est déjà possible d’accomplir par d’autres moyens. Les articles 46 et 49, qui visent quant à eux à permettre aux gardes champêtres et gendarmes d’exploiter de tels caméras, souffre de la même absence de démonstration quant à leur nécessité.
Si la simple « nécessité » des drones est absente, tout autant que celle des caméras par hélicoptère et des caméras-piétons, leur « nécessité absolue » fait entièrement défaut. Pourtant, ces caméras captent régulièrement des données sensibles, ne serait-ce qu’en manifestation où elles ont largement été déployées et où, par définition, toute image captée est susceptible de révéler des opinions politiques.
Pour toute tentative de justification, la police semble mettre en avant certains faits divers où un drone, ou une caméra piéton, aurait éventuellement facilité son travail. Le critère de « nécessité » ou de « nécessité absolue » exige bien davantage qu’un simple gain de temps ou une économie de moyens : il faut démontrer que la police ne pourrait pas réaliser son travail sans cet outil. Le gouvernement a toujours refusé d’entreprendre une démonstration concrète et systémique sur les besoins de la police à cet égard. Ce ne sont pourtant pas les occasions qui ont manqué : ces caméras mouvantes ont été déployées pendant des années, de façon illégale, mais suffisamment large pour en évaluer les effets.
En conséquence, à défaut d’être nécessaires à la poursuite des finalités qui leur sont associées, et alors qu’ils causent de graves atteintes aux libertés fondamentales tel que démontré ci-après, les dispositifs de caméra mouvante autorisés par les articles 45 à 49 ne sauraient l’être sans violer la Constitution et le droit européen.
b) Défaut de contrôle préalable
En droit :
Le Conseil constitutionnel juge, en matière de vidéosurveillance, que le législateur « ne peut subordonner à la diligence de l’autorité administrative l’autorisation d’installer de tels systèmes sans priver alors de garanties légales les principes constitutionnels » protégeant la liberté d’aller et venir, la vie privée et l’inviolabilité du domicile. Le Conseil exige que le législateur prévoie un contrôle préalable extérieur, tel que l’avis préalable d’une commission indépendante ayant pu en examiner la nécessité et la proportionnalité du dispositif (Conseil constit., 94-352 DC, 18 janvier 1995, §§ 6 et 12).
De la même manière, la CJUE exige qu’une mesure de surveillance ne puisse être déployée qu’en faisant l’objet « d’un contrôle effectif soit par une juridiction, soit par une entité administrative indépendante, dont la décision est dotée d’un effet contraignant, visant à vérifier l’existence d’une situation justifiant ladite mesure ainsi que le respect des conditions et des garanties devant être prévues » (CJUE, C-511/18, La Quadrature du Net, 6 octobre 2020, §§ 139, 168, 179, 189 et 192).
Ainsi, en l’état actuel du droit, avant d’installer chaque caméra, une autorité indépendante doit pouvoir examiner si le lieu filmé est surveillé pour des justifications suffisantes propres à ce lieu – telles que la fréquence des infractions qui y surviennent, leur nature, leur gravité et les difficultés particulières que la police y rencontre. C’est ainsi que l’article L. 252-1 du code de la sécurité intérieure prévoit qu’un dispositif de vidéosurveillance ne peut être autorisé qu’après l’avis d’une commission départementale de vidéoprotection, présidée par un magistrat.
En fait :
Il est impossible de connaître à l’avance les lieux filmés par une caméra-piéton, aéroportée ou embarquée. La police et la gendarmerie décident seules et sur le vif des lieux à surveiller, en réaction à des situations imprévisibles par nature.
Ainsi, c’est en vain que l’article 47 prévoit que la captation d’image par drone est autorisée « par le procureur de la République ou le juge d’instruction […] qui s’assure du respect des dispositions du présent chapitre ». Les dispositions dudit chapitre exigent que la captation « ne [puisse] donner lieu à la collecte et au traitement que des seules données à caractère personnel strictement nécessaires ».
Or, cette proportionnalité est matériellement impossible à évaluer par le procureur ou le juge au moment de donner leur autorisation, avant le décollage du drone. L’autorisation se cantonnera au mieux à délimiter une large zone, tel que « le parcours d’une manifestation et ses alentours » ou « la gare est ses alentours », laissant ensuite les agents décider seuls et de façon improvisée des lieux concrètement surveillés et des images captées.
Cette absence de contrôle préalable effectif a des conséquences particulièrement graves : si, au détours d’une manifestation ou d’une zone surveillée, la police souhaite abuser de ses pouvoirs afin, par exemple, d’envoyer un drone filmer les locaux d’une association, d’un journal ou d’un avocat, ou encore la résidence d’un parlementaire, elle pourrait le faire en toute discrétion et en toute autonomie, sans qu’aucune autorité indépendante n’en soit informée. À l’inverse, l’installation de caméra fixe est signalée et examinée par une autorité indépendante à même de dénoncer de telles dérives.
S’agissant des caméras mouvantes, ce défaut de contrôle préalable de proportionnalité n’est pas un manque du législateur : il est inhérent au principe même de vidéo-surveillance mouvante. De sorte, les articles 45, 46, 48 et 49, lorsqu’ils autorisent les captations d’image par caméras-piéton ou caméras embarquées, ne prennent même pas la peine de prévoir une procédure d’autorisation similaire à celle prévue par l’article 47 pour les drones. Cette différence révèle combien cette procédure d’autorisation est vaine – si elle était à même d’apporter la moindre protection pour les libertés fondamentales, il n’y avait aucune raison pour que le législateur n’ait pas soumis les drones et les hélicoptères à la même procédure.
En conséquence, les mesures de vidéosurveillance mouvante ne pouvant pas être effectivement examinées au préalable par une autorité indépendante, les articles 45 à 49 qui autorisent leur déploiement violent la Constitution.
c) Défaut d’information
En droit :
Pour être conforme à la Constitution, une disposition qui autorise un dispositif de vidéosurveillance doit s’assurer « que le public soit informé de manière claire et permanente de l’existence du système de vidéosurveillance ou de l’autorité et de la personne responsable » (Cons. constit., décision 94-352 DC, 18 janvier 1995, § 5).
De même, l’article 13 de la directive police-justice exige que le responsable d’une mesure de surveillance fournisse aux personnes concernées plusieurs informations, telles que l’identité du responsable, les finalités du traitement et le droit d’accéder aux données.
S’agissant des caméras fixes, l’article R. 252-3 du code de la sécurité intérieure prévoit que chaque dispositif de vidéosurveillance soit accompagné d’une affiche indiquant « le nom ou la qualité et le numéro de téléphone du responsable auprès duquel toute personne intéressée peut s’adresser pour faire valoir le droit d’accès prévu à l’article L. 253-5 ». Seule une information aussi précise et complète permet d’assurer le respect des garanties exigées par le Conseil constitutionnel et le droit de l’Union.
En fait :
L’article 47 exige que le public soit informé de la surveillance par drones « par tout moyen approprié ». L’article 48 exige que le public soit informé de la surveillance par caméra embarquée « par une signalétique spécifique de l’équipement du moyen de transport par une caméra ». L’article 49 prévoit une information « par tout moyen approprié ». Les articles 45 et 46 exigent que les caméras-piétons sont « portées de façon apparente » et que « un signal visuel spécifique indique si la caméra enregistre ».
En pratique, tel qu’il a été facile de constater ces dernières années, ces différentes mesures d’information seront systématiquement défaillantes : un écriteau « vous êtes filmé » accroché à un hélicoptère volant à plus de 100 mètres n’aura aucun effet ; pire, un drone vole trop haut pour transmettre la moindre information visuelle ou sonore, et sa taille est si petite qu’il échappe souvent entièrement à l’attention des personnes surveillées. De même, les caméras-piétons se fondent parfaitement dans l’équipement des agents qui, eux-mêmes, se fondent facilement dans les foules surveillées, qu’ils n’ont aucun moyen visuel ou sonore d’informer de façon réaliste.
Partant, les mesures de vidéosurveillance mouvante ne pouvant jamais être portées à la connaissance du public de façon suffisamment efficace, les articles 45 à 49 qui autorisent leur déploiement violent la Constitution.
d) Surveillance des lieux privés
En droit :
Tel que rappelé ci-dessus, une des principales garanties qu’un système de vidéosurveillance doit respecter pour être conforme à la Constitution est de ne pas capter les images de l’intérieur des immeubles et de leurs entrées (Cons. const., décision 94-352 DC, §5).
Ainsi, les caméras fixes sont orientées de façon à éviter de filmer les immeubles et, quand elles ne le peuvent pas, un système d’obstruction matérielle ou logicielle basique permet de ne pas capter l’image des immeubles (un rectangle noir, typiquement).
En fait :
La vidéosurveillance mouvante filme des lieux qui changent constamment et qui ne peuvent être connus à l’avance. Or, il est techniquement irréaliste d’obstruer en temps réel l’image d’immeubles présents sur des lieux inconnus à l’avance et en mouvement constant – contrairement aux lieux statiques filmés par les caméras fixes. Le caractère mouvant de cette vidéosurveillance est mécaniquement incompatible avec une interdiction de filmer l’intérieur des immeubles.
Dès lors, les articles 45 et 46 sur les caméras-piétons et l’article 48 sur les caméras embarquées ne prévoient aucune interdiction de filmer l’intérieur des immeubles – ce qui, en effet, serait irréaliste. Pourtant, ces caméras sont presque toujours en situation de filmer l’intérieur d’immeubles et de lieux privés, ne serait-ce qu’au travers des fenêtres.
L’article 47 sur les drones prévoit une interdiction de filmer l’intérieur des « domiciles » ou de leurs entrées et non, comme l’exige le Conseil constitutionnel, l’intérieur de tous les « immeubles » en général. La police et la gendarmerie seraient seules à décider quels immeubles sont ou non des domiciles. Cette appréciation se ferait à la volée et en cours d’opération, ce qui semble parfaitement irréaliste – même via des outils d’analyse automatisée, qui ne seraient d’aucune aide s’agissant d’une appréciation aussi sociale et humaine de ce qu’est ou non un « domicile ». Mais ce problème est finalement sans importance dans la mesure où, de toute façon, aucun dispositif technique n’est capable d’obstruer en temps réels l’image mouvante d’immeubles, domiciles ou non.
Au cours des débats à l’Assemblée nationale, la rapporteure Alice Thourot a reconnu sans ambiguïté, s’agissant des drones, qu’il « n’est matériellement pas possible d’interdire de visualiser les espaces privés » (voir les débats publics de la troisième séance du vendredi 20 novembre 2020 relatifs à l’amendement n° 1164).
En conséquence, les dispositifs de vidéosurveillance mouvante ne pouvant jamais éviter de filmer l’intérieur des immeubles, les articles 45, 46, 47 et 48, qui intensifient et autorisent leur déploiement, violent la Constitution.
3- Reconnaissance faciale
Le titre III de la loi vise à intensifier la vidéosurveillance fixe et généraliser la vidéosurveillance par drones, caméras embarquées (dont par hélicoptères) et caméras-piétons. Toutes les nouvelles images captées par ces dispositifs, fixes comme mouvants, seront transmises en temps réel à un poste de commandement.
Une telle transmission en direct donne aux forces de police et de gendarmerie la capacité technique d’analyser les images transmises de façon automatisée, notamment en recourant au dispositif de reconnaissance faciale autorisé par le décret du 4 mai 2012 relatif au traitement d’antécédents judiciaires (TAJ).
Cette technique, qui n’a jamais été autorisée par le législateur, est l’exemple typique de traitements de données biométriques qui, au titre de l’article 10 de la directive police-justice et de l’article 88 de la loi informatique et libertés, devraient démonter leur « nécessité absolue » dans la lutte contre les infractions et les menaces pour la sécurité publique. Pourtant, cette nécessité n’a jamais été démontrée et le droit français ne prévoit aucune garantie pour les limiter à ce qui serait absolument nécessaire.
Au contraire, le recours à ces techniques semble être devenu systématique et ne reposer sur aucun contrôle de proportionnalité : en 2019, les autorités ont réalisé plus de 375 000 opérations de reconnaissance faciale, soit plus de 1 000 par jour (voir l’avis rendu le 13 octobre 2020 par le député Mazars au nom de la commission des lois de l’Assemblée nationale).
Il ne fait pourtant aucun doute que l’analyse automatisée d’images de vidéosurveillance est aujourd’hui contraire au droit français et européen, qu’il s’agisse d’ailleurs de reconnaissance faciale comme de tout autre type d’analyse automatisée permettant l’identification et le suivi d’une personne, tel que la CNIL l’a encore dénoncé face au déferlement de caméras dites « intelligentes » au cours de la crise du Covid-19 (Cnil, « Caméras dites « intelligentes » et caméras thermiques », 17 juin 2020).
Prenant acte de l’illicéité d’une telle analyse automatisée, le législateur a pris soin de préciser à l’article 47 de la présente loi que les images captées par drones ne peuvent pas être analysées « au moyen de dispositifs automatisés de reconnaissance faciale » ni être soumis à des interconnexion avec d’autres fichiers (notamment avec des fichiers tel le TAJ qui, une fois nourris, peuvent conduire à une reconnaissance faciale). Hélas, le législateur semble avoir omis d’apporter cette précision s’agissant des autres traitements qu’il autorise (caméras embarquées) ou dont il étend l’exploitation (caméras-piéton, caméras fixe) dans la présente loi.
Dans l’hypothèse où le Conseil constitutionnel ne reconnaîtrait par les articles 40 à 49 comme contraires à la Constitution, il devrait à tout le moins combler l’omission du législateur en décidant que les articles 40, 41, 42, 43, 44, 45, 46, 48 et 49 ne sont conformes à la Constitution qu’à la condition d’être interprétés comme soumis à la même interdiction prévue à l’article 47 concernant les analyses automatisées et les interconnexions avec d’autres fichiers.
";s:7:"dateiso";s:15:"20210429_172700";}s:15:"20210427_180522";a:7:{s:5:"title";s:51:"Les cookies de Google sont toxiques, le FLoC aussi.";s:4:"link";s:90:"https://www.laquadrature.net/2021/04/27/les-cookies-de-google-sont-toxiques-le-floc-aussi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17195";s:7:"pubDate";s:31:"Tue, 27 Apr 2021 16:05:22 +0000";s:11:"description";s:179:"Mis au pied du mur à cause de la révolte mondiale contre la surveillance à base de cookies, Google expérimente depuis peu une nouvelle manière de nous pister, appelée FLOC. ";s:7:"content";s:5101:"
Mis au pied du mur à cause de la révolte mondiale contre la surveillance à base de cookies, Google expérimente depuis peu une nouvelle manière de nous pister, appelée FLOC. Cette fois-ci, c’est depuis son navigateur directement, à savoir Google Chrome. L’EFF a conçu un site web pour vérifier si vous êtes concerné-es et expliquer la technologie : https://amifloced.org/ . Google détruit l’imaginaire du cookie, pourtant une douceur bienvenue aujourd’hui.
Une particularité de cette nouvelle technologie, c’est qu’elle traque l’utilisateurice directement depuis son navigateur, au lieu que ce soit le site web qui le fasse. Un conseil immédiat donc : supprimez Google Chrome et Chromium de votre téléphone et ordinateur, et alertez vos ami-es. (Ré-) Essayez Firefox !
Par ailleurs, les sites web peuvent demander à Chrome de ne pas traquer les utilisateurices quand ils sont visités, au moyen d’une instructions envoyé par le serveur, un header, nommé `Permissions-Policy`. Nous refusons depuis longtemps de pister les personnes visitant les sites de La Quadrature, et n’avons pas déployé de mesure d’audience, pistage ou cookie.
Aujourd’hui, nous allons plus loin, et mettons en place sur nos serveurs les recommandations de l’EFF pour vous éviter d’être pistés en visitant les sites de La Quadrature. Vous pouvez faire de même. Notre action aura un effet limité, mais nous vous invitons à écrire à Google, et aux élu·es pour leur demander de prendre leurs responsabilités, ainsi que de relayer cette action autour de vous. Nous insistons aussi sur l’importance de ne pas utiliser des navigateurs qui nous pistent, que ça soit Brave avec ses cryptomonnaies, ou Chrome avec son FLOC.
À cette occasion, nous vous ré-invitons à partager notre site web de campagne : https://bloquelapub.net et à passer le bloqueur à vos voisins.
Cette nouvelle attaque de Google contre l’anonymat et nos vies privées, sorte de rogne d’un système pris dans ses contradictions et mis face aux conséquences de ses décisions, n’est pas une bonne nouvelle. Elle n’est possible que grâce à son quasi monopole sur les navigateurs, que nous nous devons de combattre. C’est aussi une manière pour Google d’asseoir son autre monopole sur la publicité en ligne. En effet, peu d’entreprises ont la possibilité d’implémenter un tel système de traçage, car n’ayant pas de contrôle à la fois sur le navigateur et la régie publicitaire, laissant donc à Google un énorme pouvoir pour orienter et décider du futur de la publicité en ligne. Ce pouvoir est trop important et il n’y a aucune garantie que le blocage du FLoC soit respecté. Serait-ce un fiasco similaire au « Do Not Track » ?
Une manière pour nous de lutter collectivement contre ce monopole, sans être obligés de compter sur des pouvoirs étatiques, c’est de promouvoir la diversité. Une diversité des navigateurs, des logiciels, et lui permettre d’exister en développant du code qui soit un commun pour l’humanité, aussi appelé logiciel libre. À cette fin, nous vous appelons à soutenir avec nous les associations, développeureuses et contributeurices qui se battent pour les logiciels libres.
Correction : Nous n’avions pas mentionné que cette expérimentation de Google, qui ne s’applique pour le moment qu’a une partie des navigateurs Chrome, ne sera à priori pas déployé en Europe, dû au RGPD. Toutefois, la protection s’applique à toutes les personnes nous lisant dans le reste du monde, y compris les États-Unis.
";s:7:"dateiso";s:15:"20210427_180522";}s:15:"20210422_110853";a:7:{s:5:"title";s:87:"Lettre commune d’organisations françaises contre le règlement de censure terroriste";s:4:"link";s:123:"https://www.laquadrature.net/2021/04/22/lettre-commune-dorganisations-francaises-contre-le-reglement-de-censure-terroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17162";s:7:"pubDate";s:31:"Thu, 22 Apr 2021 09:08:53 +0000";s:11:"description";s:269:"Après la lettre commune européenne, nous signons, avec 11 associations et organisations françaises, une lettre adressée aux parlementaires français de l’Union européenne pour leur demander de rejeter le règlement de censure terroriste sur lequel ils…";s:7:"content";s:6187:"
Après la lettre commune européenne, nous signons, avec 11 associations et organisations françaises, une lettre adressée aux parlementaires français de l’Union européenne pour leur demander de rejeter le règlement de censure terroriste sur lequel ils sont appelés à voter le 28 avril prochain.
Nous y soulignons non seulement les dangers de ce texte pour nos libertés mais surtout la contradiction directe entre la proposition de règlement européen et la décision du Conseil constitutionnel qui a censuré en 2020 une disposition semblable au sein de la loi sur la haine en ligne.
La lettre en PDF, recopiée ci-dessous avec la liste des signataires
Mesdames les députées, Messieurs les députés,
Le 28 avril prochain, le Parlement européen est appelé à voter en deuxième lecture sur la proposition du règlement de prévention de la diffusion de contenus à caractère terroriste en ligne.
Ce texte, tel qu’il est rédigé aujourd’hui, permettrait aux autorités de n’importe quel État membre de l’Union européenne de demander à toute plateforme en ligne le retrait en une heure d’un contenu que cette autorité aurait considéré comme relevant d’un caractère terroriste.
Nous, organisations, syndicats et associations de défense des libertés, vous demandons de voter contre cette proposition.
En l’état, ce texte risque d’affaiblir nos droits et libertés fondamentales :
1. En donnant la possibilité à une autorité d’imposer aux services en ligne, sous la menace d’importantes sanctions, le retrait d’un contenu en seulement une heure, cette proposition risque de renforcer le développement d’outils de filtrage automatisé et de nuire ainsi gravement à la liberté d’expression en ligne ;
2. L’absence de tout contrôle judiciaire indépendant et le caractère possiblement transfrontalier des demandes de retrait pourraient mener à la censure d’opposants politiques et de mouvements sociaux.
Les dangers de ce texte ont été régulièrement dénoncés par de nombreuses organisations et institutions depuis sa présentation [1]. Récemment encore, 61 organisations européennes ont rappelé le risque qu’il posait et vous ont demandé, en tant que parlementaires, de le rejeter [2].
Nous rejoignons leur appel et attirons tout particulièrement votre attention sur les contradictions de ce texte avec la décision du Conseil constitutionnel français du 18 juin 2020 sur la loi visant à lutter contre les contenus haineux sur Internet telle que proposée par la députée Laetitia Avia [3]. Le juge constitutionnel y a notamment censuré une disposition semblable à celle prévue dans la proposition de règlement permettant à l’autorité administrative de demander à toute plateforme en ligne le retrait en une heure d’un contenu que cette autorité aurait qualifié de terroriste, sans le contrôle préalable d’un juge.
Le Conseil constitutionnel a notamment justifié sa censure du fait que l’appréciation du caractère illicite du contenu était soumise à la seule appréciation de l’administration, que le recours contre la demande de retrait n’était pas suspensif et que le délai d’une heure ne permettait pas d’obtenir une décision d’un juge avant le retrait du contenu. Il en a déduit que cette disposition constituait une atteinte à la liberté d’expression et de communication qui n’était pas adaptée, proportionnée ou nécessaire.
Aucune des dispositions prévues aujourd’hui dans la proposition de règlement européen ne vient rectifier la contradiction flagrante entre les exigences constitutionnelles françaises et l’obligation de censure en une heure au cœur du texte sur lequel vous êtes appelé(e)s à voter.
Nous vous demandons donc de respecter la décision du Conseil constitutionnel du 18 juin 2020 et de rejeter ce texte contraire à nos droits et libertés fondamentales.
Plus récemment, le 3 novembre 2020, les rapporteurs spéciaux des Nations Unies ont ainsi alerté
des dangers de ce texte pour les libertés fondamentales :
https://spcommreports.ohchr.org/TMResultsBase/DownLoadPublicCommunicationFile?gId=25661
[2] Le 27 mars 2021, une coalition de 61 organisations européennes a demandé aux parlementaires
européens de rejeter ce texte : https://edri.org/our-work/coalition-humn-rights-media-organisations-
express-gave-concerns-free-speech/
[3] Conseil constitutionnel, Décision n° 2020-801 DC du 18 juin 2020
";s:7:"dateiso";s:15:"20210422_110853";}s:15:"20210421_143925";a:7:{s:5:"title";s:64:"Le Conseil d’État valide durablement la surveillance de masse";s:4:"link";s:101:"https://www.laquadrature.net/2021/04/21/le-conseil-detat-valide-durablement-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17154";s:7:"pubDate";s:31:"Wed, 21 Apr 2021 12:39:25 +0000";s:11:"description";s:235:"Le Conseil d’État vient de rendre une décision qui restera une tache indélébile sur la plus haute juridiction administrative et sur la France. Au mépris le plus total du droit européen, il a refusé d’appliquer…";s:7:"content";s:5364:"
Le Conseil d’État vient de rendre une décision qui restera une tache indélébile sur la plus haute juridiction administrative et sur la France. Au mépris le plus total du droit européen, il a refusé d’appliquer l’arrêt de la Cour de justice de l’UE (CJUE) qui, en octobre 2020, estimait que tant le droit français du renseignement que l’obligation de conservation généralisée et indifférenciée de l’ensemble des données de connexion (IP, localisation, etc.) étaient contraires aux droits fondamentaux. Ce faisant, le Conseil d’État isole la France dans son Frexit sécuritaire et libère les renseignements français des principes de l’État de droit.
En apparence, la décision d’aujourd’hui conduit à l’annulation ou à l’abrogation de certains des décrets attaqués par La Quadrature du Net, FDN, la FFDN et Igwan.net, qui organisent une obligation de conserver de manière généralisée et indifférenciée les données de connexion (ce qui entoure une communication, comme la liste des numéros de téléphone appelés, les adresses IP, la géolocalisation, etc.). Mais cette illusion est aussitôt dissipée par le Conseil d’État qui prescrit lui-même les correctifs superficiels qui permettront au gouvernement de maintenir sa surveillance de masse. À côté de cette fausse concession, il rejette purement et simplement le reste de nos arguments contre les services de renseignement.
Le Conseil d’État autorise la conservation généralisée des données de connexion en dehors des situations exceptionnelles d’état d’urgence sécuritaire, contrairement à ce qu’exigeait la Cour de justice de l’UE dans sa décision du 6 octobre 2020 contre la France. Pour arriver à une conclusion aussi brutale, le Conseil d’État a réinterprété la notion de « sécurité nationale » pour l’étendre très largement au-delà de la lutte contre le terrorisme et y inclure par exemple l’espionnage économique, le trafic de stupéfiant ou l’organisation de manifestations non-déclarées. Ainsi, il peut conclure que la sécurité nationale est systématiquement menacée, justifiant le contournement permanent des garanties protégeant les libertés fondamentales et ce même en dehors des périodes officielles d’état d’urgence, soumises à un contrôle démocratique (aussi théorique soit-il).
De même, le Conseil d’État permet la communication des données de connexion à la police pour n’importe laquelle des finalités comprises dans cette notion délirante de « sécurité nationale », alors que la CJUE exige que cette mesure de surveillance soit limitée à la seule lutte contre la criminalité grave.
Cette décision traduit le blanc-seing donné par le Conseil d’État au gouvernement et aux services de renseignement. Reléguant le droit à la vie privée, à la sûreté ou à la liberté d’expression à une pure déclaration de principe dénuée d’effectivité, le Conseil d’État confère à la sacro-sainte sécurité nationale une définition si monstrueuse qu’elle lui permet d’annihiler le reste des droits fondamentaux. Aujourd’hui, il a durablement inscrit dans le droit français le renversement de principe en matière de surveillance : tout le monde est suspect, de tout.
La position du Conseil d’État interroge : quelle légitimité a dorénavant la France pour parler au nom d’une Union européenne dont elle foule aux pieds les principes et les juridictions ? Quel avenir pour le respect de l’État de droit quand le juge français s’oppose aussi frontalement à une décision de justice ? La France n’est plus audible, elle ne doit pas l’être. Dans une Union européenne menacée par des poussées autoritaires et nationalistes, la France vient de créer un sinistre précédent dans la négation des droits fondamentaux promus en Europe depuis la fin de la dernière guerre mondiale. Désormais, chaque État membre — et au-delà — pourra aisément suivre l’exemple français et s’abriter derrière n’importe quelle « sécurité nationale » pour se délier de ses obligations internationales et de l’État de droit.
Six ans de procédure pour voir le Conseil d’État piétiner sans gêne ni hésitation l’ensemble des arguments juridiques qui auraient dû s’imposer à lui. Ne le cachons pas : la défaite est si amère que nous peinons à comprendre comment poursuivre cette lutte sur le plan juridictionnel. Devons-nous encore opposer à l’État un droit dont il ne cherche même plus à tirer sa légitimité ? Peu importe la forme que prendra notre lutte à l’avenir, elle nous apparaît aujourd’hui plus difficile et douloureuse qu’elle ne l’était hier. Plus que jamais, nous aurons besoin de votre aide pour continuer.
";s:7:"dateiso";s:15:"20210421_143925";}s:15:"20210416_152903";a:7:{s:5:"title";s:44:"Loi sécurité globale adoptée : résumons";s:4:"link";s:78:"https://www.laquadrature.net/2021/04/16/loi-securite-globale-adoptee-resumons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17141";s:7:"pubDate";s:31:"Fri, 16 Apr 2021 13:29:03 +0000";s:11:"description";s:242:"La loi sécurité globale a été définitivement adoptée hier par l’Assemblée nationale, à 75 voix contre 33, au terme d’un débat soumis aux exigences de la police et dont nous n’attendions plus grand chose (lire…";s:7:"content";s:16824:"
La loi sécurité globale a été définitivement adoptée hier par l’Assemblée nationale, à 75 voix contre 33, au terme d’un débat soumis aux exigences de la police et dont nous n’attendions plus grand chose (lire notamment notre analyse de l’examen en commission à l’Assemblée ou au Sénat).
La prochaine étape sera l’examen de la loi par le Conseil constitutionnel. Nous lui enverrons bientôt nos observations. Avant cela, prenons un instant pour résumer les changements juridiques qui, sauf censure de la part du Conseil, résulteront de cette loi.
A. Surveillance
Tel qu’annoncé dans son récent livre blanc, l’objectif du ministère de l’intérieur est de faire entrer la police dans une nouvelle ère technologique pour les JO 2024, où la France pourra exposer son armement de pointe aux clients venus du monde entier – qu’il s’agisse d’armement jusqu’alors interdit (caméras par drones et hélicoptères) ou pré-existant mais que la loi sécurité globale va généraliser (caméras piétons et fixes).
1. Drones
le préfet pourra autoriser la police et l’armée à capter des images par drone pour une période et un périmètre qu’il fixera ; l’autorisation pourra être justifiée par l’une des finalités listées par l’article 47 :
« appui des personnels au sol en vue de maintenir ou rétablir l’ordre public » en cas de troubles graves ou difficultés d’intervention en manifestation ;
« protection des bâtiments et installations publics […] particulièrement exposés à des risques d’intrusion ou de dégradation » ;
« régulation des flux de transport » ;
« surveillance des frontières » ;
lutte contre le terrorisme et les infractions graves ou se produisant dans des lieux dangereux ou difficile d’accès.
pour une période « expérimentale » de cinq ans, le préfet pourra autoriser la police municipale à capter des images par drones afin « d’assurer l’exécution des arrêtés de police du maire et de constater les contraventions à ces arrêtés » (article 47) – ces arrêtés pouvant par exemple concerner la taille des terrasses ou la fermeture d’un lieu ouvert au public ;
les pompiers ainsi que les militaires et associations agréées de sécurité civile pourront aussi capter des images par drones afin de secourir les personnes et prévenir les risques (article 47) ;
pour ces trois cas de captation d’images par drone, sont interdits la captation du son, l’analyse des images par reconnaissance faciale ainsi que les interconnexions automatisés avec des fichiers (article 47) ;
les prises de vues doivent être « réalisées de telle sorte qu’elles ne visualisent pas les images de l’intérieur des domiciles ni, de façon spécifique, celles de leurs entrées » (article 47) – mais nous ne comprenons pas comment cette exigence pourra être satisfaite en pratique ;
le public doit être informé « par tout moyen approprié » de la captation d’image par drone et de l’autorité responsable, « sauf lorsque les circonstances l’interdisent » (article 47) – ici encore, en pratique, nous ne comprenons pas comment l’information pourra être donnée ;
en marge de ces règles, l’État pourra déployer des drones pour surveiller les établissements, installations et ouvrages d’importance vitale ainsi que les installations militaires (article 47) ;
de même, les commandants de navire et d’avion de l’État pourront déployer des drones aériens, marins ou sous-marins dans le but d’assurer « le respect des dispositions qui s’appliquent en mer » en vertu du droit international et national. Le public doit en principe être informé de la surveillance, et cette surveillance doit éviter les locaux affectés à un usage privé ou d’habitation (article 49).
2. Véhicules
la police nationale, la police municipale, l’armée et les pompiers pourront équiper leurs véhicules, tels que des hélicoptères, de caméras pour capter des images (article 48) – ce qui était jusqu’alors interdit, bien que largement pratiqué ;
les finalités justifiant cette captation sont encore plus générales que celles prévues pour les drones :
assurer la sécurité des rassemblements de personnes sur la voie publique ;
réguler les flux de transport ;
faciliter la surveillance des zones frontalières ;
prévenir les incidents au cours des interventions ;
faciliter le constat des infractions et la poursuite de leurs auteurs ;
secours aux personnes et lutte contre l’incendie.
comme pour les drones, le public doit être en principe informé (article 48) ; toutefois, et contrairement aux drones, il n’y a ici aucune restriction concernant la reconnaissance faciale, l’interconnexion ou la surveillance de l’intérieur ou de l’entrée de domiciles ;
comme pour les drones, les commandants de navire et d’avion de l’État pourront équiper leur véhicule de caméra dans le but d’assurer « le respect des dispositions qui s’appliquent en mer » en vertu du droit international et national (article 49).
3. Caméras piétons
les agents de la police nationale, de la police municipale et de la gendarmerie pourront désormais accéder eux-même aux images captées par les caméras piétons qu’ils portent (article 45) – alors que cet accès leur était jusqu’alors strictement interdit ;
les images captées pourront désormais être transmises en temps réel au poste de commandement dès lors que « la sécurité des biens et des personnes » ou « la sécurité des agents » sera considérée comme étant menacée (article 45) – alors que ces images étaient jusqu’alors conservées de côté pour n’être exploitées qu’en cas d’enquête ;
si la loi ne décrit pas en elle-même un dispositif de reconnaissance faciale, l’article R. 40-26 du code de procédure pénal permet déjà à la police de réaliser de telles opérations à partir d’images obtenues par tout moyen ; les caméras piétons, portées à hauteur de visage, sont les candidates idéales pour permettre à la police de généraliser les opérations de reconnaissance faciale (en 2019, on en décomptait déjà 375 000) ;
au cours d’une période « expérimentale » de 3 ans, les gardes champêtres seront autorisés à porter des caméras individuelles dans leur version « classique » – sans consultation de l’agent lui-même ni retransmission en directe (article 46) ;
les commandants des navires de l’État pourront équiper leurs équipes d’abordage de caméras individuelles (article 49).
4. Vidéosurveillance
le gouvernement pourra autoriser l’installation de caméras dans les cellules de garde à vue ainsi que dans les chambres des centres de rétention administrative (où des milliers de personnes exilées, dont des milliers d’enfants, sont enfermées chaque années) ; pour toute intimité, la loi prévoit « un pare‑vue fixé dans la chambre […] permettant la restitution d’images opacifiées » (article 41) ;
les caméras de vidéosurveillance déjà autorisées par le code de la sécurité intérieures seront désormais exploitables par la police municipale et non plus seulement par la police nationale et la gendarmerie (article 40) ;
ces caméras pourront aussi être exploitables par les agents des communes et des structures intercommunales – ces structures ayant aussi gagné le pouvoir de demander elles-même l’installation de caméras de vidéosurveillance (article 42) ;
les caméras installées dans les espaces et véhicules de la SNCF et de la RATP ne seront plus seulement exploitables par les agents de la police nationale ou de la gendarmerie mais désormais, aussi, sous l’autorité de ces agents, par ceux de la SNCF et de la RATP (article 44) ;
les caméras installées dans les hall d’immeubles seront exploitables en temps réel par la police non plus seulement en cas d’atteinte grave et imminente aux biens et personnes mais désormais, aussi, sur simple « occupation » empêchant la « libre circulation » ou le « bon fonctionnement » des dispositifs de sécurité (article 43).
B. « Continuum de la sécurité »
Le concept de « continuum de la sécurité », a été imaginé par Alice Thouvot et Jean-Michel Fauvergue, les auteurs de la PPL sécurité globale lors d’un rapport parlementaire de 2018. C’est l’idée d’articuler « au mieux » toutes les forces de police pour obtenir une force sécuritaire plus efficace, tout en renforçant leurs prérogatives. Par « polices », il est entendu police nationale et gendarmerie, police municipale et agents de sécurité privée.
1. La sécurité privée : la nouvelle force de police
La loi sécurité globale prévoit de renforcer considérablement les pouvoirs et le rôle de la sécurité privée, pour en faire de véritables auxiliaires de police. Désormais, les agents de sécurité privée peuvent :
Dresser des procès-verbaux et relever l’identité et l’adresse d’une personne dans le cadre de ces procès-verbaux, à travers l’article 20. Si cette personne ne peut justifier de son identité, l’agent peut la retenir jusqu’à intervention de la police. En cas de non-respect de cet ordre, la punition prévue est de 2 mois d’emprisonnement et 7500€ d’amende.
Les agents de sécurité privée pourront procéder à des palpations de sécurité dans le cadre de certaines manifestations, notamment sportives et culturelles.
Le préfet peut demander à des agents de sécurité privée d’effectuer des missions de surveillance des personnes contre des actes de terrorisme. Notamment pour les JO 2024 et coupe du monde de Rugby.
Un agent de la police nationale peut cumuler retraite avec un poste de sécurité privée (article 31)
2. L’extension des pouvoirs de la police municipale
L’article 1 prévoit d’élargir les compétences de la police municipale, à travers une expérimentation sur cinq ans, à laquelle sont éligibles les communes ou communautés de communes équipées de plus de 15 agents (ou gardes champêtres). Les policiers municipaux voient leur prérogatives élargies et peuvent dresser des procès-verbaux, c’est-à-dire constater des délits (ivresse sur la voie publique, tags, occupation de halls d’immeubles et squat d’un terrain lorsqu’il appartient à une personne publique… pour une liste plus complète voir ici). Avec possibilité de réaliser des contrôles d’identités pour ces contraventions.
L’article 6 prévoit la création d’une police municipale pour la ville de Paris d’ici 2026. Depuis 1800, la force de police de Paris avait été confiée au préfet de police et donc à l’État, par méfiance vis-à-vis de la ville. Désormais, Anne Hidalgo souhaite créer une force haute de 5000 agents, non armés (pour l’instant), afin notamment que la police nationale puisse se concentrer sur ses autres missions (comme le maintien de l’ordre, la lutte antiterroriste…)
L’article 12 autorise la création de brigades cynophiles (des chiens) pour la police municipale sur décision du maire.
3. La protection renforcée des polices
L’article 24 (devenu article 52), quand à lui, est resté dans un flou bien étudié. Dorénavant, il punit la « provocation à l’identification », dans le but manifeste de porter atteinte à l’intégrité physique ou psychologique d’un agent de police. Il n’est plus fait directement mention de la diffusion d’image mais les dispositions concernant la diffusion de vidéo ont été transférées dans l’article 18 de loi séparatisme.
Ce même article punit également le fait de traiter des données concernant un fonctionnaire ou une personne chargée d’une mission de service public sans y être autorisé par le RGPD ou la loi informatique et libertés. Cette interdiction est parfaitement redondante avec le droit existant, et semble viser à rassurer encore davantage la police contre des initiatives comme le « cop-watching ».
L’article 70 autorise le fichage (enregistrement de la transaction et identité de l’acquéreur) d’articles « pyrotechniques destinés au divertissement » : « Toute tentative de transaction suspecte fait l’objet d’un signalement auprès d’un service désigné par décision du ministre de l’intérieur. »
Nous le répétons depuis des mois : cette loi est destinée à protéger la police contre la population, à satisfaire les velléités belliqueuses de certains syndicats de police et de sécurité privée, et n’améliorera en rien la sécurité de la population. Il est fondamental, pour les droits et la démocratie, que le Conseil constitutionnel, seul véritable contre-pouvoir institutionnel dans cette procédure, soit saisi et censure ce dernier affront sécuritaire.
";s:7:"dateiso";s:15:"20210416_152903";}s:15:"20210414_163401";a:7:{s:5:"title";s:68:"Jugement contre le renseignement : indices d’une demi-victoire ?";s:4:"link";s:100:"https://www.laquadrature.net/2021/04/14/jugement-contre-le-renseignement-indices-dune-demi-victoire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17130";s:7:"pubDate";s:31:"Wed, 14 Apr 2021 14:34:01 +0000";s:11:"description";s:259:"Deux jours avant l’audience du 16 avril au Conseil d’État, le rapporteur public vient de nous informer du sens des conclusions qu’il soutiendra dans notre grande affaire contre la surveillance de masse des télécommunications.
Si le…";s:7:"content";s:5276:"
Deux jours avant l’audience du 16 avril au Conseil d’État, le rapporteur public vient de nous informer du sens des conclusions qu’il soutiendra dans notre grande affaire contre la surveillance de masse des télécommunications.
Si le Conseil d’État ne sera pas obligé de suivre les conclusions du rapporteur public, elles offrent de premiers indices sur ce que nous pouvons espérer gagner et perdre au terme de ces 6 ans de procédure.
Demi-victoire
Du côté de la victoire, le rapporteur public s’oppose au souhait du gouvernement de placer la France en dehors du champ d’application du droit de l’Union européenne. Ainsi, pour l’essentiel, le rapporteur public demande à ce que soient abrogés les décrets qui imposent aux opérateurs de télécommunications de conserver pendant un an les données de connexion de l’ensemble de la population (liste des correspondants téléphoniques, des antennes relais croisées, etc.). Telle qu’exigée par la Cour de justice de l’Union européenne, cette conservation généralisée doit être limitée aux seules périodes d’état d’urgence sécuritaire — ce qui n’est pas le cas en France.
Autre bonne nouvelle : le rapporteur public exige que les services de renseignement ne puissent plus exploiter nos données de connexion ou de localisation qu’en situation d’urgence sécuritaire et après s’être soumis au contrôle d’une autorité indépendante disposant de pouvoirs de contrainte. Actuellement, c’est la CNCTR (commission nationale de contrôle des techniques de renseignement) qui est chargée de surveiller les services de renseignement, mais son rôle se limite à donner des avis dépourvus de tout effet contraignant. Ici encore, la Cour de justice de l’UE a demandé à la France de corriger ce manquement, le rapporteur public demande au Conseil d’État de s’exécuter.
Demi-défaite
Hélas, à côté de ces deux espoirs importants, les conclusions du rapporteur public sont négatives sur trois points.
Premièrement, et contrairement à ce que demande la Cour de justice de l’UE, le rapporteur public n’appelle pas à la suppression des décrets qui obligent aux hébergeurs Internet de conserver pendant un an l’adresse IP de l’ensemble des personnes qui publient des informations sur leur service. Si le Conseil d’État suivait cette position, il placerait la France en manquement vis-à-vis des exigences européennes en matière de protection de l’anonymat sur Internet.
Deuxièmement, le rapporteur public ne demande pas à ce que les services de renseignement mettent fin aux algorithmes qu’ils déploient sur les réseaux de télécommunications afin de détecter automatiquement de nouvelles cibles. Pourtant, ici encore, la Cour de justice a exigé que cette technique de surveillance de masse soit limitée aux périodes d’état d’urgence sécuritaire — limite que la loi française refuse de prévoir.
Troisièmement, le rapporteur public suggère de laisser au gouvernement un délai de six mois afin de mettre le droit français en conformité avec le droit de l’UE. Pourtant, la Cour de justice de l’UE s’était expressément opposée à l’hypothèse d’un tel délai : le gouvernement français sait depuis plusieurs années que la France viole le droit européen et il n’y a donc aucune raison pragmatique de retarder le respect de nos libertés fondamentales.
Futur incertain
Si les conclusions du rapporteur public semblent dessiner une demi-victoire (rappelant pour beaucoup la défaite victorieuse que nous avions obtenue devant la Cour de justice de l’UE en octobre 2020), le futur reste en vérité largement incertain. Notre affaire est d’un poids politique rare, qu’il s’agisse de l’avenir des services de renseignement ou du sort de la France au sein de l’Union européenne. Ce poids est tel que le Conseil d’État a choisi de rendre sa décision dans sa formation exceptionnelle la plus solennelle, l’Assemblée du contentieux.
Ainsi, nous restons préparées à n’importe quel coup de théâtre et, notamment, à celui que le respect de nos libertés fondamentales impose : que le Conseil d’État ne s’arrête pas au demi-compromis proposé par le rapporteur public mais applique entièrement la décision de la Cour de justice en garantissant l’anonymat sur Internet et en s’opposant sans délai à toute mesure de surveillance de masse.
";s:7:"dateiso";s:15:"20210414_163401";}s:15:"20210414_095750";a:7:{s:5:"title";s:71:"GendNotes : victoire temporaire contre l’interconnexion des fichiers";s:4:"link";s:106:"https://www.laquadrature.net/2021/04/14/gendnotes-victoire-temporaire-contre-linterconnexion-des-fichiers/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17115";s:7:"pubDate";s:31:"Wed, 14 Apr 2021 07:57:50 +0000";s:11:"description";s:264:"Dans une décision rendue hier, le Conseil d’État s’oppose à l’alimentation sauvage des fichiers de police. Il a ainsi accueilli partiellement les griefs que nous soulevions contre l’application de prises de notes de la gendarmerie…";s:7:"content";s:4270:"
Dans une décision rendue hier, le Conseil d’État s’oppose à l’alimentation sauvage des fichiers de police. Il a ainsi accueilli partiellement les griefs que nous soulevions contre l’application de prises de notes de la gendarmerie nationale, GendNotes, qui prévoyait des possibilités illimités d’interconnexions avec d’autres fichiers. La plus haute juridiction administrative a donc fait de GendNotes un gadget sécuritaire, maintenant que l’application est dépouillée des possibilités de reconnaissance faciale.
Comme nous l’expliquions l’année dernière, l’application de prises de notes de la gendarmerie nationale était un cheval de Troie de la reconnaissance faciale. En autorisant, comme cela était possible avant la décision d’hier du Conseil d’État, le transfert des notes des gendarmes (dont les photos) vers un nombre illimité de fichiers de police, il était donc possible d’alimenter le fichier des Traitements des antécédents judiciaires (TAJ) puis de faire de la reconnaissance faciale depuis ce fichier (voir notre recours contre le TAJ).
Le Conseil d’État y a mis fin. Alors que le ministère de l’intérieur affirmait depuis le début de cette affaire que le TAJ n’était pas directement concerné par cette interconnexion, le Conseil d’État lui a sèchement rappelé le droit : le décret était mal rédigé, trop permissif et permettait bien d’alimenter n’importe quel autre fichier de police. Le couperet est tombé : GendNotes ne peut désormais plus alimenter un quelconque autre fichier.
Même si nous développions dans notre recours d’autres griefs que le Conseil d’État n’a pas retenus, nous nous réjouissons de cette victoire. Cette décision rappelle que la police et le ministère de l’intérieur ne peuvent pas faire tout et n’importe quoi avec les données personnelles.
Cette victoire n’est, toutefois, que temporaire. Le gouvernement pourra revenir, comme il l’a déjà annoncé à l’occasion de cette affaire, avec une réforme des fichiers, pour encadrer cette interconnexion. Il devra, en revanche, minutieusement encadrer ce transfert de données et explicitement préciser les fichiers vers lesquels un tel transfert est possible.
Cette affaire a en revanche mis en lumière les pratiques douteuses de la gendarmerie nationale. En effet, dès 2017, on pouvait retrouver des traces de l’utilisation de GendNotes en dehors de tout cadre légal ou réglementaire. Ce n’est qu’en 2020 que cette application a — mal — été encadrée.
Surtout, nous avons découvert à l’occasion de ce recours l’existence d’une myriade d’applications mobiles pour les gendarmes, alors que rien ne les autorise. En juillet dernier, un rapport sénatorial nous apprenait que GendNotes n’est que la partie émergée de l’iceberg et que l’écosystème d’applications mobiles « Neogend » s’étend au-delà de la seule prise de notes. Il existe ainsi, également, une application dénommée « Messagerie tactique » destinée à interroger des fichiers de police. Mais aussi une application dédiée à l’interrogation du TAJ et, potentiellement, à la généralisation et à la facilitation de l’accès aux possibilités de reconnaissance faciale par les gendarmes. Cette première victoire contre GendNotes ne peut que nous pousser à aller en chercher d’autres contre cet ensemble de dispositifs et d’interconnexions illicites.
";s:7:"dateiso";s:15:"20210414_095750";}s:15:"20210407_144444";a:7:{s:5:"title";s:49:"Jugement imminent contre la surveillance de masse";s:4:"link";s:90:"https://www.laquadrature.net/2021/04/07/jugement-imminent-contre-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17103";s:7:"pubDate";s:31:"Wed, 07 Apr 2021 12:44:44 +0000";s:11:"description";s:254:"
D’ici deux ou trois semaines, le Conseil d’État rendra sa décision finale dans l’affaire la plus importante que La Quadrature ait jamais porté en justice : celle contre les services de renseignement français. Ce sera le…";s:7:"content";s:21148:"
D’ici deux ou trois semaines, le Conseil d’État rendra sa décision finale dans l’affaire la plus importante que La Quadrature ait jamais porté en justice : celle contre les services de renseignement français. Ce sera le terme de six années de procédure, de dizaines de mémoires et d’innombrables rebondissements qui auront contribué à faire de notre association une grande partie de ce qu’elle est aujourd’hui.
Cette aventure se clôt dans un fracas prodigieux. Coincé au pied du mur, le gouvernement français joue ses dernières cartes dans une stratégie aussi désespérée que destructrice : nier la légitimité des institutions européennes et, ainsi, placer la France dans une quasi-indépendance de fait vis-à-vis de l’Union européenne.
Peu importe le droit, tout doit être sacrifié pour sauver la surveillance de masse.
Les juges contre la surveillance
L’aventure commence il y a sept ans. Le 8 avril 2014, nous nous réjouissions d’une « décision historique » : « la Cour de Justice de l’Union européenne (CJUE) venait de s’opposer au fichage systématique de nos communications en ligne ». De façon inédite, la Cour estime que le droit européen interdit qu’un État puisse obliger les opérateurs de télécommunications à conserver des données de connexion sur toute la population : liste des appels et messages émis et reçus par chaque personne, listes des antennes téléphoniques croisées par tous les téléphones portables, adresses IP permettant de lever l’anonymat sur Internet, etc. C’est notamment ce qu’impose la France, où chaque personne est considérée par l’administration comme un potentiel suspect à surveiller.
Alors que le gouvernement français aurait du abroger ce régime, un an après la décision de la Cour de justice, il n’en avait toujours rien fait : le 27 avril 2015, nous nous associons à FFDN et FDN pour lui demander officiellement d’abroger les décrets organisant la conservation généralisée des données de connexion. Par son silence, le gouvernement a refusé notre demande. Le 1er septembre 2015, nous avons saisi le Conseil d’État pour contester ce refus et, ainsi, faire tomber le système français de conservation généralisée des données (nous avons développé nos arguments pendant un an encore dans diverses écritures ici, ici, là ou encore là).
Le 21 décembre 2016, tandis que notre affaire avançait doucement, intervenait ailleurs une deuxième décision historique de la Cour de justice : dans son célèbre arrêt Tele2, elle dénonçait la conservation généralisée des données de connexion imposée par les droits suédois et anglais. Il ne restait plus au Conseil d’État qu’à appliquer directement cette décision dans notre affaire française pour nous donner victoire. Mais la procédure n’allait pas suivre un déroulement classique.
Dialogue des juges
Par une décision du 26 juillet 2018, plutôt que de se soumettre directement à la Cour de justice de l’UE, dont l’autorité lui est supérieure, le Conseil d’État a préféré lui demander de confirmer une troisième fois sa position. Même si ce nouvel échange allongeait notre procédure de plusieurs années (trois ans, au final), nous l’appelions aussi de nos vœux : si la Cour européenne condamnait spécifiquement le droit français (de même qu’elle avait déjà condamné le droit suédois et anglais dans Tele2), nous espérions que le gouvernement n’aurait absolument plus aucune excuse pour ne pas renoncer à son système illicite de surveillance.
Les 9 et 10 septembre 2019, nous plaidions devant la Cour européenne contre la moitié des gouvernements européens venus en soutien de la France, de la Belgique et du Royaume-Uni, qui mettaient en œuvre le même régime illicite de conservation de données et se voyaient ainsi visés par des requêtes semblables à la nôtre (lire le texte de notre plaidoirie).
Fin d’une trilogie
Le 6 octobre 2020, la Cour de justice de l’UE rendait sa décisionLa Quadrature du Net, dernier chapitre de cette trilogie européenne. Hélas, comme l’espéraient le Conseil d’État et le gouvernement, la Cour est largement revenue sur son intransigeance des premiers épisodes et cherche désormais un « juste milieu » entre protection des libertés et surveillance de masse (juste milieu amer dans lequel nous avions vu une « défaite victorieuse »).
Si la Cour continue d’interdire par principe la conservation généralisée, elle ajoute une nouvelle exception en période d’état d’urgence sécuritaire, où cette surveillance de masse redevient licite. De plus, elle autorise aussi, même hors état d’urgence, que les fournisseurs d’accès à Internet soient contraints de conserver les adresses IP de l’ensemble de la population (mais uniquement des IP et non d’autres types de données).
Concrètement, cela signifie que la police pourra demander à votre fournisseur d’accès à Internet quelle adresse IP vous était attribuée, par exemple, le 25 octobre 2020.
Si cette possibilité est un frein important à notre espoir de rétablir un équilibre plus favorable au droit à l’anonymat sur Internet, ce frein est en revanche compensé par une nouvelle protection posée par la Cour de justice : l’État ne peut pas imposer aux hébergeurs (forum, réseaux sociaux, plateforme de vidéo) de conserver l’adresse IP des personnes qui y publient des informations. Dans notre exemple, cela signifie que, même si la police connaît votre adresse IP, elle ne pourra pas savoir si c’est à partir de cette adresse que @jeancastou a publié telle caricature de Macron ou tel appel à l’insurrection le 25 octobre sur un service d’hébergement qui ne sera pas tenu de conserver les informations relatives aux contenus publiés. Par exemple, sur le service Mamot.fr que nous hébergeons, nous ne conservons ces données que 14 jours, et ce pour des raisons purement techniques.
On imagine donc que la levée de l’anonymat ne concernera principalement que des événements déterminés, « en cours », et sur des personnes précises. En effet, les enquêtes rétrospectives pouvant porter sur l’ensemble des activités en ligne de la population ont été rendues plus difficiles par les interdictions posées par la Cour de justice de l’UE.
Ce « juste milieu » est loin de nous protéger de la surveillance de masse tant le gouvernement sait déjà abuser des exceptions en matière d’état d’urgence. Et pourtant, même si les exigences posées par la Cour on été revues à la baisse, le droit français est encore très loin de les respecter : actuellement, en France, la conservation généralisée des données de connexion n’est limitée ni aux périodes d’état d’urgence ni aux seules adresses IP (pour rappel, sont aussi conservées en permanence et pendant un an les listes d’appels, messages et positions des antennes téléphoniques rencontrées par toute la population). La Cour de justice a été explicite dans sa décision : le droit français viole les libertés fondamentales protégées par le droit de l’Union.
Affront désespéré
Cette situation ressemble à celle à laquelle nous espérions parvenir en 2018 : le gouvernement français est au pied du mur, sans aucune porte pour se dérober. La Cour de justice de l’UE a été claire : il doit réformer le droit en profondeur afin de limiter la conservation généralisée aux périodes d’état d’urgence et aux adresses IP.
Et pourtant, le gouvernement tente encore de fuir par un affront désespéré : dans son récent mémoire en défense, il prétend que la Cour de justice aurait usurpé ses pouvoirs car, contrairement à ce qu’elle prétend, les traités européens lui interdiraient de limiter les capacités des États membres en matière de lutte contre le terrorisme et de surveillance sécuritaire.
Si cet affront est désespéré, c’est d’abord car il est absurde en droit : l’article 19 du Traité sur l’UE (TUE) prévoit bien que c’est à la Cour de justice que revient « l’interprétation et l’application des traités », et l’article 344 du Traité sur le fonctionnement de l’UE (TFUE) souligne que ces questions ne peuvent être tranchées autrement. Dans sa jurisprudence bien établie, le Conseil d’État admet d’ailleurs déjà clairement qu’il doit se soumettre aux interprétations que la Cour de justice donne des traités.
Le gouvernement ne donne au Conseil d’État aucun argument juridique pour justifier qu’il renonce à une jurisprudence aussi fondamentale. En vérité, le gouvernement ne se donne même pas la peine d’aller sur le terrain juridique afin de débattre de la légalité d’un tel régime de conservation. Il se contente d’utiliser de mauvais arguments de philosophie politique, tout en mobilisant quelques jugements isolés rendus dans d’autres pays et qui n’ont pas vraiment de lien avec notre affaire (lire notre mémoire pour le détail de notre réponse).
Frexit sécuritaire
Au delà de la discussion juridique, le plus surprenant dans la position du gouvernement est qu’elle contredit la posture européenne de LREM.
En souhaitant retirer à la Cour de justice sa légitimité pour interpréter les traités européens en dernier ressort, le gouvernement français remet en cause l’existence même d’un ordre juridique européen : si chaque État pouvait décider seul du sens des traités européens, l’Union européenne ne serait plus qu’une juxtaposition d’ordres nationaux indépendants les uns des autres, libérés de toute institution capable de les soumettre à un ensemble commun de normes. Ainsi, afin de maintenir son système de surveillance de masse contraire aux droits humains, la France souhaite devenir indépendante de l’Union européenne sans avoir à la quitter formellement.
Plus étrange encore : la stratégie anti-européenne du gouvernement conduit à saper sa position en matière de lutte anti-terroriste. À suivre sa nouvelle position, le règlement de censure anti-terroriste, initialement demandé par la France et bientôt adopté par le Parlement européen, pourrait ne pas être applicable en France puisque l’Union européenne ne serait pas compétente en matière de lutte contre le terrorisme…
Cette contradiction invraisemblable montre que la défense du gouvernement tient davantage à un sursaut désespéré que d’une stratégie d’ensemble bien mûrie. Mais cette contradiction nous montre autre chose : la lutte anti-terroriste n’est pas sa véritable préoccupation dans notre affaire.
Surveillance politique
Le 22 mars 2021, nous participions à une séance orale d’instruction devant le Conseil d’État. Le directeur général de la sécurité intérieur (DGSI) expliquait alors que la décision de la Cour de justice ne remettait pas vraiment en cause l’efficacité de la lutte contre le terrorisme. En effet, cette lutte pourra continuer à être mise en œuvre puisqu’elle est directement concernée par les nouvelles exceptions prévues par la Cour de justice et bénéficie déjà aujourd’hui d’un arsenal législatif très large (beaucoup trop large). La principale crainte de la DGSI était ailleurs : que les services de renseignement ne puissent plus efficacement surveiller les personnes susceptibles de participer à des « groupements violents », mentionnant explicitement le cas des gilets jaunes, ou les personnes représentant un danger pour les « intérêts économiques et industriels majeurs de la France ».
Si la franchise est surprenante, elle recentre le débat : la lutte contre le terrorisme n’est pas vraiment la raison qui pousse le gouvernement à vouloir s’affranchir de la protection des libertés ; l’enjeu est le maintien de la répression politique, dans le contexte actuel où la moindre manifestation est considérée comme un groupement potentiellement violent et où les militants soucieux de justice sociale et écologique sont considérés comme nuisant à la sécurité et aux intérêts des grandes industries du pays.
C’est ce qu’annonçait déjà l’Élysée en 2019, dans sa feuille de route à cinq ans sur le renseignement : « l’analyse et le suivi des mouvements sociaux et crises de société par les services de Renseignement constituent une priorité ». L’Élysée dénonce notamment des « affirmations de vie en société qui peuvent exacerber les tensions au sein du corps social », telles que des « revendications d’ordre […] éthique ».
À la suite de la DGSI, divers procureurs et hauts gradés de la police ont tenté de corriger cette position embarrassante par une posture sécuritaire beaucoup plus convenue. Sans preuve ni chiffre, ces hommes ont juré que la police ne pourrait plus jamais travailler sans pouvoir consulter la liste complète des antennes téléphoniques croisées par chaque personne depuis un an. Nous n’avons pas manqué de rappeler que la police s’en était très bien passée au cours des siècles précédents et que, même aujourd’hui, elle ne manque pas d’outils nouveaux, nombreux et perfectionnés pour mener à bien ses enquêtes (lire notre dernier mémoire à ce sujet).
Bref, pas grand chose n’a pu effacer cette impression amère : le gouvernement est prêt à payer le prix fort (remettre en cause la construction européenne) pour continuer à nous surveiller massivement pour des finalités politiques et de contrôle social.
Finalités illicites
C’est à ce sujet qu’intervient le second apport majeur de la trilogie européenne contre la surveillance de masse : la Cour de justice interdit aux États membres d’exploiter des données de connexion pour des finalités politiques. Elle n’autorise que la lutte contre la « criminalité grave » ou pour défendre la sécurité nationale.
Comme on l’a vu, la France souhaite aller et va déjà bien au-delà. La loi française prévoit un très large éventail de finalités qui vont de la lutte contre les manifestations illicites à la défense des traités européens, en passant par la lutte contre le petit trafic de drogue ou la défense des « intérêts économiques, industriels et scientifiques majeurs de la France ».
Cette longue liste vient de la loi de renseignement de 2015. Ici aussi, nous avons saisi le Conseil d’État pour demander l’annulation des cinq décrets d’application de cette loi. Ici aussi, ces cinq affaires ont conduit le Conseil d’État à interroger la Cour de justice, qui nous a largement donné raison en rappelant sans nuance que la surveillance doit se limiter à la lutte contre la criminalité grave et à la protection de la sécurité nationale.
Au passage, la Cour a rappelé que, contrairement à ce que prévoit la loi renseignement en France, les mesures de surveillance doivent être soumises au contrôle préalable d’une autorité indépendante disposant d’un véritable pouvoir de contrainte. Elle a aussi souligné que les « boites noires », ces algorithmes supposés détecter automatiquement des comportements suspects en analysant l’ensemble du réseau, relevaient de la surveillance de masse illicite.
Comme pour le reste, nous vous invitons à lire notre récent mémoire pour le détail de notre argumentation.
Cette question de « finalités politiques » des mesures de surveillance a été la toute première affaire que La Quadrature a porté devant des juges en 2015, juste avant d’attaquer les décrets instaurant la conservation généralisée des données de connexion puis de s’en prendre à la loi renseignement. C’est par cette lutte initiale que nous avons appris à agir en justice. Cette lutte est à la fois la plus ancienne et probablement la plus importante que nous avons portée en justice. Les effets de la future décision du Conseil d’État risque d’être considérables : si nous nous gagnons, ce sera la fin de la conservation généralisée des données de connexion, la limitation des finalités, l’apparition d’un contrôle indépendant effectif. Si nous perdons, la France se placera en indépendance de fait vis à vis de l’Union européenne afin de poursuivre sa surveillance de masse.
";s:7:"dateiso";s:15:"20210407_144444";}s:15:"20210326_155635";a:7:{s:5:"title";s:51:"GendNotes : entre flicage inavoué et mauvaise foi";s:4:"link";s:88:"https://www.laquadrature.net/2021/03/26/gendnotes-entre-flicage-inavoue-et-mauvaise-foi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17077";s:7:"pubDate";s:31:"Fri, 26 Mar 2021 14:56:35 +0000";s:11:"description";s:229:"Il y a plus d'un an, le gouvernement autorisait par décret la gendarmerie à utiliser une application de prise de notes sur téléphone mobile intitulée GendNotes. Nous avions déposé un recours contre ce décret devant…";s:7:"content";s:5354:"
Il y a plus d’un an, le gouvernement autorisait par décret la gendarmerie à utiliser une application de prise de notes sur téléphone mobile intitulée GendNotes. Nous avions déposé un recours contre ce décret devant le Conseil d’État l’année dernière et venons tout juste de recevoir la défense du ministère de l’intérieur. Mais, alors que celle-ci aurait mérité plus de temps pour y répondre, la plus haute juridiction administrative accélère le pas et a d’ores et déjà prévu une audience lundi prochain, 29 mars, lors de laquelle le rapporteur public conclura au rejet partiel de notre recours.
Comme nous le dénoncions au moment de la publication du décret, l’application GendNotes fait l’impasse sur les garanties les plus élémentaires (lire notre premier mémoire). Alors que la CNIL pointait du doigt le fait que la rédaction du décret permet un transfert des données de GendNotes vers un nombre illimité d’autres fichiers de police, elle fut parfaitement ignorée. Nous alertions alors contre le fait que GendNotes est un cheval de Troie de la reconnaissance faciale puisqu’il permet une alimentation du fichier TAJ, lequel autorise de tels dispositifs de reconnaissance faciale.
La stratégie de défense du gouvernement consiste à affirmer que l’application GendNotes ne permettrait pas d’alimenter le TAJ. Le rapporteur public semble vouloir donner tort au gouvernement sur ce point puisqu’il prononcera lundi des conclusions qui vont dans le sens d’une annulation partielle du décret, précisément sur la question du transfert de données vers d’autres fichiers (dont le TAJ) ultérieurement à leur collecte dans GendNotesEnviron deux jours ouvrés avant l’audience, le sens des conclusions du rapporteur public est communiqué aux parties. Sans connaître le raisonnement tenu, nous connaissons déjà le résultat. Il faut cependant garder en tête que les conclusions du rapporteur public ne lient pas la formation de jugement et que le Conseil d’État, dans son arrêt final, peut très bien contredire les conclusions de son rapporteur public..
En revanche, le rapporteur public semble faire l’impasse sur la proportionnalité de ce traitement de données et les garanties apportées. Alors que GendNotes vise aussi à collecter des données sensibles (même si celles-ci ne peuvent être transférées dans d’autres fichiers de police) dans le seul objectif de faciliter la vie des gendarmes, nous dénoncions un gadget aux graves conséquences sur les droits et libertés. Le rapporteur public semble sur le point de valider un système dans lequel la police décide seule des informations collectées, sans que ne soit prévu un quelconque contrôle sur la pertinence des données ainsi collectées. Il semble également vouloir faire fi du principe de « nécessité absolue » pourtant requis par le droit et, nous le pensons, totalement absent dans ce dispositif gadget de prises de notes.
Dès 2017, un rapport de l’Assemblée nationale indiquait déjà l’existence et l’utilisation de l’application GendNotes. Celle-ci n’est toutefois qu’un élément parmi d’autres d’une désormais très longue liste de dispositifs de police utilisés en toute illégalité puis autorisés a posteriori. On pourrait citer le cas de la loi renseignement de 2015 qui légalisait les pratiques préexistantes des services de renseignement. On pourrait aussi citer l’exemple des drones, utilisés depuis de nombreuses années pour surveiller les manifestations avant que nous les fassions interdire par le Conseil d’État, et que la proposition de loi Sécurité Globale veut maintenant légaliser. Et que dire de la reconnaissance faciale du TAJ qui existait des années avant la création formelle du fichier de police et que la loi Sécurité Globale vise à étendre ?
Nous avons malgré tout, dans l’urgence, répondu au gouvernement. La décision finale qui suivra l’audience de lundi devrait arriver dans les prochaines semaines. Pour continuer ce combat sur des fronts de plus en plus nombreux, nous avons, plus que jamais, besoin de votre aide grace à vos dons.
";s:7:"dateiso";s:15:"20210326_155635";}s:15:"20210325_111723";a:7:{s:5:"title";s:110:"Lettre commune de 61 organisations européennes pour demander le rejet du règlement de censure antiterroriste";s:4:"link";s:149:"https://www.laquadrature.net/2021/03/25/lettre-commune-de-61-organisations-europeennes-pour-demander-le-rejet-du-reglement-de-censure-antiterroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17073";s:7:"pubDate";s:31:"Thu, 25 Mar 2021 10:17:23 +0000";s:11:"description";s:264:"Avec 60 organisations européennes, nous demandons aux parlementaires européens de rejeter le projet de règlement de censure antiterroriste sur lequel ils sont appelés à voter le 28 avril prochain.
Ce texte sécuritaire obligera l’ensemble des acteurs…";s:7:"content";s:10550:"
Avec 60 organisations européennes, nous demandons aux parlementaires européens de rejeter le projet de règlement de censure antiterroriste sur lequel ils sont appelés à voter le 28 avril prochain.
Ce texte sécuritaire obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme terroriste par la police, et ce sans intervention préalable d’un juge. Cette obligation de retrait en une heure est exactement celle qui, au sein de la loi Avia, a été censurée par le Conseil constitutionnel en juin 2020. Plusieurs parlementaires français continuent pourtant à défendre ce projet.
La lettre en PDF (et en anglais), recopié ci-dessous avec la liste des signataires :
Chers membres du Parlement européen,
Nous vous écrivons pour vous faire part de nos préoccupations concernant la proposition de règlement de l’Union européenne relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Nous invitons les membres du Parlement européen à voter contre l’adoption de la proposition.
Depuis 2018, nous, les organisations de défense des droits humains, associations de journalistes et chercheurs soussignés, mettons en garde contre les graves menaces que cette proposition législative fait peser sur les droits et libertés fondamentaux, en particulier la liberté d’expression et d’opinion, la liberté d’accès à l’information, le droit à la vie privée et l’État de droit.
Grâce au travail de l’équipe de négociation du Parlement européen, à un débat élargi et à la participation de la société civile, un certain nombre de problèmes ont été abordés au cours des trilogues entre le Parlement européen et le Conseil de l’Union européenne.
Toutefois, malgré le résultat des dernières négociations du trilogue, le texte final de la proposition de règlement contient toujours des mesures dangereuses qui, à terme, affaibliront la protection des droits fondamentaux dans l’UE. Cela risque également de créer un dangereux précédent pour la réglementation des contenus en ligne dans le monde entier.
La proposition de règlement doit faire l’objet d’un vote final en plénière au Parlement européen en avril 2021. Nous invitons les membres du Parlement européen à voter contre l’adoption de la proposition pour les raisons suivantes :
1. La proposition continue d’inciter les plateformes en ligne à utiliser des outils automatisés de modération de contenu, tels que des filtres de téléchargement
Le court délai imposé par la proposition de règlement aux hébergeurs en ligne pour retirer le contenu considéré comme étant à caractère terroriste incite fortement les plateformes à déployer des outils automatisés de modération de contenu, tels que les filtres de téléchargement. Les pratiques actuelles de modération de contenu se caractérisent par le profond manque de transparence et de précision de la prise de décision automatisée. Parce qu’il est impossible pour les outils automatisés de différencier invariablement le militantisme, les contre-discours, et la satire à propos du terrorisme du contenu considéré comme terroriste lui-même, une automatisation accrue entraînera à terme la suppression de contenus légaux comme le contenu journalistique, le traitement discriminatoire des minorités et de certains groupes sous-représentés. Les plateformes suppriment déjà d’énormes quantités de contenus publiés par des survivants, des civils ou des journalistes documentant la violence dans les zones de guerre, tel que le montre le travail des Syrian and Yemeni Archives, ce qui peut entraver les efforts de responsabilisation. La proposition de règlement, qui manque de mesures de protection afin d’empêcher de telles pratiques de suppression erronées lorsque des outils automatisés sont utilisés, ne fera que renforcer cette tendance. En outre, les filtres de téléchargement peuvent avoir un effet négatif sur l’internet, notamment en ce qui concerne son architecture ouverte et ses éléments constitutifs interopérables.
2. Il existe un manque cruel de contrôle judiciaire indépendant
La proposition de règlement demandent aux États membres de désigner, à leur discrétion, les autorités compétentes qui seront investies des pouvoirs nécessaires pour mettre en œuvre les mesures prévues par le règlement, notamment l’émission d’injonctions de retrait de contenu. Même si la proposition indique que les autorités doivent être objectives, non discriminantes, respectueuses des droits,nous pensons néanmoins que seuls les tribunaux ou les autorités administratives indépendantes faisant l’objet d’un contrôle judiciaire devraient avoir le pouvoir d’émettre des injonctions de suppression de contenu. L’absence de contrôle judiciaire constitue un risque grave pour la liberté d’expression et l’accès à l’information. Il porte également atteinte à la Charte des droits fondamentaux, qui protège la liberté de recevoir et de communiquer des informations et stipule que l’expression licite est protégée et ne devrait être limitée qu’ultérieurement, par un tribunal et sur demande légitime.
3. Les États membres émettront des injonctions de suppression transfrontalières sans aucun garde-fou
Selon les résultats du trilogue, toute autorité compétente aura le pouvoir d’ordonner la suppression d’un contenu en ligne, hébergé n’importe où dans l’UE, dans un délai d’une heure. Cela signifie qu’un État membre peut étendre sa compétence d’exécution au-delà de son territoire sans contrôle judiciaire préalable et sans tenir compte des droits des personnes dans les juridictions concernées. Compte tenu des graves menaces qui pèsent sur l’État de droit dans certains États membres de l’UE, la confiance mutuelle qui sous-tend la coopération judiciaire européenne pourrait être sérieusement compromise. En outre, la procédure de notification, émise à l’État membre concerné, et de vérification parce même État, prévue dans le texte actuel, ne contient pas de garanties suffisantes contre une intervention excessive et les abus de pouvoir d’un État. Elle ne permettra pas non plus de résoudre les désaccords entre les États membres sur ce qui relève du terrorisme, de l’humour, de l’expression artistique ou du reportage journalistique.
Nous demandons instamment au Parlement européen de rejeter cette proposition, car elle pose de graves menaces aux droits et libertés fondamentaux, en particulier la liberté d’expression et d’opinion, la liberté d’accès à l’information, le droit à la vie privée et l’État de droit. De plus, elle créera un dangereux précédent pour toute future législation européenne réglementant l’écosystème numérique en faussant le cadre d’application de la loi sous prétexte de renforcer le marché unique numérique. Par conséquent, la réglementation sur les contenus terroristes dans son état actuel n’a pas sa place dans le droit européen.
Signataires
Access Now, International
Amnesty International
Antigone, Italian
ARTICLE 19, International
Asociația pentru Tehnologie și Internet (ApTI), Romania
Association of European Journalists (AEJ), Belgium
Bits of Freedom, the Netherlands
Bulgarian Helsinki Committee, Bulgaria
Centre for Democracy & Technology (CDT), International
Chaos Computer Club (CCC), Germany
Civil Liberties Union for Europe (Liberties), International
Comité de Vigilance en matière de Lutte contre le Terrorisme (Comité T), Belgium
Committee to Protect Journalists (CPJ), International
Communia, International
Digitalcourage, Germany
Digitale Gesellschaft, Germany
Digital Rights Ireland, Ireland
Državljan D, Slovenia
Electronic Frontier Finland (Effi), Finland
Electronic Frontier Foundation (EFF), USA
Elektroniks Forpost Norge (EFN), Norway
Entropia e.V., Germany
epicenter.works, Austria
European Digital Rights (EDRi), International
European Federation of Journalists (EFJ), International
Fitug e.V., Germany
Föreningen för digitala fri-och rättigheter (DFRI), Sweden
Freemuse, International
Global Forum for Media Development (GFMD), International
Global Voices, International
Helsinki Foundation for Human Rights, Poland
Hermes Center, Italy
Homo Digitalis, Greece
Human Rights Monitoring Institute, Lithuania
Human Rights Watch, International
International Commission of Jurists, International
Internationale Liga für Menschenrechte, Germany
International Federation for Human Rights (FIDH), International
Internet Governance Project, School of Public Policy at the Georgia Institute of Technology
Internet Society, International
IT Political Association of Denmark (IT-Pol), Denmark
Irish Council for Civil Liberties, Ireland
La Quadrature Du Net (LQDN), France
Latvian Human Rights Committee, Latvia
Liga voor de Rechten van de Mens, the Netherlands
Liga voor Mensenrechten, Belgium
Ligue des Droits de l’Homme, France
Ligue des Droit Humains, Belgium
Mnemonic, International
Open Technology Institute, USA
Panoptykon Foundation, Poland
Ranking Digital Rights, USA
Reporters Without Borders (RSF), International
Rights International Spain, Spain
Statewatch, the United Kingdom
Vrijschrift.org, The Netherlands
Wikimedia Deutschland, Germany
Wikimedia France, France
WITNESS, International
Xnet, Spain
7amleh -The Arab Center for the Advancement of Social Media, Palestine
";s:7:"dateiso";s:15:"20210325_111723";}s:15:"20210319_112713";a:7:{s:5:"title";s:67:"Sécurité Globale : le Sénat dit oui à la surveillance de masse";s:4:"link";s:101:"https://www.laquadrature.net/2021/03/19/securite-globale-le-senat-dit-oui-a-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17048";s:7:"pubDate";s:31:"Fri, 19 Mar 2021 10:27:13 +0000";s:11:"description";s:265:"Hier, le Sénat a voté à son tour la proposition de loi sur la « Sécurité globale », cinq mois après le vote en première lecture à l’Assemblée nationale. S’agissant d’une procédure accélérée, la prochaine étape sera…";s:7:"content";s:10374:"
Hier, le Sénat a voté à son tour la proposition de loi sur la « Sécurité globale », cinq mois après le vote en première lecture à l’Assemblée nationale. S’agissant d’une procédure accélérée, la prochaine étape sera directement en commission mixte paritaire, peut-être dès le début du mois d’avril. Au vu de la version du texte votée par le Sénat, il n’y a malheureusement rien à attendre de cette commission. Nos espoirs reposent maintenant sur le Conseil constitutionnel, qui devra censurer largement les dispositions de ce texte ultra-sécuritaire.
Il y a deux semaines, nous dénoncions le texte adopté par la commission des lois du Sénat sur la proposition de loi dite de « Sécurité globale ». Après trois jours de débat en hémicycle, le Sénat vient cette fois-ci d’adopter le texte dans son ensemble.
Il a donc dit oui à l’intensification de la vidéosurveillance fixe, à l’extension de la liste des personnes pouvant avoir accès à la surveillance de la voie publique, à la transmission en direct des images des caméras-piétons, aux drones, aux hélicoptères et à l’article 24.
Le Sénat ne s’est malheureusement pas arrêté là. Il a également, par plusieurs dispositions, aggravé le texte. Mais soyons rassuré·es : il s’agit désormais de la « proposition de loi pour un nouveau pacte de sécurité respectueux des libertés ».
Surveillance vidéo des cellules de centres de rétention administrative (CRA) et de garde à vue
Le pire ajout du Sénat est peut-être celui-ci. S’accordant avec le gouvernement, les rapporteurs ont fait adopter une disposition permettant au ministre de l’intérieur de mettre des caméras dans les chambres d’isolement des centres de rétention administrative et des cellules de garde à vue.
Les propos du gouvernement sur cet ajout ont été proprement indignes. Alors que la France est régulièrement interpellée par différentes associations depuis des années, que le Contrôleur général des lieux de privations de libertés pointe régulièrement les conditions de détention indignes, que les condamnations par des juridictions françaises et internationales pleuvent, Gérald Darmanin a préféré opter pour une stratégie du mensonge en niant les graves atteintes aux droits des personnes incarcérées. Le tout pour défendre la mise en place de vidéosurveillance dans les cellules.
Derrière l’écran de fumée de la lutte contre les suicides et mutilations (alors même qu’on peine à imaginer en quoi une caméra de vidéosurveillance permettrait de lutter contre ces situations de détresses humaines), le ministre de l’intérieur, le Sénat et ses rapporteurs ont créé une surveillance permanente du peu d’intimité qui reste aux personnes retenues.
Interpellé sur l’incohérence à vouloir mettre des caméras dans des lieux insalubres, Gérald Darmanin a répondu par le déni, détournant le sujet en estimant qu’il faudrait plus de CRA et qu’« on a l’argent pour construire des CRA ». Cet argent magique n’est, visiblement, pas prévu pour améliorer le respect des conditions de détention. Mais, surtout, alors que le débat portait sur les conditions indignes d’incarcération, M. Darmanin transformait les propos de l’opposition en un soi-disant « procès scandaleux » sur de possibles actes de tortures en milieux de rétention, dans une tentative bien grossière de créer une « affaire dans l’affaire ».
Des caméras-piétons pour les gardes-champêtres
Autre ajout aggravant : l’autorisation d’une « expérimentation » pour permettre aux gardes-champêtres d’utiliser des caméras individuelles et de filmer les « incidents » se produisant ou susceptibles de se produire pendant leur intervention.
Après la police nationale et la police municipale, et après les services de sécurité des transports, c’est donc une nouvelle catégorie d’agents qui aura accès à la vidéosurveillance mouvante. Prétextant comme toujours d’une capacité soi-disant « pacificatrice » de ce dispositif — et faisant oublier que la caméra-piéton était à la base une idée de l’ancien ministre Bernard Cazeneuve pour compenser son refus de la proposition des « récépissés » de contrôle d’identité —, le gouvernement légitime encore une fois un nouveau dispositif de surveillance.
Drones : les mains libres pour le ministre de l’intérieur
Concernant les drones, l’interdiction de la reconnaissance faciale pour les images captées décidée en commission des lois demeure, mais c’est bien le seul point positif. Le Sénat a accepté de permettre également à la police municipale (et non plus seulement à la gendarmerie ou la police nationale) d’utiliser des drones pour surveiller la voie publique et constater certaines infractions. Si cette autorisation est donnée à titre expérimental, il ne faut pas se leurrer : en la matière, une expérimentation est toujours amenée à être intégrée dans le droit commun après quelques temps. Autorisation a par ailleurs été donnée à la police municipale d’utiliser des caméras embarquées sur leurs véhicules, cette fois-ci directement de manière définitive.
Le Sénat a par ailleurs laissé au ministère de l’intérieur le soin d’écrire, via un décret, ses propres lignes directrices quant à l’utilisation de ses drones, aussi bien sur la question de la formation en données personnelles que sur la proportionnalité des usages prévus. La garantie d’un avis préalable de la Cnil sur cette question n’est pas là pour nous rassurer, le ministère de l’intérieur ayant pour habitude de ne pas respecter les avis de cette dernière et la présidente de la CNIL s’étant montrée particulièrement peu lucide sur cet enjeu, lors des auditions au Sénat d’abord, puis dans l’avis de l’autorité sur le texte.
Le projet assumé d’une société sous surveillance biométrique
Enfin, le moratoire proposé par le groupe écologiste pour interdire pendant deux ans tout dispositif de vidéosurveillance biométrique a été rejeté.
Cela a néanmoins permis d’expliciter le projet de surveillance désiré par le gouvernement et la droite au Sénat. Devant le silence méprisant de l’hémicycle sur cette proposition de moratoire, une partie des sénateurs et sénatrices ont en effet demandé un scrutin public sur le vote, en précisant que rejeter ce moratoire revenait à autoriser la surveillance biométrique. Sur 344 votants, 244 ont donc voté pour la surveillance biométrique.
À cet égard, le récent décret autorisant le comptage de masques dans les transports apparaît ainsi de plus en plus comme un nouveau pied dans la porte menant à la Technopolice que nous dénonçons régulièrement.
L’idée qu’essaient de faire passer les rapporteurs au Sénat, sur un travail de « juriste sérieux » visant à encadrer les plus graves dispositions du texte, ne tient plus. Hier, non seulement aucune amélioration notable n’a été apportée au texte, mais plusieurs dispositions sont venues aggraver le danger pour nos libertés. Il reste encore l’étape de la Commission mixte paritaire, qui réunira les élu·es de l’Assemblée nationale et du Sénat mais de laquelle nous n’attendons absolument rien. Rendez-vous donc au Conseil constitutionnel pour tenter de faire barrage à ce nouveau coup de semonce sécuritaire.
";s:7:"dateiso";s:15:"20210319_112713";}s:15:"20210317_131846";a:7:{s:5:"title";s:109:"Health Data Hub : du fantasme de l’intelligence artificielle à la privatisation de nos données de santé";s:4:"link";s:141:"https://www.laquadrature.net/2021/03/17/health-data-hub-du-fantasme-de-lintelligence-artificielle-a-la-privatisation-de-nos-donnees-de-sante/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17042";s:7:"pubDate";s:31:"Wed, 17 Mar 2021 12:18:46 +0000";s:11:"description";s:286:"Projet central du « Plan national pour l’intelligence artificielle » (surnommé « AI for humanity« ), le « Health Data Hub » (HDH) est un projet visant à centraliser l’ensemble des données de santé de la population française. Il est prévu…";s:7:"content";s:22524:"
Projet central du « Plan national pour l’intelligence artificielle » (surnommé « AI for humanity« ), le « Health Data Hub » (HDH) est un projet visant à centraliser l’ensemble des données de santé de la population française. Il est prévu que le HDH regroupe, entre autres, les données de la médecine de ville, des pharmacies, du système hospitalier, des laboratoires de biologie médicale, du dossier médical partagé, de la médecine du travail, des EHPAD ou encore les données des programmes de séquençage de l’ADN [1].
Le HDH se substitue à une structure existante, le Système National de Données de Santé, avec deux principales modifications : un large élargissement des données collectées et un accès facilité, en particulier pour le secteur privé (GAFAM, « medtechs », startup, assureurs…), à ces dernières. A noter que les décrets officialisant les critères de sélection des projets ayant accès aux données ne sont toujours pas parus. Son objectif est donc, via leur centralisation, de faciliter l’utilisation de nos données de santé par le plus grand nombre d’acteurs de manière à, selon ses promoteurs-rices, « faire de la France un pays leader de l’intelligence artificielle » [2].
Ce projet, mené sans réelle concertation publique, est au centre de nombreuses controverses. Le choix du gouvernement de confier son hébergement à Microsoft, dans l’opacité la plus totale et malgré un avis particulièrement sévère de la CNIL, a soulevé de nombreuses protestations. Alors même que les critiques s’intensifiaient, le gouvernement a profité de l’état d’urgence sanitaire pour accélérer son développement, décision qui fut attaquée en justice par le collectif Interhop. Edward Snowden lui-même a pris position contre ce projet en dénonçant une capitulation du gouvernement devant « le cartel du Cloud ».
Sans remettre en question le droit à l’accès aux données médicales à des fins de recherche publique, ce texte se propose d’interroger les ressorts idéologiques du HDH et la vision du système de santé qu’il traduit, en l’inscrivant dans le contexte plus large de l’utilisation grandissante des techniques d’Intelligence Artificielle (IA) dans notre société. En effet, du système éducatif et social à la justice, en passant par la police, l’agriculture ou la santé, aucun domaine n’est aujourd’hui épargné. Alors que l’introduction de cette technologie est présentée comme inéluctable, et le recours à celle-ci comme intrinsèquement un progrès, les risques associés à son recours à outrance dans nos sociétés sont nombreux : déshumanisation [3], perte d’autonomie [4], usage contre les intérêts des patients, et, comme souvent lors de la création de nouvelles bases de données, une surveillance accrue [5]…
Aux origines du HDH : le rapport Villani ou l’IA fantasmée
La création du HDH fut initialement proposée dans le rapport Villani, publié en 2018. C’est sur la base de ce dernier que s’est construite la stratégie gouvernementale en matière d’IA.
Sa lecture permet d’appréhender la vision que se fait l’État des enjeux posés par l’IA, son positionnement par rapport à ces derniers et les risques que cette politique implique en terme de protection des données personnelles, tout particulièrement dans le domaine de la santé.
L’IA : « Une chance inouïe d’accélérer le calcul réservé à Dieu »
C’est en ces termes[6] qu’Emmanuel Macron, évoquant la philosophie de Leibniz[7], introduit le discours qu’il prononce à l’occasion de la publication du rapport Villani. L’IA, ajoute-t-il, « nous donnerait la capacité de réaliser nous-mêmes » le calcul du « meilleur des mondes possibles » que le philosophe réserve à Dieu. Selon lui, grâce à cette technique, nous serons bientôt en mesure de « parcourir beaucoup plus rapidement les chemins du malheur pour choisir le bon chemin […] plus tôt et […] plus rapidement » [6].
On retrouve ici toute la fascination exercée par les technologies, et l’informatique en particulier, sur nos dirigeant-e-s. Pour Jacques Ellul [8], ce sont d’ailleurs les politiques qui « paraissent plus que tous autres fascinés par cet instrument fabuleux », parce qu’ils-elles se trouvent « enfin maître(s) d’un instrument d’une puissance absolue » grâce auquel « tout va devenir possible ».
Après l’informatique, c’est donc à l’IA d’entretenir le mythe d’une technologie révolutionnaire et salvatrice. Comme l’écrivait André Vitalis en 1981 [9], l’IA et l’informatique sont des domaines si vastes que « dès lors, toutes les spéculations sont possibles, et à la place d’une appréciation raisonnée des possibilités de la machine, on est en présence d’une croyance à priori, en un pouvoir assez général ». Il ajoute à ce sujet que « ceci définit parfaitement une croyance magique ».
Une politique au service de finalités impensées
Cette fascination de nos dirigeant-e-s pour l’IA les empêche de prendre le recul nécessaire pour penser l’intégration de cette technique au sein d’un projet politique. Le rôle de l’Etat se limite à mettre tous les moyens à sa disposition pour préparer la France à « la révolution promise par l’IA », la faciliter, et ce, sans jamais questionner ni ses finalités ni ses moyens.
Ainsi, le rapport Villani plaide pour une véritable « transformation de l’Etat » et préconise d’adapter tant la commande publique que nos lois ou l’organisation de nos systèmes de santé et éducatif afin de lever les « freins » au développement de l’IA, « libérer la donnée » et « faire émerger une culture commune de l’innovation » [10]. Le cœur du rapport s’attache uniquement à préciser les actions à réaliser pour que la société s’adapte aux besoins techniques de l’IA.
Dans le même temps, la question de la limitation et de l’encadrement des usages de cette technologie y est quasi absente, tout comme la définition d’objectifs précis auxquels pourraient répondre une politique publique centrée autour de quelques grands projets de recherche publique. Ceux affichés par le « plan national pour l’IA » sont au contraire très vagues : permettre à la France de trouver une place parmi les « leaders » de ce domaine, ou encore « construire la véritable renaissance dont l’Europe a besoin » [6]
Il s’agit dès lors pour le pouvoir, non pas de questionner l’IA, mais de trouver de quels avantages dispose la France pour concurrencer les puissances dominantes (GAFAM, États-Unis, Chine) dans ce domaine. En se plaçant dans une logique concurrentielle, l’État embrasse implicitement le modèle défini par ces dernières et soustrait au débat public le choix de nos orientations technologiques.
Nos données de santé : un « avantage compétitif »
Les implications de ce choix vis-à-vis du HDH apparaissent rapidement. Comme Cédric Villani le précise [10] : « La situation actuelle est caractérisée par une asymétrie critique entre les acteurs de premier plan – les GAFAM […] – qui ont fait de la collecte et de la valorisation des données la raison de leur prééminence ; et les autres – entreprises et administrations – dont la survie à terme est menacée » .
Dans cette course à l’IA, l’État semble aujourd’hui dépassé par les GAFAM et les prodigieuses quantités de données qu’elles ont accumulé. A un tel point que Cédric Villani juge son existence mise en péril…
Toutefois, le rapport Villani se veut rassurant : si « le premier acte de la bataille de l’IA portait sur les données à caractère personnel » , et a été « remportée par les grandes plateformes » , le second acte va porter sur les « données sectorielles », dont le secteur de la santé est un parfait exemple. Or « c’est sur celles-ci que la France et l’Europe peuvent se différencier ».
Comment ? Grâce aux données à disposition de l’Etat français : celles collectées pour le développement de la sécurité sociale [11]. Comme l’explique clairement Emmanuel Macron : « Nous avons un véritable avantage, c’est que nous possédons un système de santé […] très centralisé, avec des bases de données d’une richesse exceptionnelle, notamment celle de l’Assurance-maladie et des hôpitaux ».
Tout est dit : pour que la France trouve sa place sur le marché de l’IA, l’État doit brader nos données de santé.
Un système de santé déshumanisé
Si le HDH est donc présenté comme un moyen de permettre à notre industrie nationale de « jouer un rôle de premier plan au niveau mondial et concurrencer les géants extra-européens » [10], il s’inscrit dans une vision plus globale d’un système de santé toujours plus quantifié et automatisé. Le rapport Villani permet en effet d’en cerner les contours : un système médical transformé pour être mis au service de l’IA, le recul des rapports humains, une médecine personnalisée basée sur l’exploitation à outrance de données personnelles et le transfert de la gestion de nouveaux pans de notre vie à des algorithmes opaques et privés.
« Hospital as a Platform » : Le corps médical au service de l’IA
L’ « Hospital as a Platform »[10], c’est ainsi que l’hôpital est désigné par le rapport Villani. Les lieux de soins y sont perçus comme de simples plateformes de données, des fournisseurs de matières premières pour les algorithmes des « medtechs ». Au delà de la violence d’une telle vision de notre système de soin, « producteur de données » [10], cela entraîne des conséquences directes tant pour le corps médical que pour la pratique de la médecine.
Puisque « les données cliniques renseignées par les médecins sont des sources d’apprentissage permanentes des IA », il devient « nécessaire que les professionnels de santé soient sensibilisés et formés pour encoder ces informations de manière à les rendre lisibles et réutilisables par la machine » [10].
Ainsi, jusqu’à présent, les soignants produisaient majoritairement des informations destinées à d’autres soignant-e-s et/ou patient-e-s. La quantification de chaque soin, introduite par la réforme de la T2A (tarification à l’activité) en 2003, avait déjà radicalement changé le rapport du soignant-e à la patient-e, tout en impactant les décisions médicales. Mais aujourd’hui c’est désormais l’ensemble de la production du personnel médical qui sera destiné à la machine. En inscrivant les relations patient-e/soignant-e dans des processus de rationalisation et de normalisation informatique, c’est le système lui-même que l’on déshumanise.
On renforce par ailleurs la charge de travail et les contraintes bureaucratiques du personnel médical, transformé à son tour en « travailleur-se du clic » pour reprendre l’expression d’Antonio Casilli [16], deux préoccupations au centre des récents mouvements de protestations [13] dans les milieux hospitaliers.
Marchandisation des données de santé
La stratégie gouvernementale prévoit la mise en place d’incitations fortes de manière à ce que le corps médical accepte ce changement de paradigme. Plusieurs pistes sont avancées :
Le rapport de préfiguration du HDH [14] indique par exemple que « les financements publics devraient être systématiquement conditionnés à la reconnaissance et au respect du principe de partage ». Un établissement médical refusant de partager les données de ses patient-e-s avec le HDH pourrait ainsi se voir ainsi privé de fonds.
Mais le coeur de la stratégie se veut plus doux. Il repose sur la rémunération des producteurs de données (hôpitaux, Ehpad, laboratoires…) par les utilisateurs-rices du HDH. Car comme le précise la mission de préfiguration, nos données de santé ont « un fort potentiel de valorisation économique » qui « se concentre principalement autour des industriels de santé, laboratoires pharmaceutiques et medtech » [14]. Ce que propose ainsi le rapport de préfiguration du HDH n’est rien de moins qu’une marchandisation de nos données de santé.
La mission de préfiguration rappelle par ailleurs qu’il sera nécessaire de « procéder à la large diffusion d’une culture de la donnée », afin de lever les freins culturels au développement de la technologie. Cette culture devra être infusée tant au niveau des responsables médicaux que des patients eux-mêmes. Et d’ajouter : « N’attendons pas d’être souffrants pour épouser cet état d’esprit » [14] …
Aujourd’hui pourtant, cette « culture de la donnée » française et européenne repose sur plusieurs textes tels la loi informatique et libertés de 1978 ou le RGPD (2018), qui visent au contraire à protéger cette donnée, et particulièrement la donnée de santé, dite « sensible » au même titre que l’orientation politique ou sexuelle. Maintenant que le contexte technique permet une analyse extrêmement pointue de ces données, il faudrait donc cesser de la protéger ?
« Deep Patient » : Du smartphone aux laboratoires d’analyses médicales
Pour Cédric Villani, les capteurs individuels de santé permettraient de participer à l’amélioration des outils d’IA, glissant vers une médecine individualisée à l’extrême, se basant sur la collecte d’une quantité toujours plus importante de données personnelles. Une médecine dans laquelle, selon lui, « le recueil des symptômes ne se fait plus seulement lors de la consultation de son médecin, mais à travers un ensemble de capteurs intégrés à l’individu (objets de « quantified self », apps de santé sur le smartphone, véritable « laboratoire d’analyses médicales distribuées ») ou à son environnement » [10].
Ce qu’évoque ici le rapport Villani, c’est le rêve d’une mesure de chaque aspect de notre vie (sommeil, alimentation, activité physique…), idéologie portée par le mouvement né aux Etats-Unis dit du « quantified self » [15]. Rêve accessible grâce à ces smartphones à qui incombe la responsabilité de collecte des données. Il est ainsi précisé que le « suivi en temps réel du patient et des traces qu’il produit » permet de « retracer une image précise du patient », constituant ce que le rapport désigne par l’expression de « deep patient » [10].
Le modèle proposé est donc celui de la délégation de notre système de santé à des applications se basant sur des algorithmes développés par le secteur privé, grâce aux données du HDH. La consultation de FAQ remplace petit à petit les consultations médicales, trop onéreuses et inefficientes, pendant qu’un avatar électronique remplace la médecin de famille.
Aucun recul n’est pris par rapport aux risques qu’engendre une privatisation croissante de notre système de santé. Aucune critique n’est faite du modèle économique des GAFAM basé sur la prédation des données personnelles. Il s’agit au contraire pour l’état d’accentuer le mouvement initié par ces derniers, de les concurrencer.
Se dessine alors une médecine personnalisée à l’extrême, atomisée, où la machine est reine et les interactions avec le corps médical marginalisées. Une médecine dans laquelle les questions collectives sont poussées en arrière plan et dans laquelle des pans entiers de notre système de santé sont délégués au secteur du numérique.
Conclusion
Nous refusons que nos données de santé soient utilisées pour la construction d’une médecine déshumanisée et individualisée à l’extrême. Nous refusons qu’elles servent à l’enrichissement de quelques structures privées ou à l’apparition de GAFAM français du domaine de la santé. Nous refusons qu’elles participent à l’avènement d’une société du « Quantified Self » dans laquelle la collecte de données personnelles de santé serait favorisée et valorisée. Nous refusons enfin une société où notre système de soin deviendrait un auxiliaire au service de technologies dont la place n’a pas fait l’objet d’un débat public.
Nous demandons donc :
– L’arrêt du développement du HDH, dans l’attente d’une remise à plat de ses objectifs et son fonctionnement ;
– L’arrêt du contrat d’hébergement conclu avec Microsoft ;
– Un changement de paradigme faisant de l’accès aux données de santé de la population française par le secteur privé l’exception plutôt que la norme.
—
[1]: Pour une liste exhaustive, se reporter à la Partie 5 « Patrimoine de Données » du Rapport de la mission de préfiguration du HDH : https://solidarites-sante.gouv.fr/IMG/pdf/181012_-_rapport_health_data_hub.pdf
[2]: https://www.aiforhumanity.fr/
[3]: Les films « Moi, Daniel Blake » ou « Effacer l’historique » offrent une belle, et triste, illustration d’un système social informatisé et bureaucratisé jusqu’à en perdre toute humanité
[4]: Voir à ce sujet « La liberté dans le coma » du Groupe Marcuse/ Sushana Zuboff
[5]: Voir à ce sujet le projet Technopolice: www.technopolice.fr
[6]: Discours prononcé le 29 mars 2018 par Emmanuel Macron à l’occasion de la publication du rapport Villani accessible ici
[7]: Macron évoque ici les réflexions de Leibnitz, philosophe du dix-septième siècle autour de la question suivante: « Si Dieu est omnibénévolent, omnipotent et omniscient, comment pouvons-nous rendre compte de la souffrance et de l’injustice qui existent dans le monde? » (citation wikipedia)
[8]: Lire à ce sujet le chapitre préliminaire du livre ‘Informatique, Pouvoir et Libertés’ d’André Vitalis et sa préface écrite par Jacques Ellul
[9]: « Pouvoir et Libertés », André Vitalis, Chapitre préliminaire,
[10]: Rapport Villani, accessible ici p.196
[11]: Sur le développement conjoint, et les besoins en matière de collecte de données, de l’état policier et de l’état providence, voir « La liberté dans le Coma », p57-75
[12]: Sur le concept de « travailleurs du clic », voir le livre « En attendant les robots. Enquête sur le travail du clic » d’Antonio Casili.
[13]: Voir par exemple cet article de Libération ici
[14]: Mission de préfiguration du HDH. Rapport disponible ici
[15]: Pour plus de détail sur ce mouvement, voir la page wikipedia ainsi que le chapitre 7 du livre « To Save Everything, Click Here: The Folly of Technological Solutionism » d’Evgeny Morozov.
[16]: Voir « En attendant les robots. Enquête sur le travail du clic. » d’Antonio A. Casilli.
";s:7:"dateiso";s:15:"20210317_131846";}s:15:"20210315_144844";a:7:{s:5:"title";s:67:"Le Sénat doit s’opposer à la reconnaissance faciale des masques";s:4:"link";s:103:"https://www.laquadrature.net/2021/03/15/le-senat-doit-sopposer-a-la-reconnaissance-faciale-des-masques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17023";s:7:"pubDate";s:31:"Mon, 15 Mar 2021 13:48:44 +0000";s:11:"description";s:214:"
Le 10 mars 2021, le ministre des transports M. Djebbari a autorisé par décret les gestionnaires de gares, de métro et de bus à déployer sur leurs caméras de surveillance des logiciels de détection de…";s:7:"content";s:12830:"
Le 10 mars 2021, le ministre des transports M. Djebbari a autorisé par décret les gestionnaires de gares, de métro et de bus à déployer sur leurs caméras de surveillance des logiciels de détection de masque, prétextant un besoin statistique dans la lutte contre le Covid.
Ce décret est illégal : d’abord, seul le Parlement aurait le pouvoir d’autoriser un tel traitement, par exemple dans la loi Sécurité Globale actuellement débattue. Surtout, un débat démocratique aurait fait apparaître que cette surveillance, en plus d’être une atteinte supplémentaire à nos libertés, est inutile et donc injustifiable.
Le gouvernement a préféré contourner le Parlement et la loi en passant par décret, remettant entièrement en cause l’autorité du pouvoir législatif. Le Sénat doit contenir cette offensive anti-démocratique en adoptant l’amendement de la loi Sécurité globale qui propose un moratoire de 2 ans pour tout système d’analyse d’image automatisée.
Nous manifesterons pour cela devant le Sénat mardi 16 mars à 16h, square Poulenc à Paris, le jour où commenceront les débats en séance publique sur cette loi.
Un décret pour une start-up
Le 6 mai 2020, profitant de la panique sanitaire, la start-up française Datakalab avait tenté un coup d’éclat médiatique en offrant à la RATP, l’exploitant des transports parisiens, un logiciel de détection de masque déployé dans la station de métro Châtelet. Si l’opération avait réussi à faire parler de Datakalab, elle avait aussi attiré la CNIL qui fit savoir que ce dispositif était illégal pour défaut d’encadrement juridique. Dans ces conditions, avoir déployé ce logiciel constituait un délit puni de 5 ans de prison. Le logiciel a donc été remballé le 12 juin (le tout sans qu’aucune poursuite pénale ne soit engagée).
Ensuite, la RATP et Datakalab ont manifestement cherché du soutien auprès du gouvernement afin de bricoler ce « cadre juridique » qui leur permettrait de poursuivre leur expérimentation. C’est ainsi que M. Djebbari a adopté le décret du 10 mars 2021, tout en saluant publiquement Datakalab, pour qui ce décret était clairement pris. En retour, Datakalab remerciait le ministre dans une franchise symptomatique des sociétés autoritaires.
Difficile de savoir exactement pourquoi M. Djebbari souhaite autoriser l’activité illégale d’une start-up, mais on peut au moins constater une chose : cela renforce la stratégie globale du gouvernement visant à éroder la large opposition populaire contre la surveillance biométrique en rendant celle-ci de plus en plus présente dans nos vies.
Le contenu du décret
Dans les grandes lignes, le décret se contente de décrire l’expérience menée illégalement par Datakalab en mai 2020, puis de l’autoriser. Désormais, les gestionnaires de gares, de métro et de bus peuvent installer sur leurs caméras de surveillance un logiciel qui comptera deux choses : le nombre de personnes filmées et le nombre parmi celles-ci qui portent un masque. Un pourcentage est donné pour des tranches d’au moins 20 minutes et le décret prétend pour l’instant que le logiciel ne pourra servir qu’à faire des statistiques en ne visant ni à punir ni à identifier les personnes ne portant pas de masque.
En pratique, c’est le visage de l’ensemble des personnes filmées qui sera évalué par un logiciel d’analyse automatisée. De façon assez classique en matière de surveillance, le consentement ne sera pas demandé et les personnes ne pourront pas s’y opposer.
Difficile de savoir si la RATP souhaitera retenter son aventure avec une start-up délinquante. On peut le supposer. Mais Datakalab pourra aussi prospecter d’autres villes, notamment Cannes où elle avait commencé à déployer ses premières démonstrations de force dans la vidéosurveillance automatisée. Dans tous les cas, la start-up gagnera en réputation et améliorera son dispositif en l’entraînant sur nos corps mis gratuitement à sa disposition, et il faut redouter que d’autres start-up ne lui emboitent le pas.
L’illégalité du décret
Deux arguments juridiques suffisent à comprendre que ce décret est illégal.
Premièrement, la loi (l’article L251-2 du code de la sécurité intérieure) liste de façon limitée les objectifs que les caméras de surveillance peuvent poursuivre (lutte contre les vols, les incendies, les agressions, etc). La loi ne liste pas l’objectif statistique poursuivi par le décret, qui est donc contraire au droit. Pour être légal, le décret aurait du être précédé par une modification de la loi pour y ajouter cette finalité statistique.
Ensuite, l’article 4 de la loi de 1978 et l’article 5 du RGPD, ainsi que la Constitution, exigent que toute mesure de surveillance soit « nécessaire » à la finalité qu’elle poursuit. Elle ne peut être autorisée que si l’objectif poursuivi ne peut pas être atteint par une mesure moins dangereuse pour les libertés. Dans notre cas, il n’est absolument pas nécessaire d’analyser constamment le visage de l’ensemble de la population afin de faire des statistiques. Un comptage réalisé par des humains et sur la base d’échantillons est un procédé aussi facile que fiable.
Surtout, à écouter M. Djebbari lui-même, un tel comptage, qu’il soit réalisé par des machines ou des humains, est largement inutile pour lutter contre le Covid puisque selon lui : « les transports en commun ne sont pas un lieu de contamination particulier », notamment car « le port du masque est totalement respecté dans ces lieux ». La nécessité de l’installation de caméras d’analyse de visages, autre critère juridique fondamental, fait donc clairement défaut.
Le Parlement contourné
On comprend que c’est précisément car cette mesure de surveillance est inutile pour lutter contre le Covid que le gouvernement a préféré passer par décret. En effet, il aurait eu bien du mal à convaincre le Parlement d’autoriser une mesure aussi inutile qu’impopulaire. Et pour cause, sous la pression populaire, le Sénat lui-même a déjà commencé à repousser ce type de surveillance.
Dans sa position adoptée le 3 mars, la commission des lois du Sénat a précisé que les drones ne devaient pas servir à faire de la reconnaissance faciale, a limité la façon dont les agents de sécurité des transports peuvent accéder aux caméras de surveillance et a rejeté un amendement visant à généraliser la reconnaissance faciale sur les caméras de surveillance.
Si ces trois positions sont bien en-deçà de ce que le Sénat devrait faire pour corriger la loi Sécurité Globale dans son ensemble (voir nos critiques), elles se révèlent suffisantes pour dissuader le gouvernement d’essayer d’obtenir l’autorisation du Parlement afin de déployer des logiciels de reconnaissance de masques. Il a donc acté de le contourner, afin de décider seul par décret. Le message est clair : le gouvernement n’a besoin ni de loi, ni de Parlement ni de la moindre légitimité démocratique pour repousser chaque fois davantage les frontières de la Technopolice.
Certes, aujourd’hui, suite à notre victoire au Conseil d’État, le gouvernement se retrouve obligé de demander au Parlement d’autoriser les caméras mouvantes dans la loi Sécurité Globale. Mais pour le reste, il a continué d’usurper le pouvoir législatif en autorisant des mesures de surveillance qui auraient du faire l’objet d’un débat démocratique puis être soumises au vote du Parlement, qui aurait probablement conclu au rejet de ces mesures injustifiables. Tant que personne ne l’arrêtera, le gouvernement continuera encore et encore à s’accaparer le pouvoir législatif tant les ambitions sécuritaires qu’il s’est fixé pour les Jeux Olympiques de 2024 sont immenses.
Le devoir du Parlement est d’obliger fermement le gouvernement à revenir devant lui chaque fois qu’il souhaitera étendre ses appareils de surveillance. Au Sénat, la gauche a proposé un amendement qui irait précisément dans ce sens en suspendant par principe et pendant 2 ans toute nouvelle extension des systèmes de vidéosurveillance.
Sauf à renoncer à son rôle démocratique, le Sénat doit impérativement adopter cet amendement. S’il n’en fait rien, nous devrons probablement pallier la démission du Parlement en attaquant nous-même ce décret devant le Conseil d’État. Et puisque le Parlement n’a pas encore envisagé de léguer son budget aux nombreuses associations qui reprennent son rôle de contre-pouvoir, n’oubliez pas de nous soutenir si vous le pouvez !
";s:7:"dateiso";s:15:"20210315_144844";}s:15:"20210312_134305";a:7:{s:5:"title";s:47:"Une vidéosurveillance peut en cacher une autre";s:4:"link";s:87:"https://www.laquadrature.net/2021/03/12/une-videosurveillance-peut-en-cacher-une-autre/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17016";s:7:"pubDate";s:31:"Fri, 12 Mar 2021 12:43:05 +0000";s:11:"description";s:238:"Ce serait enfoncer une porte ouverte que de dire que la vidéosurveillance est partout. Alors que la Cour des comptes critique l’absence totale d’efficacité de ces dispositifs, celle-ci est sans cesse promue comme une solution…";s:7:"content";s:8397:"
Ce serait enfoncer une porte ouverte que de dire que la vidéosurveillance est partout. Alors que la Cour des comptes critique l’absence totale d’efficacité de ces dispositifs, celle-ci est sans cesse promue comme une solution magique à des problèmes que l’on ne veut pas regarder en face. Pourtant, derrière l’effrayante banalité de la vidéosurveillance peut se cacher l’effarante illégalité de la vidéosurveillance automatisée, ou algorithmique.
C’est l’histoire d’une banale histoire de vidéosurveillance
L’AN2V, le lobby de la vidéosurveillance, faisait la promotion, dans l’édition 2020 de son guide annuel, de la vidéosurveillance automatisée (VSA). Véritable démonstration des possibilités sécuritaires, ce document regroupe des articles sur l’analyse algorithmique de nos vies et rêve de futurs toujours plus sombres. Mais ce « Pixel 2020 », comme il se fait appeler, donne également la parole aux revendeurs d’un des logiciels les plus utilisés dans le domaine de la VSA : Briefcam.
Quelle ne fut pas notre surprise en découvrant dans ce guide qu’un petit bourg d’à peine 7000 habitant·es, Moirans, pas très loin de Grenoble, utilise le logiciel Briefcam pour faire de l’analyse algorithmique à partir des images captées par les caméras de vidéosurveillance. Il est de notoriété publique que beaucoup de collectivités locales de tailles importantes utilisent ce logiciel, mais nous découvrions ici qu’un petit village peut également se l’offrir.
En 2016, la mairie de Moirans, sous l’impulsion d’un maire « divers droite » et profitant d’un fait divers récupéré par le Premier ministre et le ministre de l’Intérieur de l’époque pour faire la promotion du solutionnisme technologique qu’est la vidéosurveillance, décida de s’équiper d’une soixantaine de caméras. Heureusement que l’État était là, puisqu’une subvention de 80 % du coût total par le Fonds Interministériel de Prévention de la Délinquance (FIPD), les plus de 400 000 € du projet ne furent que relativement peu supportés par le budget communal. Mais jusque là, personne n’avait encore entendu parler de Briefcam à Moirans…
Un Briefcam sauvage apparaît !
Après quelques invectives en conseil municipal, la ville de Moirans décida de s’équiper de vidéosurveillance et passa un marché public pour cela. Comme pour tout marché public, elle rédigea un cahier des clauses techniques particulières (CCTP). Celui-ci était assez classique : des caméras de haute résolution, la possibilité de lire une plaque minéralogique jusqu’à une vitesse de 90 km/h (alors même que la configuration du centre-ville rend périlleuses les vitesses au-delà des 30), des poteaux, des fibres, des écrans pour consulter les images et des serveurs pour les enregistrer, etc. Jusque-ici, aucune trace d’analyse algorithmique.
C’est finalement en lisant les rapports de suivi des travaux que nous découvrîmes le pot aux roses. Au moment de l’exécution du marché public, l’entreprise qui avait obtenu le projet proposa d’inclure le logiciel Briefcam, alors même que les fonctionnalités de VSA n’étaient pas demandées par la ville dans le CCTP. Une démonstration fut organisée par l’entreprise qui avait obtenu le marché public, le budget fut modifié pour tenir compte de cet ajout, et depuis 2019 Briefcam surveille. Emballé, c’est pesé.
Quelles leçons en tirer ?
Jusqu’alors nous cherchions la VSA là où elle s’affiche, comme à Marseille et son CCTP dédié à la VSA, mais nous nous sommes rendu compte qu’une simple vidéosurveillance, aussi classique soit-elle, peut cacher de la vidéosurveillance automatisée. Bien entendu, le journal municipal de Moirans se garde bien d’annoncer que la ville est équipée d’un logiciel capable de faire de l’analyse biométrique des personnes (ce qui n’empêche pas le journal municipal de vanter les bienfaits supposés de la vidéosurveillance « classique »). La CNIL n’a également jamais entendu parlé d’une quelconque étude d’impact à Moirans, étape pourtant obligatoire à la mise en place d’un traitement de données — a fortiori ici de données sensibles que sont les données biométriques. La première leçon à tirer est donc qu’il est vital de documenter le moindre projet de vidéosurveillance, même celui qui semble le plus classique. Bonne nouvelle, nous avons mis à jour nos guides pour vous aider à le faire dans votre ville !
La deuxième leçon à tirer est que Briefcam se cache là où on ne l’attend pas. L’entreprise qui a décroché le marché public à Moirans et a refourgué du Briefcam sous le manteau s’appelle SPIE. Il s’agit d’un industriel du BTP, qui a pignon sur rue mais qui n’est pas un fabricant de logiciel de VSA. En réalité, SPIE a sous-traité la VSA à Moirans à une autre entreprise, nommée Nomadys, qui elle-même revend Briefcam, logiciel développé par l’entreprise du même nom.
Que la chasse à Briefcam soit ouverte !
Fin janvier, nous avons identifié une douzaine d’administrations ayant passé un marché public de vidéosurveillance avec l’entreprise SPIE. Le Bulletin officiel des annonces de marché public (BOAMP) permet d’obtenir facilement une telle liste (certes très incomplète). Nous leur avons envoyé à chacune une demande CADA réclamant la communication des documents relatifs à ces marchés publics. Très peu ont répondu, et les quelques réponses reçues, lorsqu’elles ne sont pas caviardées à outrance, restent silencieuses sur les logiciels revendus par SPIE et utilisés. En particulier, aucune n’a accepté de nous communiquer les manuels d’utilisation des logiciels utilisés, en prétextant un soi-disant secret industriel. Si l’article L. 311-5 du code des relations entre le public et l’administration permet en effet à une administration de refuser de communiquer un document qui contiendrait un secret protégé par la loi, comme un secret industriel ou commercial, les manuels d’utilisation que nous demandions n’indiquent pas comment fonctionnent ces logiciels, mais ce qu’ils sont capables de faire. Ce type de document est par ailleurs communicable aux États-Unis en application de règles légales similaires à celles servant en France à faire des demande CADA. Il nous reste encore à analyser en détails les réponses, et nous saisirons ensuite la CADA sur ces refus. Et peut-être que nous irons plus loin, qui sait ?
Vous aussi de votre côté vous pouvez nous rejoindre dans cette chasse à Briefcam ! Nous avons mis à jour nos guides pour faire des demandes CADA et vous pouvez nous rejoindre sur le forum Technopolice pour partager vos découvertes. Et, comme toujours, vous pouvez aussi nous aider en nous faisant un don.
";s:7:"dateiso";s:15:"20210312_134305";}s:15:"20210310_162900";a:7:{s:5:"title";s:54:"Technopolice: les bailleurs sociaux en première ligne";s:4:"link";s:93:"https://www.laquadrature.net/2021/03/10/technopolice-les-bailleurs-sociaux-en-premiere-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17012";s:7:"pubDate";s:31:"Wed, 10 Mar 2021 15:29:00 +0000";s:11:"description";s:288:"On sait que les quartiers les plus défavorisés sont des lieux privilégiés d’expérimentation de la technopolice et de la répression policière. Caméras-piétons, LBD, drones : autant d’exemples de techniques largement déployées sur les populations les plus…";s:7:"content";s:6533:"
On sait que les quartiers les plus défavorisés sont des lieux privilégiés d’expérimentation de la technopolice et de la répression policière. Caméras-piétons, LBD, drones : autant d’exemples de techniques largement déployées sur les populations les plus précaires avant d’être généralisées.
Le rapport annuel 2021 de l’Association Nationale de la Vidéoprotection, le grand lobby national de la vidéosurveillance, apporte de nouveaux éléments sur les rapports entretenus entre la Technopolice et les quartiers populaires.
Plusieurs pages sont dédiées aux sombres pratiques du plus grand bailleur de logements sociaux en France, le Groupe 3F . Y sont en particulier décrits trois exemples d’utilisation de la vidéosurveillance par le groupe. Tous concernent des « Quartiers de reconquête républicaine » (QRR) et portent des noms de code militaires, tels « Opération JULIETT » ou encore « Opération ALPHA ».
L’utilisation de caméras cachées
Le premier cas concerne l’installation de caméras de vidéosurveillance dans le 19e arrondissement de Paris, dans le quartier de Crimée. Il s’agissait de lutter contre des regroupements de personnes répondant à « des logiques de trafic [..] ou ethniques » (sic).
On apprend que la reconquête du parking « Jumeau » a ainsi impliqué l’installation de caméras « anti-vandales » mais aussi de caméras factices et de caméras « pin-hole ».
Ces dernières sont conçues pour être quasiment indétectables à l’œil nu et sont normalement utilisées pour espionner une ou plusieurs personnes à leur insu. Elles peuvent par exemple être installées dans de faux détecteurs anti-incendies, de faux détecteurs de mouvement ou simplement dans de fausses vis ! En voici deux exemplaires trouvés sur internet :
Une caméra dans un détecteur de fumée :
Une caméra dans une prise électrique :
La retransmission en temps réel aux services de police
La deuxième spécificité des systèmes de vidéosurveillance mis en place par le bailleur social est la transmission des images en temps réel aux Centres de Supervision Urbaine (CSU) des forces de l’ordre.
Si ce déport vidéo est autorisé, il faut toutefois préciser que cette pratique est strictement encadrée par la loi LOPPSI 2. Elle n’est en particulier autorisée qu’en cas « de circonstances faisant redouter la commission imminente d’une atteinte grave » et limitée au « temps nécessaire à l’intervention des services de la police ou de la gendarmerie ».
Notons d’ailleurs que dans le cadre de la loi « Sécurité Globale », le gouvernement cherche à faciliter ce déport en le permettant dès lors qu’il y a « occupation par des personnes qui entravent l’accès et la libre circulation des locataires (…)». L’article 20 bis du projet de loi de Sécurité Globale voté par l’Assemblée Nationale prévoit de supprimer le critère d' »atteinte grave » et de le remplacer par « en cas d’occupation par des personnes qui entravent l’accès et la libre circulation des locataires ou empêchent le bon fonctionnement des dispositifs de sécurité et de sûreté ou nuisent à la tranquillité des lieux » (voir notre billet à ce sujet). Cet article a été supprimé par le Sénat mais devrait malheureusement revenir au moment des débats en commission mixte paritaire.
Mais à Aulnay, dans le cadre de l’opération « ALPHA », Immobilière 3F ne semble pas faire grand cas de cet encadrement. Il est ainsi prévu que le déport vidéo vers le CSU d’Aulnay puisse être activé à la demande des policiers. Rien ne permet de comprendre comment le cadre législatif sera respecté.
Opération « Chicha »
Dernière illustration de la banalisation de l’utilisation de la vidéosurveillance des habitants de logements sociaux ? Le bailleur social se vante d’utiliser des caméras nomades pour lutter contre… les fumeurs de chicha.
Tout cela ne fait que souligner la surveillance permanente, et pernicieuse, des populations défavorisées. Comme les migrants aux frontières, elles sont les premières à souffrir de la fuite en avant technopolicière de notre société.
Une fuite en avant
Ces expérimentations donnent, de nouveau, à voir l’infiltration permanente de la surveillance dans notre société : aux caméras-fixes dans la rue, se superpose une surveillance par les airs (drones), à hauteur d’hommes (caméras-piétons), surveillance qui nous poursuit désormais jusque dans les halls d’immeubles. A quand nos portes d’entrée ou nos chambres ?
La possibilité de transmettre ces vidéos dans des centres de commandement, centralisant et analysant l’ensemble de ces flux, est désormais facilitée et encouragée alors même qu’elle était initialement strictement encadrée.
Que dire enfin des caméras de type « pin-hole » ? Alors que la législation mettait au cœur de l’équilibre du système l’information des personnes sur l’existence des caméras (qui devaient être visibles pour tout le monde), on constate le développement de caméras discrètes, cachées, invisibles. Une surveillance qui ne s’assume plus, qui se veut invisible, pernicieuse et incontestable…
";s:7:"dateiso";s:15:"20210310_162900";}s:15:"20210308_132539";a:7:{s:5:"title";s:51:"MaDada : exigeons les documents de la Technopolice";s:4:"link";s:89:"https://www.laquadrature.net/2021/03/08/madada-exigeons-les-documents-de-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=17001";s:7:"pubDate";s:31:"Mon, 08 Mar 2021 12:25:39 +0000";s:11:"description";s:242:"MaDada.fr est une plateforme web citoyenne, ouverte à tous, qui facilite et permet à tout un chacun de faire des demandes d’accès aux documents administratifs. Demandons les documents de la Technopolice partout autour de nous,…";s:7:"content";s:7576:"
MaDada.fr est une plateforme web citoyenne, ouverte à tous, qui facilite et permet à tout un chacun de faire des demandes d’accès aux documents administratifs. Demandons les documents de la Technopolice partout autour de nous, exigeons la transparence, afin de mieux lutter contre ces dispositifs.
La campagne Technopolice vise à analyser et documenter les dispositifs de surveillance policière qui se propagent dans nos villes et nos vies, afin de mieux les contrer. Ce travail de veille et de recherche d’information, nous l’effectuons ensemble, de façon décentralisée, le forum Technopolice, ouvert à tous, nous servant de lieu où nous nous retrouvons, et où toutes ces informations se croisent, s’échangent et sont analysées collectivement. Le site data.technopolice.fr est lui un lieu de sauvegarde et d’organisation des documents issus de nos recherches.
Ces recherches et analyses nourrissent nos actions pour contrer la surveillance : elles nous aident à porter et appuyer des contentieux, à organiser des actions collaboratives (carte de la Technopolice, lettre ouverte pour les municipales) ou des actions de sensibilisation (expositions et ateliers Technopolice à Avignon, Marseille ou Nice ). Lire notre boîte à outils pour en savoir plus sur nos outils et modes d’actions.
Une source très importante d’informations pour la campagne Technopolice sont les « demandes d’accès aux documents administratifs », (parfois appelées « demandes CADA » par abus de langage, du nom de l’autorité chargée de rendre des avis sur la communicabilité des documents administratifs). La Technopolice avance vite, se répand et évolue en permanence, mais elle avance masquée, sans études préliminaires, sans débat ni concertation citoyennes et dans un manque profond de transparence et de démocratie. C’est à travers des informations recueillies par des demandes CADA que nous avons pu attaquer et faire interdire les portiques de reconnaissance faciale à Marseille et Nice, ou bien que l’écoute sonore à Saint-Étienne est apparue délirante.
Faisons valoir notre droit d’accès aux informations publiques
L’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789 mentionne que « La société a le droit de demander des comptes à tout Agent public de son administration ». Le droit d’accès aux informations publiques est donc un droit constitutionnel. Ce droit est précisé et garanti par la loi n° 78-753 du 17 juillet 1978, codifiée au livre III du code des relations entre le public et l’administration (CRPA), qui institue le principe de la liberté d’accès aux documents administratifs à toute personne qui en fait la demande.
Notre Guide de demandes CADA vous propose un modèle de lettre et donne des indications détaillées sur la rédaction des demandes de documents administratifs.
MaDada.fr : une plateforme collaborative qui facilite les demandes
Une fois que l’on a identifié la demande à faire, les documents à demander et l’administration à laquelle l’adresser, on peut passer par Ma Dada. Il s’agit d’une plateforme web citoyenne, initiative de l’association Open Knowledge Foundation France, qui permet d’acheminer les demandes en maintenant à jour l’annuaire des administrations, d’y recevoir les réponses éventuelles, de recevoir des notifications en cas de dépassement des délais légaux de réponse et d’effectuer les rappels et les recours amiables dans ce cas. Elle permet le suivi des demandes, la duplication de celles-ci et l’envoi de demandes en série à plusieurs administrations à la fois (demandes par paquets de la fonctionnalité avancée MaDada++). En cas de non réponse après le délai légal d’un mois, afin de faciliter la saisine de la Commission d’accès aux documents administratifs (CADA), elle permet d’avoir accès à l’échange complet de la demande via son lien web public, ou d’en exporter une copie dans un fichier PDF.
Par défaut, les demandes sur Ma Dada sont publiques, leur réponses également. La plateforme joue ainsi le rôle d’une base de connaissances ouverte collective, un document demandé par un utilisateur profitant à tous les autres. Certaines peuvent néanmoins être rendues privées (fonctionnalités avancées MaDada++) pour les besoins d’une enquête ou d’analyse avant publication, ou pour celles et ceux qui ne souhaitent pas s’exposer.
Une demande d’accès aux documents administratifs doit obligatoirement comporter l’identité de la personne qui en fait la demande ou, pour une association, le nom de l’association et son numéro RNA. Ainsi, si dans le cadre de la campagne Technopolice vous souhaitez faire des demandes tout en restant anonyme, n’hésitez pas à nous l’indiquer sur le forum Technopolice. Ma Dada peut également, sur demande ou signalisation, censurer des informations personnelles qui paraissent sur le site.
Restez connectés, nous publierons dans les jours qui viennent différents exemples et résultats d’analyses de demandes CADA qui nous ont été utiles dans la campagne Technopolice !
";s:7:"dateiso";s:15:"20210308_132539";}s:15:"20210305_120525";a:7:{s:5:"title";s:69:"La police en hélicoptère, ou la surveillance militaire des citoyens";s:4:"link";s:107:"https://www.laquadrature.net/2021/03/05/la-police-en-helicoptere-ou-la-surveillance-militaire-des-citoyens/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16993";s:7:"pubDate";s:31:"Fri, 05 Mar 2021 11:05:25 +0000";s:11:"description";s:256:"Ce article a été d’abord publié sur le blog de notre site de campagne Technopolice.
Depuis plusieurs années, les hélicoptères de la gendarmerie sont régulièrement déployés pour des missions de surveillance de l’espace public, et ce…";s:7:"content";s:11108:"
Ce article a été d’abord publié sur le blog de notre site de campagne Technopolice.
Depuis plusieurs années, les hélicoptères de la gendarmerie sont régulièrement déployés pour des missions de surveillance de l’espace public, et ce en toute illégalité. Dotés d’un matériel d’abord développé dans un contexte militaire, la police se vante de leur capacité d’espionnage bien supérieure à celles des drones : caméras thermiques avec zoom ultra-puissant, suivi automatisé des suspects, transmission en temps-réel des images à des postes de commandement…
Leur usage n’a pourtant jamais été sanctionné – ni par le juge ni par la Cnil. Le gouvernement veut maintenant les légaliser dans la PPL « Sécurité Globale » – dont les débats ont repris début mars au Sénat.
Difficile de remonter aux premières utilisations d’hélicoptères par la police à des fins de surveillance de l’espace public. En octobre 2000, une question écrite au Sénat laisse déjà deviner une utilisation régulière d’hélicoptères équipés de « caméras vidéo thermiques embarquées » par la police et la gendarmerie.
Aujourd’hui en tous cas, la police et la gendarmerie sont fières de leurs capacités de surveillance. Pendant le confinement, elles vantaient ainsi que l’hélicoptère « ne peut être ni vu ni entendu par les personnes au sol » et est doté de caméras « capables de deviner à des centaines de mètres la présence d’êtres humains ou d’animaux ». En 2018, il était précisé que la caméra pouvait même « identifier un individu à 1,5 km de distance » avec retransmission « en direct et suivi depuis le centre interministériel de crise du ministère de l’Intérieur ».
En 2017, le commandant des « forces aériennes de la gendarmerie nationale » parle d’un « énorme zoom qui permet de lire à 300 mètres d’altitude une plaque d’immatriculation située à un kilomètre, d’identifier une personne à 2 km et un véhicule à 4 km », précisant qu’il peut « demander à la caméra de suivre automatiquement un objectif, quelle que soit la position ou la trajectoire de l’hélicoptère ».
Un matériel militaire pour de la surveillance interne
Plus que le type d’hélicoptère utilisé (apparemment, des « EC-135 » que la gendarmerie prête à la police quand celle-ci en a besoin), c’est le type de caméra qui importe.
Depuis au moins 2010, la gendarmerie utilise un dispositif nommé « Wescam MX-15 » – qui n’est même plus qualifié de « simple caméra » mais de « boule optronique ». C’est cet objet, avec sa caméra thermique et son zoom surpuissant, qui permet à la police de filmer, traquer, identifier (de jour comme de nuit) et de retransmettre en direct le flux vidéo, avec une « qualité d’image comparable à celle que le public connaît pour le Tour de France ».
C’est un appareil clairement militaire, utilisé dans des zones de guerre et répertorié en tant que tel sur des sites d’armement. Il est pourtant déployé depuis plusieurs années au-dessus des villes en France. Comme pour d’autres outils de la Technopolice (drones, vidéosurveillance automatisée…), il y a encore ici cette porosité entre les technologies militaires utilisées dans les pays en guerre, celles expérimentées aux frontières et celles déployées pour la surveillance des villes – soit une militarisation progressive de nos espaces publics.
Pour le futur, les hélicoptères devraient être équipés chez Safran, avec une « boule optronique » dite « Euroflir 410 » : un zoom encore plus puissant, des détecteurs de mouvement, un ordinateur intégré… Bref, un ensemble de technologies que la police ne manquera pas d’utiliser pour nous espionner au plus près. Comme pour les drones, ce type de technologies couplé à de l’analyse logicielle des images concrétise la société fantasmée par le ministère de l’Intérieur dans son
livre blanc publié en novembre dernier : celui d’une surveillance automatisée et totale. L’objectif est que ce nouveau dispositif soit « opérationnel avant les JO de Paris 2024».
Surveillance des manifestations et identification des « suspects »
Les utilisations des hélicoptères semblent encore plus larges que celles des drones : surveillance du confinement et des manifestations, surtout pendant celles des gilets-jaunes. En mars 2019, la gendarmerie annonce d’ailleurs avoir effectué 717 heures de vol au-dessus des manifestations, pour un coût total de 1 million d’euros.
En 2010, déjà, la gendarmerie se vantait de sa surveillance des manifestations, car les hélicoptères sont, selon elle, « les mieux placés pour détecter les débordements, incidents ou intrusions dans les cortèges » avec des « images transmises en direct dans les salles de commandement (…) permettant aux responsables de faire intervenir immédiatement les effectifs au sol ».
Au-delà de le surveillance des machines, c’est aussi sur leur capacité d’intimidation que mise la police quand elle dit « faire du bruit » au dessus des manifestations ou qu’elle multiplie les survols menaçants et continus au-dessus des ZAD.
Illégalité et impunité de la surveillance
Tout ce pouvoir de surveillance n’a jamais été, et n’est toujours pas, encadré par le moindre texte de loi. Il n’existe aucune limite à ce qu’a pu faire et ce que peut faire aujourd’hui la police en termes de surveillance de la voie publique par hélicoptères : durée de conservation des données, types de lieux pouvant être filmés, accès aux images, information sur la captation…
C’est exactement la même illégalité que nous avions soulevé concernant les drones et qui a conduit à leur interdiction en France, par le Conseil d’Etat d’abord, par la Cnil ensuite : l’absence de texte législatif ou réglementaire permettant à la police de capter des données personnelles. Rien de tel malheureusement pour les hélicoptères : malgré leur utilisation régulière, aucune autorité n’est venue rappeler le droit à la police.
Le gouvernement, les parlementaires et la police en sont bien conscients. Ils veulent donc profiter de la proposition de loi « Sécurité globale » pour légaliser le dispositif – plusieurs dizaines d’années plus tard.
La proposition de loi « Sécurité globale » revient en ce moment devant le Sénat. En plus d’intensifier la vidéosurveillance fixe, elle veut légitimer la vidéosurveillance mouvante : les drones, les caméras-piétons, les caméras embarquées et donc, les hélicoptères. Les parlementaires doivent refuser la militarisation de la surveillance de l’espace public.
";s:7:"dateiso";s:15:"20210305_120525";}s:15:"20210303_150312";a:7:{s:5:"title";s:58:"La loi Sécurité Globale validée en commission au Sénat";s:4:"link";s:95:"https://www.laquadrature.net/2021/03/03/la-loi-securite-globale-validee-en-commission-au-senat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16987";s:7:"pubDate";s:31:"Wed, 03 Mar 2021 14:03:12 +0000";s:11:"description";s:202:"La commission des lois du Sénat a adopté ce matin sa position sur la proposition de loi Sécurité Globale. Il ne faut pas se laisser abuser par les modifications apportées au texte et dont se…";s:7:"content";s:8959:"
La commission des lois du Sénat a adopté ce matin sa position sur la proposition de loi Sécurité Globale. Il ne faut pas se laisser abuser par les modifications apportées au texte et dont se vanteront sans doute les rapporteurs, MM Hervé et Daubresse. Le texte adopté ce matin est aussi sécuritaire que celui adopté par l’Assemblée nationale.
Un débat à huis clos
Première mauvaise surprise : le débat en commission des lois s’est déroulé derrière des portes closes (sans retransmission vidéo) et a été d’une rapidité surprenante. Commencé à 8h30, l’examen du texte s’est terminé à 11h30. Il n’aura fallu que trois heures aux sénateurs pour voter leur version de la proposition de loi. Et, en toute opacité donc, réécrire l’article 24, légaliser les drones et les caméras embarquées, intensifier la vidéosurveillance fixe.
Article 24
Comme annoncé, les rapporteurs ont tenté de neutraliser l’article 24 qui, dans sa version initiale, aurait empêché de documenter les violences policières. Désormais, cet article se divise en deux infractions : une première sanctionne « la provocation, dans le but manifeste qu’il soit porté atteinte à son intégrité physique ou psychique, à l’identification » d’un policier ou d’un militaire ; une deuxième infraction sanctionne le fait de réaliser un traitement de données personnelles concernant des fonctionnaires sans respecter le RGPD et la loi informatique et liberté.
Ces nouvelles formules sont si confuses et redondantes avec le droit existant qu’il faut regretter que l’article n’ait pas été entièrement supprimé. On peut toutefois espérer que, ainsi modifié, l’article 24 ne fasse plus diversion et que le débat puisse enfin se recentrer sur les mesures de surveillance au cœur de la proposition de loi.
Vidéosurveillance
Le code de la sécurité intérieure limite actuellement le visionnage des images de vidéosurveillance aux seuls agents de la gendarmerie et de la police nationale. Ce matin, le Sénat a validé les articles 20, 20 bis A et 20 ter de la loi Sécurité Globale qui étendraient cet accès aux agents de la police municipale et de la ville de Paris, des communes, des communautés de communes et groupements similaires ainsi que des services de sécurité de la SNCF et de la RATP. Les sénateurs se sont contentés de quelques modifications de façade (ici, ici et là) qui, prétendant suivre l’avis d’une CNIL démissionnaire (relire nos critiques), ne changeront rien à l’extension injustifiable des personnes pouvant accéder aux images de vidéosurveillance.
Il n’y a bien qu’une seule véritable (et maigre) avancée en matière de vidéosurveillance : la commission des lois a supprimé l’article « 20 bis ». Celui-ci prévoyait de faciliter la retransmission en direct des images filmées par les caméras posées dans les halls d’immeubles. Comme nous l’avions souligné dans notre analyse juridique, en plus d’être une mesure de surveillance extrêmement invasive, cette disposition était clairement inconstitutionnelle.
Les rapporteurs ne pouvaient donc que l’enlever. La disposition risque malheureusement de réapparaître en commission mixte paritaire au moment des discussions avec l’Assemblée nationale.
Drones
S’agissant des drones, les rapporteurs ont appliqué une technique éculée en matière de faux-semblants législatifs : réécrire un article pour lui faire dire la même chose avec des mots à peine différents. Si l’amendement adopté semble dense, les différences avec le texte initial sont presque nulles : la police et la gendarmerie pourront tout aussi facilement déployer leurs drones pour maintenir leur politique de surveillance massive et de répressions des libertés par la violence (relire notre analyse).
La seule avancée obtenue ce matin est l’interdiction explicite de l’audiosurveillance et de la reconnaissance faciale par drone. Les rapporteurs prétendent vouloir « réaffirmer, à ce stade, la prohibition des techniques qui ne sont pas expressément autorisées par le législateur (captation des sons, reconnaissance faciale, interconnexions automatisées de données) ». Bien que cette interdiction explicite ne soit pas nécessaire (le droit interdit déjà ces pratiques), ce positionnement symbolique du Sénat est bienvenu face à des industriels qui invitent déjà les autorités à recourir à ces techniques.
Caméra-piétons
La victoire symbolique obtenue sur les drones doit être largement relativisée : si nous redoutions le déploiement massif de la reconnaissance faciale, ce n’est pas tant sur les drones que sur les caméras-piétons, bientôt largement déployées en France et dont les images seront transmises en temps réel au centre de contrôle en application de la loi Sécurité Globale. Les rapporteurs n’ont rien fait pour contrer ce risque pourtant bien plus actuel et immédiat que celui posé par les drones, plus lointain. Comme si leur souhait de « réaffirmer » l’interdiction de la reconnaissance faciale était limité aux scénarios les plus abstraits mais que, pour les choses que la police réclame concrètement, le législateur devrait baisser les yeux et la laisser faire.
Ici encore, l’amendement adopté ce matin se contente de réécrire sans rien changer, en prétendant suivre l’avis de la CNIL qui, elle même, ne proposait rien de concret ou de juridique.
Reconnaissance faciale
La commission des lois a rejeté les amendements que nous dénoncions hier comme tentant d’instaurer un système de reconnaissance faciale généralisé. La provocation politique était sans doute trop importante. Et pourtant, dans le même temps, les sénateurs ont aussi rejeté l’amendement qui proposait d’interdire pendant deux ans les dispositifs de biométrie policière.
Comment comprendre ces deux positions qui, en apparence, s’opposent ? La situation semble identique à celle constatée à l’Assemblée nationale l’an dernier : la majorité et la droite souhaitent bien que la loi Sécurité Globale renforce le dispositif de reconnaissance faciale autorisé depuis 2012 par décret, mais pas grand monde ne semble prêt à assumer la responsabilité d’autoriser explicitement un tel régime dans la loi. L’hypocrisie est totale quand les rapporteurs prétendent interdire ce dispositif sur les drones mais refusent toute interdiction plus large.
Prochaine étape : la discussion en séance publique qui aura lieu les 16, 17 et 18 mars prochains. Il sera plus que jamais nécessaire de maintenir la pression sur les sénateurs pour qu’ils aillent beaucoup plus loin que les rapporteurs et mettent un coup d’arrêt définitif à ce texte.
";s:7:"dateiso";s:15:"20210303_150312";}s:15:"20210302_152440";a:7:{s:5:"title";s:68:"Sécurité Globale : la droite appelle à la reconnaissance faciale";s:4:"link";s:103:"https://www.laquadrature.net/2021/03/02/securite-globale-la-droite-appelle-a-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16980";s:7:"pubDate";s:31:"Tue, 02 Mar 2021 14:24:40 +0000";s:11:"description";s:250:"Demain 3 mars, la commission des lois du Sénat examinera la loi Sécurité Globale, déjà adoptée en novembre par l’Assemblée nationale (relire notre réaction). Alors que le texte était déjà largement contraire à la Constitution…";s:7:"content";s:6212:"
Demain 3 mars, la commission des lois du Sénat examinera la loi Sécurité Globale, déjà adoptée en novembre par l’Assemblée nationale (relire notre réaction). Alors que le texte était déjà largement contraire à la Constitution et au droit européen (relire notre analyse), les sénateurs et sénatrices de droite et du centre souhaitent s’enfoncer encore plus loin dans l’autoritarisme en officialisant un système jusqu’alors implicite dans la loi : instaurer un vaste régime de reconnaissance faciale.
Dans le cadre du vote de la loi Sécurité globale, 68 sénateurs et sénatrices proposent d’inscrire la reconnaissance faciale au livre VIII du code de la sécurité intérieure qui, créé en 2015 par la loi renseignement, avait autorisé la surveillance de masse des communications électroniques (voir notre analyse). Cette surveillance de masse s’étendrait désormais à nos rues : tous les visages filmés par les 75 000 caméras de vidéosurveillance françaises pourraient être analysés sur simple autorisation du Premier ministre, afin de retrouver des personnes recherchées pour terrorisme. Cette apparente limitation aux menaces terroristes ne doit rassurer personne : la police et les services de renseignement qualifient seuls ce qui relève du terrorisme, sans le contrôle préalable d’un juge, ce qui permet déjà de viser des militants politiques (relire notre analyse concernant la censure des mouvements sociaux). Surtout, qu’elle soit soupçonnée ou non de terrorisme, l’ensemble de la population aurait son visage analysé, soumis à un contrôle d’identité invisible et permanent.
Un second amendement, signé par 19 sénateurs, propose déjà d’étendre ce système au-delà des seules menaces terroristes afin d’identifier toutes les personnes fichées dans le FAED (fichier automatisé des empreintes digitales – qui recueille aussi des photos de face des « relevés de signalétiques ») et le fichier des personnes recherchées, pour n’importe quelle finalité.
Ces initiatives n’ont rien de bien nouveau (c’est un classique de la droite la plus dure) et il faut espérer que ces amendements ne survivent pas bien longtemps tant ils sont liberticides et contraires à la Constitution et au droit européen (les signataires de ces amendements ignorent manifestement l’exigence de « nécessité absolue » requise par la directive 2016/680 en matière de biométrie). Hélas, peu importe que ces amendement perdurent ou non, car l’important soutien qu’ils ont reçu suffit à établir un terrible rapport de force : alors que, depuis plusieurs mois, une large partie de la population dénonce le risque que la vidéosurveillance et les caméras-piétons n’aboutissent à un système de reconnaissance faciale généralisée, Les Républicains (et leurs alliés centristes) tentent de s’approprier ce thème autoritaire pour en faire leur horizon politique immédiat.
En contraste, cette offensive autoritaire spectaculaire permet aux rapporteurs du texte, MM. Hervé et Daubresse, de se donner des airs de modérés à peu de frais. Ainsi leurs amendements sur les drones, les caméras-piétons et l’extension de la vidéosurveillance valident les objectifs répressifs de Gérald Darmanin en les saupoudrant de « garde-fous » de façade qui ne changent rien aux critiques politiques et juridiques si nombreuses à faire contre ce texte.
Dans ces conditions, difficile d’espérer un débat législatif capable de prendre en compte nos libertés. Comme trop souvent, il faudra très certainement se tourner vers le Conseil constitutionnel ou d’autres juridictions pour espérer cela, ou rejoindre le niveau européen par la pétition en cours contre la biométrie policière. En attendant, on peut saluer les amendements de la gauche qui, en minorité, propose de retirer l’autorisation des drones et de suspendre pendant 2 ans tous les dispositifs d’analyse biométrique automatisée.
Nous nous retrouverons demain dans la matinée pour suivre et commenter le vote du texte en commission. Comme pour souligner l’ampleur de l’offensive sécuritaire que nous subissons actuellement, ce vote sera suivi par l’audition de Gérald Darmanin, de Marlène Shiappa et d’Éric Dupond-Moretti sur la loi « séparatisme » – l’autre grande loi autoritaire qui vise, entre autres choses, à renforcer les pouvoirs du gouvernement pour dissoudre et entraver les associations militantes (voir notre position).
";s:7:"dateiso";s:15:"20210302_152440";}s:15:"20210301_135838";a:7:{s:5:"title";s:76:"Partage de données : les services de renseignement violent la Constitution";s:4:"link";s:113:"https://www.laquadrature.net/2021/03/01/partage-de-donnees-les-services-de-renseignement-violent-la-constitution/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16970";s:7:"pubDate";s:31:"Mon, 01 Mar 2021 12:58:38 +0000";s:11:"description";s:256:"La Quadrature du Net vient de demander au Conseil d’État de saisir le Conseil constitutionnel d’une Question prioritaire de constitutionnalité (QPC) contre une disposition de la loi renseignement, l’article L. 863-2 du code de la…";s:7:"content";s:6542:"
La Quadrature du Net vient de demander au Conseil d’État de saisir le Conseil constitutionnel d’une Question prioritaire de constitutionnalité (QPC) contre une disposition de la loi renseignement, l’article L. 863-2 du code de la sécurité intérieure. Comme le révélait le journal Le Monde il y a près de deux ans, un data-center attenant au siège de la DGSE permet aux services de renseignement d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce en contournant certaines des garanties inscrites dans la loi renseignement, déjà bien maigres. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement français, et des autorités de contrôle qui les couvrent.
En juin 2019, La Quadrature déposait un recours au Conseil d’État contre « l’entrepôt », dont l’existence venait d’être révélée dans la presse. Comme nous l’expliquions alors, « les activités de surveillance relèvent de régimes plus ou moins permissifs », avec des garanties plus ou moins importantes accordées aux droits fondamentaux selon les régimes.
Autant de garanties écartées d’un revers de main dès lors que les données sont versées dans ce pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.). En pratique, l’entrepôt permet à un service donné d’accéder à des données qu’il n’aurait légalement pas le droit de collecter et d’exploiter dans le cadre des procédures prévues par la loi.
Ces échanges de données se fondent sur une disposition inscrite en 2015 dans la loi renseignement : l’article L. 863-2 de code de la sécurité intérieure. Or, celui-ci ne fournit aucun encadrement spécifique : le législateur s’était alors défaussé en renvoyant à un décret d’application, mais celui-ci n’est jamais paru. Une source du Monde évoquait pour s’en expliquer un « défaut de base constitutionnelle ». Or, c’est bien à la loi d’encadrer ces pratiques, raison pour laquelle l’article L. 863-2 est tout simplement inconstitutionnel.
Depuis l’introduction de notre recours devant le Conseil d’État, des rapports parlementaires sont venus corroborer les révélation du Monde. Dans le rapport d’activité 2019 publié l’été dernier, la Délégation parlementaire au renseignement note ainsi :
(…) il ressort des travaux conduits par la délégation que l’absence de cadre réglementaire n’a pas empêché les services de procéder à des partages réguliers non seulement de renseignements exploités, c’est-à-dire d’extractions et de transcriptions, mais également de renseignements collectés, c’est-à-dire de données brutes recueillies dans le cadre d’une technique de renseignement.
La délégation a ainsi été informée de l’existence d’une procédure dite d’extension, qui permet la communication de transcriptions effectuées au sein du GIC [le Groupement interministériel de contrôle] à un service autre que celui qui a fait la demande initiale de technique de renseignement (…). La délégation regrette de n’avoir pu obtenir, en revanche, d’informations plus précises sur les conditions juridiques et opérationnelles dans lesquelles il est procédé à des partages de données brutes.
Dans ce rapport, la Délégation parlementaire au renseignement estimait également « urgent qu’un encadrement précis de ces échanges soit réalisé », notant à juste titre que « le renvoi simple à un décret pourrait se révéler insuffisant et placer le législateur en situation d’incompétence négative ».
Nous espérons que le Conseil d’État acceptera de transmettre notre QPC au Conseil constitutionnel afin de que celui-ci mette fin à cette violation manifeste de la Constitution, malheureusement caractéristique du renseignement français. Un autre exemple flagrant d’illégalité est le partage de données entre les services français et leurs homologues étrangers, qui porte sur des volumes colossaux et n’est nullement encadré par la loi. Pire, celle-ci interdit explicitement à la CNCTR, la commission de contrôle des activités de surveillance des services, de contrôler ces activités.
L’illégalité persistante du renseignement français et l’impunité dont bénéficient ses responsables sont d’autant plus problématiques que l’espionnage politique constitue désormais une priorité assumée des services de renseignement la surveillance des groupes militants ayant vu sa part plus que doubler entre 2017 et 2019 (passant de 6 à 14% du total des mesures de surveillance autorisées).
";s:7:"dateiso";s:15:"20210301_135838";}s:15:"20210228_101800";a:7:{s:5:"title";s:26:"L’Internet des personnes";s:4:"link";s:64:"https://www.laquadrature.net/2021/02/28/linternet-des-personnes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16570";s:7:"pubDate";s:31:"Sun, 28 Feb 2021 09:18:00 +0000";s:11:"description";s:250:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Monde connecté.
Nous vivons dans un monde connecté. Que…";s:7:"content";s:19415:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Monde connecté.
Nous vivons dans un monde connecté. Que nous le voulions ou non, nous vivons dans des sociétés construites par la réduction du coût de connexion entre les personnes, les ressources et les idées. Connecter des choses, c’est établir un lien entre celles-ci afin de transférer de l’information entre elles. Connecter des choses, c’est leur permettre de s’influencer mutuellement via la transmission de cette information. C’est permettre à ces entités de prendre en compte l’autre et d’adapter son comportement aux conditions par l’intermédiaire de boucles de rétroaction. Ces boucles de rétroactions sont des informations sur l’état du système utilisé pour adapter son comportement. Par exemple, un radiateur adapte son comportement en fonction de la consigne de température que lui fournit le thermostat, et, dans le même temps, le thermostat modifie sa consigne en fonction de la température de la pièce dans laquelle il se trouve.
L’étude de ces connexions et de leur fonctionnement est décrite par la cybernétique. Cette science analytique permet de décrire un système non pas par ses composants internes, mais par ses connexions à son environnement. La fonction, et donc la place dans le monde, d’une entité se fait par les connexions de celle-ci aux autres. C’est-à-dire que la fonction est définie par l’ensemble des connexions d’une entité. Il n’est pas possible pour un radiateur de maintenir une température de 19°C sans connexion à un système de mesure de température par exemple, et il ne peut donc pas remplir sa fonction.
Afin de simplifier ces connexions, on utilise des standards formels. Le radiateur sait qu’il n’est pas encore arrivé à température parce qu’il n’a pas reçu un signal très spécifique qui lui est adressé. Et c’est cette description des méthodes de connexion qu’on appelle un protocole. Pour que la connexion s’établisse, il faut que les parties impliquées sachent comment échanger des informations et comment décoder celles qu’elles reçoivent. Le protocole utilisé pour une connexion va donc définir les types d’informations, et la fonction des parties impliquées dans ces échanges.
Ces protocoles sont souvent empilés les uns dans les autres, afin de pouvoir multiplier les niveaux de communication et d’information. Par exemple, pour lire cet article, vous vous êtes connectés avec votre machine, utilisant un système d’affichage et d’écriture — une interface humain·e-machine, pilotée par le système d’exploitation de votre machine et qui alloue différentes ressources (affichage, mémoire interne, etc.) à votre connexion. Il établit également d’autres connexions avec les éléments matériels de votre machine — processeurs, mémoire vive, périphériques de stockages — qui sont ensuite connectés entre eux par d’autres protocoles, etc. De la même façon, votre ordinateur est également connecté par une carte réseau à un point d’accès Internet, en utilisant un protocole — avec ou sans fil (au rang desquels le Wifi, mais aussi la 4G par exemple), cet appareil est lui-même connecté à un répartiteur, connecté à un cœur de réseau, puis à un entrepôt de données, et ainsi de suite, jusqu’à ce que, de connexion en connexion, de protocoles imbriqués les uns dans les autres, vous ayez établi un lien jusqu’à cet article et qu’il puisse s’afficher sur votre écran afin que vous puissiez le lire.
Cette imbrication de protocoles permet à des appareils ayant des fonctions différentes de pouvoir travailler collectivement et former une entité plus grande qu’eux, fournissant une interface plus souple sur laquelle agir. On ne s’occupe que rarement des détails des connexions entre votre carte graphique et votre processeur par exemple, mais on sait qu’il est possible de s’en servir pour afficher n’importe quel texte ou n’importe quelle image, animée ou non, sans se soucier de respecter très strictement un protocole spécifique.
Ce travail collaboratif n’est rendu possible que parce que ces protocoles sont disponibles pour tous. N’importe qui désirant connecter quelque chose à Internet peut le faire, et ce sans demander une certification préalable. Il est même possible de ne pas respecter l’intégralité du protocole défini ou de vouloir s’attaquer à l’intégrité de ce réseau. C’est un bon moyen de ne pas se faire apprécier des autres personnes connectées à Internet, mais il est possible de le faire, car le protocole nécessaire (IP dans sa version 4 ou 6) est ouvert, documenté, standardisé, et suffisamment simple pour faire en sorte que n’importe quelle machine puisse le parler. Ce protocole IP permet de transporter des données entre deux machines connectées entre elles, en ne précisant que peu de choses sur le contenu de la donnée elle-même.
À l’inverse, le protocole HTTP, que vous avez utilisé avec votre navigateur, est un protocole plus complexe, autorisant plus de choses, mais plus sensible aux erreurs. C’est un protocole de type client-serveur, dans lequel un client demande une ressource à un serveur, serveur qui la restitue ensuite au client. HTTP ne s’occupe pas de savoir comment la donnée est transmise, c’est le rôle d’IP (et de son siamois TCP) pas le sien. Ce n’est pas non plus son rôle de mettre en page le contenu, c’est celui du navigateur qui, en utilisant le protocole (x)HTML pourra afficher correctement le texte, et créer des liens entre eux. Le standard (x)HTML a une fonction structurante et se base lui-même sur un autre protocole, appelé XML, et ainsi de suite.
Internet des cultures
Dans notre vie quotidienne, nous utilisons des protocoles de haut niveau, et relativement bien définis, pour communiquer les uns avec les autres. Les conventions sociales et culturelles, par exemple celle de serrer la main ou de s’embrasser, varient d’un endroit à l’autre. Ce sont ces conventions sociales que les parents essayent d’inculquer à leurs enfants, afin que ces derniers puissent comprendre le monde dans lequel ils grandissent. Ce sont aussi ces conventions sociales qui amènent à la structure du langage naturel, des langues que nous utilisons pour parler les uns aux autres et faire société ensemble. Ces protocoles permettent de décrire des choses beaucoup plus complexes et abstraites que ne le peuvent les systèmes numériques, mais décrivent tout autant la personne qui en fait usage. Un des exemples qui me vient en tête est le vouvoiement. C’est un protocole typiquement français que les anglo-saxons, par exemple, ne comprennent pas, et qui les amène à faire de nombreuses erreurs protocolaires, nous poussant parfois à les considérer comme malpolis. Du moins, pour les personnes reconnaissant la pertinence de ce protocole.
Notre pensée et notre langue sont inextricablement liées. Sans nécessairement chercher à résoudre qui de la langue et de la pensée arrive en premier, la langue que l’on utilise reflète notre pensée. Les protocoles que j’utilise au quotidien pour communiquer avec les autres sont définis par une part commune de nos pensées, cette partie qui constitue la culture. La connexion entre nous nous permet de partager partiellement nos pensées, et la dialectique, par exemple, est un des protocoles que l’on peut utiliser pour communiquer de manière structurée avec les autres. Cela nécessite que le champ lexical disponible, la grammaire utilisée, les éléments descriptifs des protocoles donc, limitent les pensées que l’on peut échanger. C’est toute la difficulté de la pédagogie par exemple, il faut transmettre une idée à quelqu’un qui ne la connaît pas, et donc formaliser l’échange. C’est pour cette raison que, dans de nombreux domaines, des jargons apparaissent, transcendant parfois les langues locales des personnes, afin de permettre une transmission de connaissance. C’est aussi la standardisation de la langue qui est, par exemple, au cœur des préoccupations d’Orwell lorsqu’il décrit la novlangue dans 1984. C’est une langue très appauvrie, ne contenant qu’un nombre limité de mots et de fonctions, et qui rend, de fait, coûteuse la discussion sur des sujets politiques. Comment parler de liberté si vous n’avez pas de mots pour décrire ce concept autre que penséecrime ? Il vous faudra l’expliquer avec cette langue commune, contenant peu de mots, lui associant ensuite un mot que seuls vous et votre interlocuteur·rice connaîtrez. Et il faudra recommencer à chaque fois que vous voulez expliquer votre idée à quelqu’un·e d’autre.
Contrôler la langue permet donc de contrôler les échanges entre les personnes, leurs dialogues et leur rapport au monde. La langue française a, par exemple, été ainsi standardisée par l’Académie Nationale au XVII° siècle et est, depuis, au centre de nombreux combats entre conservateurs et réformateurs, notamment sur le rôle de l’académie dans la mise en avant du genre masculin par défaut (contrairement à l’anglais par exemple, ou à de nombreuses langues) ou s’opposant à la modernisation de la langue. Il n’est d’ailleurs pas innocent que cette académie ait été créée par Richelieu afin d’étendre son influence sur la société française de l’époque.
Contrôler les protocoles de communications permet donc de contrôler l’échange d’information entre individus. C’est conscientes de ce pouvoir que les personnes qui ont participé à la création et à l’émergence d’Internet ont fait attention à créer des protocoles agnostiques, c’est à dire dont le comportement ne change pas en fonction du contenu. C’est le principe à la base de la neutralité des réseaux. C’est une neutralité idéologique — le réseau ne prend pas parti pour tel ou tel contenu —, mais pas une neutralité sociale. L’existence de réseaux interconnectés qui utilisent ces protocoles agnostiques rend possible l’échange d’une multitude d’informations, et permet donc de laisser aux personnes le contrôle sur leurs connexions avec leurs pairs. La gestion collective de ce bien commun mondial qu’est ce réseau de réseaux n’est rendue possible que parce que les protocoles utilisés, et leur ouverture, permettent à tout le monde de participer à sa gouvernance. Et le fonctionnement des organes de gouvernance dont s’est doté ce réseau obéissent aussi à des protocoles précis et détaillés, garantissant que leur contrôle ne pourra pas tomber directement entre les mains d’un seul acteur hégémonique.
Émergence des titans
Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) ont cependant, petit à petit, rachat par rachat, infiltré et pris le contrôle partiel de ces organes. Sous couvert d’améliorer la sécurité des personnes, de réduire la pollution ou de lutter contre la contrefaçon, ils ont transformé ces protocoles agnostiques en portail de validation et d’identification. Plus moyen d’envoyer un mail à Google sans avoir au préalable installé des protocoles ayant pour but de montrer patte blanche. Plus moyen de pouvoir poster un message sur Facebook en utilisant une application non officielle. En vendant les mythes de la performance, de la nécessité d’avoir des contenus dans des définitions supérieures à celle que peut détecter notre œil et de l’instantanéité, les GAFAM ont créé des silos étanches, auxquels on ne peut se connecter qu’en utilisant leurs protocoles.
Ces silos — ces plateformes — permettent aux GAFAM de contrôler nos connexions avec les autres, leur permettant non pas de savoir qui nous sommes, mais bel et bien de décider comment l’on pense. Cela se voit aussi bien par la suppression de certains propos politiques, tout en faisant la promotion de contenus de haine, que par l’enfermement des personnes travaillant dans cet écosystème à n’utiliser que des protocoles dont la fonction est de rendre financièrement rentable la captation des utilisateur·rices. Si j’ai un marteau en main, mes problèmes tendent à ressembler à des clous dit-on. Si j’ai en main un protocole de surveillance, de mesure et de contrôle de la pensée, alors tous mes problèmes deviennent des problèmes de quantification et d’analyse de données.
D’un ensemble vivant et évoluant sans cesse, décrit par des protocoles permettant de ne pas hiérarchiser ou classifier le contenu et les idées, nous avons une novlangue protocolaire écrite par les GAFAM et dont le seul but et de promouvoir leurs visions conservatrices et capitalistes1Okhin – La Quadrature du Net, « De la modération », 22 juil. 2019, https://www.laquadrature.net/2019/07/22/de-la-moderation/. Il ne m’est pas possible de quitter Facebook, car j’entretiens des connexions avec des personnes qui y sont, et que, de fait, je suis présent sur Facebook, sans même y avoir de compte. Il n’est pas possible de trouver une plateforme alternative, car l’on se retrouve alors avec le même problème : une plateforme qui va se retrouver en charge de choisir les connexions qu’elle effectue avec le monde, et donc de décider comment les personnes qui utilisent ses services voient le monde et se définissent. Ces plateformes alternatives, utilisant souvent une gouvernance fédérée (partagée entre les participant·es et acteurs de la plateforme), sont un premier pas intéressant, mais qui utilise toujours les outils des GAFAM : des protocoles chargés de trier le bon contenu du mauvais, en rendant obligatoire l’utilisation de contrôle d’accès par exemple, ou en favorisant les contenus largement demandés aux autres et en perpétuant la chasse aux Likes et autres Retweet.
La solution est la suppression des plateformes. Il nous faut réutiliser des protocoles agnostiques, ne requérant pas de certification préalable, permettant à n’importe quelle machine participant au réseau d’être acteur de celui-ci et non un simple consommateur de données. Ces protocoles existent déjà : ce sont tous les protocoles fonctionnant en pair-à-pair. Le protocole BitTorrent, par exemple, permet de s’échanger des fichiers sans passer par un serveur central. Avec l’avantage supplémentaire que, à chaque fois que je veux lire le contenu de ce fichier, je n’ai besoin ni d’être connecté à Internet ni de retélécharger intégralement le fichier (ce qui est le cas des plateformes de streaming par exemple). Le fonctionnement en pair-à-pair permet également de mobiliser l’ensemble des ressources des participant·es du réseau, au lieu du modèle actuel dans lequel nos machines sont passives le plus clair de leur temps.
Effectivement, la surveillance des connexions, sans plateformes par laquelle on peut passer, rend complexe et coûteuse l’observation des groupes sociaux. Mais ces systèmes en pair-à-pair permettent à chacun de pouvoir se déterminer, en fonction des liens qu’il entretient avec le monde, liens qui reviennent partiellement sous son contrôle dans un tel modèle. Cet internet des protocoles permet de pouvoir penser librement, de se définir comme on l’entend, de se documenter sur le monde pour essayer de le comprendre, sans s’inféoder aux décisions politiques et arbitraires d’entités ne rendant de compte à personne d’autre que leurs investisseurs et actionnaires.
Okhin – La Quadrature du Net, « De la modération », 22 juil. 2019, https://www.laquadrature.net/2019/07/22/de-la-moderation/
";s:7:"dateiso";s:15:"20210228_101800";}s:15:"20210223_131407";a:7:{s:5:"title";s:46:"Technopolice : Mise à jour de la Technocarte";s:4:"link";s:70:"https://www.laquadrature.net/2021/02/23/mise-a-jour-de-la-technocarte/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16959";s:7:"pubDate";s:31:"Tue, 23 Feb 2021 12:14:07 +0000";s:11:"description";s:207:"Ce article a été d’abord publié sur le blog de notre site de campagne Technopolice.
Ce mois de février, on lance la saison 2 de la campagne Technopolice. Depuis un an et demi que la campagne…";s:7:"content";s:1843:"
Ce article a été d’abord publié sur le blog de notre site de campagne Technopolice.
Ce mois de février, on lance la saison 2 de la campagne Technopolice. Depuis un an et demi que la campagne est lancée, le déploiement de la technopolice sur les territoires gagne toujours plus en intensité et la crise sanitaire n’a fait qu’aggraver les choses.
La semaine dernière, nous avons publié notre argumentaire juridique contre la proposition de loi « Sécurité globale ». En intensifiant la vidéosurveillance fixe, en permettant le déploiement des drones, des « caméras embarquées » et des caméras piétons, en facilitant l’analyse de ces images, cette loi veut inscrire la surveillance automatisée dans notre quotidien.
Aujourd’hui, nous mettons à jour la Technocarte : une nouvelle charte visuelle, et des filtres spécifiques suivant les types de dispositifs que nous avons identifiés : caméras thermiques, caméras parlantes, drones, etc. — bref, toujours des caméras partout et des libertés nulle part. Cet outil est toujours appelé à s’améliorer, n’hésitez pas à nous donner des idées sur le forum.
Dans les semaines à venir, nous détaillerons les autres outils développés et utilisés depuis un an dans notre campagne : nos demandes d’accès aux documents d’abord et notre plateforme de fuite de documents ensuite.
";s:7:"dateiso";s:15:"20210223_131407";}s:15:"20210222_141630";a:7:{s:5:"title";s:31:"La technopolice aux frontières";s:4:"link";s:71:"https://www.laquadrature.net/2021/02/22/la-technopolice-aux-frontieres/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16941";s:7:"pubDate";s:31:"Mon, 22 Feb 2021 13:16:30 +0000";s:11:"description";s:226:"Comment le business de la sécurité et de la surveillance au sein de l’Union européenne, en plus de bafouer des droits fondamentaux, utilise les personnes exilées comme laboratoire de recherche, et ce sur des fonds…";s:7:"content";s:9907:"
Comment le business de la sécurité et de la surveillance au sein de l’Union européenne, en plus de bafouer des droits fondamentaux, utilise les personnes exilées comme laboratoire de recherche, et ce sur des fonds publics européens.
On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces dispositifs technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un marché colossal et profite grandement de l’échelle communautaire et de ses programmes de recherche et développement (R&D) comme Horizon 2020.
Roborder – des essaims de drones autonomes aux frontières
C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de drones autonomes, fonctionnant et patrouillant ensemble. L’intelligence artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la police aux frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des « radio-fréquences non fiables », c’est-à-dire à écouter les communications et également à mesurer la pollution marine.
Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en Grèce, au Portugal et en Hongrie.
Un financement européen pour des usages « civils »
Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de Hellas (le CERTH), en Grèce et comme le montre l’association Homo Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’Irlande du Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).
L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la recherche militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit « civil » de la sécurité intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la répression aux frontières comme une matérialisation de la militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.
De plus, dans les faits, comme le montre The Intercept, une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.
IborderCtrl – détection d’émotions aux frontières
Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et Lettonie.
Il consiste notamment en de l’analyse d’émotions (à côté d’autres projets de reconnaissances biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur visage passer au crible d’un algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le contrôle aux frontières » : si le détecteur de mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la neutralité technologique à des politiques d’exclusion et de déshumanisation.
Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au secret commercial. Ici encore, on voit que le champ « civil » et non « militaire » du projet est loin de représenter un garde-fou.
Conclusion
Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.
Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une « efficacité » qui finalement ne profite qu’aux industries de la surveillance.
Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !
";s:7:"dateiso";s:15:"20210222_141630";}s:15:"20210217_110754";a:7:{s:5:"title";s:79:"Contre la surveillance biométrique de masse : signez la pétition européenne";s:4:"link";s:114:"https://www.laquadrature.net/2021/02/17/contre-la-surveillance-biometrique-de-masse-signez-la-petition-europeenne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16925";s:7:"pubDate";s:31:"Wed, 17 Feb 2021 10:07:54 +0000";s:11:"description";s:21:"Le collectif « ";s:7:"content";s:7885:"
Le collectif « Reclaim your Face », lance aujourd’hui sa campagne contre la surveillance biométrique et notamment la reconnaissance faciale. « Reclaim Your Face » est composé de plus de quarante associations de défense des libertés et menée par l’organisation européenne EDRi. Cette campagne prend la forme d’une « initiative citoyenne européenne » : il s’agit d’une pétition institutionnelle visant à recueillir 1 million de signatures au sein de plusieurs pays de l’Union européenne pour demander à la Commission d’interdire les pratiques de surveillance biométrique de masse
En décembre 2019, l’OLN, accompagnée de 124 organisations, demandait déjà l’interdiction de la reconnaissance faciale sécuritaire. Nous avions souligné les dangers de cette technologie : le risque d’une surveillance permanente et invisible de l’espace public, nous transformant en une société de suspect·es et réduisant nos corps à une fonction de traceurs constants pour abolir l’anonymat dans l’espace public.
La surveillance biométrique ne se limite pas à la reconnaissance faciale. Un an après, notre demande d’interdiction n’a pas abouti et les techniques de surveillance biométrique se sont multipliées, notamment dans le contexte de la crise sanitaire. Alors que la police continue d’utiliser de façon massive la reconnaissance faciale à travers le fichier des Traitements des Antécédents Judiciaires (TAJ), plusieurs villes et administrations ont déployé des dispositifs de contrôle de température, de détection de port du masque ou des projets de vidéosurveillance intelligente pour suivre et tracer les mouvements sociaux.
La France n’est malheureusement pas le seul pays où se développe cette surveillance biométrique. En Italie, en Serbie, en Grèce ou aux Pays-Bas, l’État déploie plusieurs dispositifs qui promettent à l’Europe un avenir de surveillance automatisée permanente.
Des batailles contre la société de contrôle se jouent donc aujourd’hui : dans les mobilisations sociales contre les projets de loi sécuritaires, dans la lutte contre l’opacité qui entoure le déploiement de ces techniques, dans les tribunaux où sont contestées ces expérimentations de surveillance.
Chaque initiative compte. Cette pétition européenne a pour objectif de montrer le refus populaire massif et d’imposer un débat sur l’arrêt du déploiement de ces outils de contrôle, et nous l’espérons permettra d’obtenir un texte protecteur à l’échelle de l’Union européenne.
C’est un combat important contre des futurs où nos corps et nos comportement seraient en permanence scannées.
Demandons donc ensemble l’interdiction formelle de la surveillance biométrique : de la reconnaissance faciale sécuritaire, de l’analyse des émotions et des comportements par la vidéosurveillance, des prédictions automatisées en raison de caractéristiques physiques, de l’analyse automatisée biométrique de nos profils sur les réseaux sociaux, de l’analyse automatique de nos voix et de nos comportements pour nous contrôler.
Pour rejoindre cette lutte, nous vous invitons donc à signer et à relayer cette pétition sur la page de campagne de la Coalition Reclaim Your Face : https://reclaimyourface.eu/fr/
Le texte de l’initiative validé par la Commission européenne et ses annexes disponibles ici en français et reproduit ci-dessous :
« Initiative de la société civile en vue d’une interdiction des pratiques de surveillance biométrique de masse »
Nous exhortons la Commission européenne à réglementer strictement l’utilisation des technologies biométriques afin d’éviter toute atteinte injustifiée aux droits fondamentaux. Nous demandons en particulier à la Commission d’interdire, en droit et en pratique, les utilisations indifférenciées ou arbitrairement ciblées de la biométrie pouvant conduire à une surveillance de masse illégale. Ces systèmes intrusifs ne peuvent être développés, mis en place (même à titre expérimental) ou utilisés par des entités publiques ou privées dans la mesure où ils sont susceptibles d’entraîner une atteinte inutile ou disproportionnée aux droits fondamentaux des personnes.
Il apparaît que certaines utilisations de la surveillance biométrique de masse dans les États membres et par des agences de l’UE ont donné lieu à des violations de la législation de l’UE en matière de protection des données et ont indûment restreint les droits des personnes, y compris le droit au respect de la vie privée, le droit à la liberté d’expression, le droit de manifester et le droit à la non-discrimination. Le recours généralisé à la surveillance biométrique, au profilage et à la prédiction constitue une menace pour l’état de droit et pour nos libertés les plus fondamentales.
Par cette ICE, nous prions donc instamment la Commission de proposer un acte juridique qui s’appuiera sur les interdictions générales prévues par le RGPD et la directive en matière de protection des données dans le domaine répressif et respectera pleinement lesdites interdictions, pour faire en sorte que le droit de l’Union interdise explicitement et spécifiquement la surveillance biométrique de masse.
";s:7:"dateiso";s:15:"20210217_110754";}s:15:"20210215_163531";a:7:{s:5:"title";s:46:"Sécurité globale : nos arguments juridiques";s:4:"link";s:82:"https://www.laquadrature.net/2021/02/15/securite-globale-nos-arguments-juridiques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16891";s:7:"pubDate";s:31:"Mon, 15 Feb 2021 15:35:31 +0000";s:11:"description";s:292:"L’année 2020 s’était finie en apothéose : après une série de manifestations prodigieuses contre la loi sécurité globale, alors adoptée par l’Assemblée nationale, nous obtenions une victoire décisive devant le Conseil d’État contre les drones. Si…";s:7:"content";s:33167:"
L’année 2020 s’était finie en apothéose : après une série de manifestations prodigieuses contre la loi sécurité globale, alors adoptée par l’Assemblée nationale, nous obtenions une victoire décisive devant le Conseil d’État contre les drones. Si le début de l’année 2021 est douloureux, entre un hiver sanitaire qui n’en finit plus et le spectacle raciste lancé avec la loi séparatisme (lire aussi nos craintes pour les libertés associatives), il est temps de relancer l’offensive.
Commençons par la loi sécurité globale, examinée en commission par le Sénat le 3 mars. Afin de corriger l’analyse particulièrement bienveillante de la CNIL envers les dérives sécuritaires du gouvernement, nous envoyons aux sénateurs la nôtre, reproduite ci-dessous, centrée sur les sept articles qui renforceront la surveillance policière. Dans les jours suivants, il nous faudra poursuivre notre combat contre la Technopolice toute entière, tant au niveau local que national, pour aujourd’hui comme pour demain (voir notre mobilisation sur les JO 2024), car cette loi n’est que la première étape d’une longue lutte que nous devrons absolument gagner.
Loi Sécurité Globale – Analyse du titre III « Vidéoprotection et captation d’images »
La Quadrature du Net s’oppose à la proposition de loi « Sécurité Globale » et appelle le Sénat à la rejeter. Par la présente analyse, elle entend démontrer le caractère inconstitutionnel et inconventionnel des dispositions :
intensifiant la vidéosurveillance fixe (articles 20, 20 bis A, 20 bis et 20 ter) ; et
autorisant la vidéosurveillance mouvante (articles 21, 22 et 22 bis).
L’ensemble de ces dispositions aura pour effet d’intensifier la reconnaissance faciale.
Ces modifications sont intrinsèquement contraires à la Constitution et au droit européen. Aucune garantie ni aucun aménagement ne saurait les rendre conformes à ces normes supérieures qui s’imposent au législateur. L’ensemble des articles 20 à 22 bis doivent être supprimés, sans quoi nous les soumettrons à l’examen de toute juridiction utile pour les faire censurer et corriger, une fois de plus en la matière, les erreurs de droit qu’elle comporte.
I – Vidéosurveillance fixe
En droit, le Conseil constitutionnel juge que les systèmes de vidéosurveillance affectent la liberté d’aller et venir, le droit à la vie privée ainsi que l’inviolabilité du domicile, protégés par les articles 2 et 4 de la Déclaration des droits de l’Homme et du citoyen de 1789, et ne peuvent donc être conformes à la Constitution qu’en respectant de strictes garanties (Cons. constit., 94-352 DC, 18 janvier 1995, §§ 3 et 4). Il souligne aussi que des mesures de surveillance généralisée sont susceptibles de porter atteinte à la liberté d’expression et de manifestation (Cons. const., 27 décembre 2019, 2019-796 DC, § 83).
La Cour de justice de l’Union européenne juge que « l’image d’une personne enregistrée par une caméra constitue une donnée à caractère personnel » (CJUE, C-212/13, 11 décembre 2014, §22) dont la protection est garantie par l’article 8 de la Charte des droits fondamentaux de l’Union européenne (la Charte) et qui, à ce titre aussi, ne peut être traitée que dans de strictes limites, notamment définies par la directive 2016/680 (dite « police-justice »).
En l’espèce, les articles 20 à 20 ter intensifieraient la vidéosurveillance bien au-delà des limites définies par la Constitution et le droit européen, sur quatre points.
A – Défaut de nécessité
En droit, une disposition ne peut porter atteinte aux libertés fondamentales que si cette atteinte est nécessaire à l’objectif qu’elle prétend poursuivre. Il s’agit d’une des garanties exigées par la Constitution en matière de vidéosurveillance. De même, la Cour européenne des droits de l’Homme (CEDH) considère qu’une atteinte au droit à la vie privée n’est justifiée que « si elle est proportionnée au but légitime poursuivi et si les motifs invoqués par les autorités nationales pour la justifier apparaissent « pertinents et suffisants » » (cf. CEDH, 4 décembre 2008, S et Marper c. Royaume-Uni, n°30562/04 et 30566/04, § 101). De même, l’article 4 de la directive police-justice exige que tout traitement de surveillance policière « soit nécessaire et proportionné » à la lutte contre les infractions et les atteintes à la sécurité publique.
En l’espèce, il faut souligner que, depuis son autorisation en 1995, la nécessité et l’efficacité de la vidéosurveillance contre les infractions et les atteintes à la sécurité publique n’ont jamais été démontrées. Bien au contraire, les seules études concrètes déplorent qu’« aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de délinquance commis sur la voie publique » (Cour des comptes, Les polices municipales, octobre 2020).
En conclusion, la proposition de loi devrait corriger le dispositif actuel de vidéosurveillance pour en réduire largement ou totalement le champ d’application. Or, en l’état actuel du texte, non seulement cette proposition de loi ne réduit pas au strict nécessaire le dispositif existant, mais au contraire elle l’intensifie. Si le dispositif de base est disproportionné, son extension l’est d’autant plus et viole les normes supérieures de ce seul fait.
B – Surveillance des lieux privés
En droit, une des principales garanties qu’un système de vidéosurveillance doit respecter pour être conforme à la Constitution est de ne pas capter les images de l’intérieur des immeubles et de leurs entrées (Cons. const., décision 94-352 DC, §5). Ainsi, en 2010, le Conseil constitutionnel n’a pas hésité à censurer une disposition qui autorisait la police à accéder aux images de caméras de hall d’immeubles dès lors que surviennent « des événements ou des situations susceptibles de nécessiter l’intervention des services de police ou de la gendarmerie » (Décision 2010-604 du 25 février 2010).
En l’espèce, une loi de 2011 a réintroduit la disposition censurée en 2010 en tentant de la corriger par une condition un peu plus limitée : la transmission d’image n’est plus permise qu’en présence « de circonstances faisant redouter la commission imminente d’une atteinte grave aux biens ou aux personnes ». Hélas, le Conseil constitutionnel n’a jamais eu l’occasion de trancher si cette modification suffirait pour rendre le dispositif conforme à la Constitution.
Pourtant, l’article 20 bis de la présente proposition de loi supprimerait cette limitation de 2011 pour revenir à une situation quasi-identique à celle censurée en 2010. Les images pourraient être transmises en cas de simple « occupation par des personnes qui entravent l’accès et la libre circulation des habitants ou empêchent le bon fonctionnement des dispositifs de sécurité et de sûreté ou nuisent à la tranquillité des lieux ». La condition de « nuisance à la tranquillité des lieux » est aussi large, et même davantage, que celle de « situations susceptibles de nécessiter l’intervention de la police ». En pratique, cette nouvelle condition permettrait à tout moment à n’importe quel bailleur, ou à la police, de permettre la transmission en direct des images filmées par les caméras.
En conclusion, une telle disposition reviendrait à autoriser dans des conditions totalement disproportionnées la vidéosurveillance par la police dans les immeubles d’habitation, en contradiction manifeste avec la jurisprudence du Conseil constitutionnel.
C – Extension des personnes ayant accès aux images
En droit, la CJUE juge contraire à la Charte une mesure de surveillance qui « ne prévoit aucun critère objectif permettant de limiter le nombre de personnes disposant de l’autorisation d’accès et d’utilisation ultérieure des données » (CJUE, grande chambre, 8 avril 2014, Digital Rights Ireland et autres, C-293/12, C-594/12, § 62). Cette limitation est indispensable dans la mesure où les risques de dérives et d’abus des mesures de surveillance ainsi que la difficulté du contrôle que peut en faire une autorité indépendante sont proportionnels au nombre de personnes pouvant les mettre en œuvre. Dans son avis du 21 décembre 2020, la Défenseure des droits insiste sur le fait que cette limitation est une garantie centrale pour le respect de la vie privée.
En l’espèce, l’article L252-3 du code de la sécurité intérieure limite actuellement le visionnage des images de vidéosurveillance aux seuls agents de la gendarmerie et de la police nationale. La loi sécurité globale étendrait cet accès aux agents :
de la police municipale et de la ville de Paris (article 20) ;
des communes, des communautés de communes et des groupements similaires (article 20bisA) ;
des services de sécurité de la SNCF et de la RATP (article 20 ter).
Aucun élément matériel ni aucune étude concrète n’a été produite pour démontrer la nécessité d’une extension si importante des personnes accédant aux images de vidéosurveillance pour lutter contre les infractions.
En conclusion, cette extension multiplie hors de toute proportion justifiée les risques de détournement et d’abus des mesures de surveillance, tout en diminuant les capacités de contrôle des autorités indépendantes.
D – Délégation à des personnes privées
En droit, le Conseil constitutionnel juge que la nécessité d’une force publique, inscrite à l’article 12 de la DDHC, interdit de déléguer à des personnes privées des compétences de police administrative générale et de surveillance générale de la voie publique (Conseil constit., décision 2011-625 DC du 10 mars 2011).
En l’espèce, l’article 20 ter permet aux agents des services internes de la SNCF et de la RATP d’avoir accès aux images de vidéosurveillance de la voie publique. Il s’agit de salariés de droit privé auxquels serait délégué un pouvoir de surveillance de la voie publique. Les encadrements prévus par la loi, comme le contrôle d’un agent de police ou le nombre limité de finalités, n’altèrent en rien la qualification de délégation à une personne privée d’une mission de surveillance.
En conclusion, la délégation que prévoit l’article 20 ter de la proposition de loi est contraire à la Constitution.
2. Vidéosurveillance mouvante
Les articles 21, 22 et 22 bis concernent le déploiement et l’intensification de la vidéosurveillance mouvante : transmission en temps réel et systématisation des images captées par les caméras-piétons, légalisation des caméras aéroportées et des caméras embarquées. Ces trois types de vidéosurveillance seront examinés ensemble, car elles partagent toutes le fait d’être mobiles : cette seule caractéristique suffit à les rendre irréconciliables avec quatre garanties fondamentales exigées par la Constitution et le droit européen.
A – Défaut de nécessité
En droit, tel qu’exposé précédemment, une atteinte à la vie privée ou à la protection des données personnelles n’est conforme à la Constitution et au droit européen que si elle est strictement nécessaire à la finalité qu’elle poursuit. Plus spécifiquement, l’article 4 de la directive police-justice exige que le traitement de données personnelles réalisé pour lutter contre les infractions et les atteintes à la sécurité publique « soit nécessaire et proportionné » à cette finalité et que les données soient « adéquates, pertinentes et non excessives » au regard de cette finalité.
Plus grave, si les images captées sont des données « sensibles », telles que des données biométriques ou des données pouvant révéler les opinions politiques ou religieuses des personnes filmées, l’article 10 de la directive police-justice, transposé à l’article 88 de la loi informatique et libertés, exige que les autorités démontrent la « nécessité absolue » d’une telle surveillance – autrement dit, la police doit démontrer être dans l’impossibilité matérielle de lutter contre les infractions si elle ne peut pas utiliser ces caméras.
En l’espèce, l’article 21 veut généraliser la captation et la transmission d’images par caméras-piéton. Les articles 22 et 22 bis veulent autoriser les caméras aéroportées (drones) et embarquées (hélicoptères, voitures). Aucune démonstration n’a été réalisée, ni même tentée, quant à la nécessité de déployer de telles caméras pour poursuivre l’une des très nombreuses et larges finalités qu’elles pourraient poursuivre : sécurité des rassemblements de personnes sur la voie publique, constat des infractions, protection des bâtiments…
C’est même le contraire qui commence à apparaître dans la jurisprudence. Dans sa décision du 22 décembre 2020 (décision n° 446155) qui a interdit les drones policiers à Paris, le Conseil d’État a dénoncé que « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement dans les circonstances actuelles, en l’absence de recours à des drones » – c’est-à-dire grâce au 35 000 caméras fixes surveillant déjà l’espace public .
De même, si l’objectif premier des caméras-piétons était de « prévenir les incidents susceptibles de survenir au cours des interventions [et de] déterminer les circonstances de tels incidents, en permettant l’utilisation des enregistrements à des fins probatoires » (comme l’expliquait la CNIL dans son rapport de 2015), le gouvernement n’a jamais pris la peine d’évaluer si cet objectif avait été atteint. Pourtant, sans attendre une telle évaluation, l’article 21 prévoit d’étendre considérablement le rôle de ce dispositif en autorisant la transmission des images au centre de commandement, en direct et à la libre initiative de la police et de la gendarmerie, dès lors que celles-ci considèrent que « la sécurité des agents […] ou la sécurité des biens et des personnes est menacée ». La nécessité d’une extension si importante est encore moins démontrée que celle du dispositif initial, qui fait pourtant défaut.
Si la simple « nécessité » des drones est absente, tout autant que celle des caméras par hélicoptère et des caméras-piétons, leur « nécessité absolue » fait entièrement défaut. Pourtant, ces caméras captent régulièrement des données sensibles, ne serait-ce qu’en manifestation où elles ont largement été déployées et où, par définition, toute image captée est susceptible de révéler des opinions politiques.
Pour toute tentative de justification, la police semble mettre en avant certains faits divers où un drone, ou une caméra piéton, aurait plus ou moins facilité son travail. Non seulement le critère de « nécessité » ou de « nécessité absolue » exige bien davantage qu’un simple gain de temps, d’énergie ou une économie de moyens mais, surtout, la loi ne s’écrit pas sur la base d’anecdotes. En effet, face à chaque fait divers en faveur de telle mesure de surveillance, on pourra toujours en opposer un autre témoignant d’un abus, dans un jeu infini et vain d’étalage de faits divers. Au contraire, la loi se pense par la rigueur d’examens systémiques, que le gouvernement a toujours refusé d’entreprendre ici. Ce ne sont pourtant pas les occasions qui lui ont manqué : ces caméras mouvantes ont été déployées pendant des années, de façon illégale, mais suffisamment large pour en évaluer les effets.
Expérimenter l’usage de drones, proposition portée par la CNIL dans son avis sur la proposition de loi, est également voué à la même contradiction flagrante aux normes supérieures qui s’imposent. Premièrement, une telle expérimentation s’est faite illégalement avant que le Conseil d’État ne vienne explicitement interdire l’usage de drones en mai 2020 puis décembre 2020, et la nécessité absolue fait toujours défaut. Deuxièmement, les règles impératives de proportionnalité, dont l’exigence de « nécessité absolue », ne peuvent être contournées par l’introduction sur le papier d’une disposition qui serait dite expérimentale. La directive police-justice ne distingue pas les cas de surveillances expérimentales des autres ; en effet, une telle distinction aurait pour conséquence de vider de leur substance les protections requises par le droit européen.
En conséquence, à défaut d’être nécessaires à la poursuite des finalités qui leur sont associées, et alors qu’ils causent de graves atteintes aux libertés fondamentales tel que démontré ci-après, les dispositifs de caméra mouvante autorisés par la présente proposition de loi ne sauraient l’être sans violer la Constitution et le droit européen, y compris s’ils étaient expérimentaux.
B – Défaut de contrôle préalable
En droit, le Conseil constitutionnel juge, en matière de vidéosurveillance, que le législateur « ne peut subordonner à la diligence de l’autorité administrative l’autorisation d’installer de tels systèmes sans priver alors de garanties légales les principes constitutionnels » protégeant la liberté d’aller et venir, la vie privée et l’inviolabilité du domicile. Le Conseil exige que le législateur prévoie un contrôle préalable extérieur, tel que l’avis préalable d’une commission indépendante ayant pu en examiner la nécessité et la proportionnalité du dispositif (Conseil constit., 94-352 DC, 18 janvier 1995, §§ 6 et 12).
De la même manière, la CJUE exige qu’une mesure de surveillance ne puisse être déployée qu’en faisant l’objet « d’un contrôle effectif soit par une juridiction, soit par une entité administrative indépendante, dont la décision est dotée d’un effet contraignant, visant à vérifier l’existence d’une situation justifiant ladite mesure ainsi que le respect des conditions et des garanties devant être prévues » (CJUE, C-511/18, La Quadrature du Net, 6 octobre 2020, §§ 139, 168, 179, 189 et 192).
Ainsi, avant d’installer chaque caméra, une autorité indépendante doit pouvoir examiner si le lieu filmé est surveillé pour des justifications suffisantes propres à ce lieu – telles que la fréquence des infractions qui y surviennent, leur nature, leur gravité et les difficultés particulières que la police y rencontre. C’est ainsi que l’article L252-1 du code de la sécurité intérieure prévoit qu’un dispositif de vidéosurveillance ne peut être autorisé qu’après l’avis d’une commission départementale de vidéoprotection, présidée par un magistrat.
En l’espèce, il est impossible de connaître à l’avance les lieux filmés par une caméras-piéton, aéroportée ou embarquée. La police et la gendarmerie décident seules et sur le vif des lieux à surveiller, en réaction à des situations imprévisibles par nature. La proposition de loi ne prévoit aucune forme de contrôle préalable car, en pratique, il semble effectivement improbable qu’une autorité extérieure puisse examiner en temps réel la nécessité pour un agent d’activer sa caméra ou pour un drone de survoler telle ou telle position.
Cette impossibilité intrinsèque à toute caméra mouvante a des conséquences particulièrement graves : si la police souhaite abuser de ses pouvoirs afin, par exemple, d’envoyer un drone filmer les locaux d’une association, d’un journal ou d’un avocat, ou encore la résidence d’un parlementaire ou d’une personne bénéficiant d’un asile politique, elle pourrait le faire en toute discrétion et en toute autonomie, sans qu’aucune autorité indépendante n’en soit informée. À l’inverse, l’installation de caméra fixe est signalée et examinée par une autorité indépendante à même de dénoncer de telles dérives.
En conséquence, les mesures de vidéosurveillance mouvante ne pouvant pas être examinées au préalable par une autorité indépendante, les dispositions qui autorisent leur déploiement violent la Constitution et le droit européen.
C – Défaut d’information
En droit, pour être conforme à la Constitution, une disposition qui autorise un dispositif de vidéosurveillance doit s’assurer « que le public soit informé de manière claire et permanente de l’existence du système de vidéosurveillance ou de l’autorité et de la personne responsable » (Cons. constit., décision 94-352 DC, 18 janvier 1995, § 5).
De même, l’article 13 de la directive police-justice exige que le responsable d’une mesure de surveillance fournisse aux personnes concernées plusieurs informations, telles que l’identité du responsable, les finalités du traitement et le droit d’accéder aux données.
S’agissant des caméras fixes, l’article R252-3 du code de la sécurité intérieure prévoit que chaque dispositif de vidéosurveillance soit accompagné d’une affiche indiquant « le nom ou la qualité et le numéro de téléphone du responsable auprès duquel toute personne intéressée peut s’adresser pour faire valoir le droit d’accès prévu à l’article L. 253-5 ». Seule une information aussi précise et complète permet de garantir le respect des garanties avancées par le Conseil constitutionnel et le droit de l’Union.
En l’espèce, la proposition de loi prévoit que le public devrait être informé de la surveillance par drone « par tout moyen approprié » et de la surveillance par caméra embarquée « par une signalétique spécifique de l’équipement du moyen de transport par une caméra ». En pratique, tel qu’il a été facile de constater ces dernières années, cette information sera systématiquement défaillante : un écriteau « vous êtes filmé » accroché à un hélicoptère volant à plus de 100 mètres n’aura aucun effet ; pire, un drone vole trop haut pour transmettre la moindre information visuelle ou sonore, et sa taille est si petite qu’il échappe souvent entièrement à l’attention des personnes surveillées. De même, les caméras-piétons se fondent parfaitement dans l’équipement des agents qui, eux-mêmes, se fondent facilement dans les foules surveillées, qu’ils n’ont aucun moyen visuel ou sonore d’informer de façon réaliste.
Par ailleurs, la proposition de loi prévoit que les agents peuvent ne pas informer le public d’une surveillance par drone ou par caméra embarquée « lorsque les circonstances l’interdisent ». Cette dérogation est si large qu’elle retire tout effet utile que ces mesures auraient pu avoir. Cette dérogation est d’ailleurs inexistante dans la loi sur la vidéosurveillance fixe de la voie publique.
En conséquence, les mesures de vidéosurveillance mouvante ne pouvant jamais être portées à la connaissance du public de façon suffisamment efficace, les dispositions qui autorisent leur déploiement violent la Constitution et le droit européen.
D – Surveillance des lieux privés
En droit, tel que rappelé ci-dessus, une des principales garanties qu’un système de vidéosurveillance doit respecter pour être conforme à la Constitution est de ne pas capter les images de l’intérieur des immeubles et de leurs entrées (Cons. const., décision 94-352 DC, §5).
Ainsi, les caméras fixes sont orientées de façon à éviter de filmer les immeubles et, quand elles ne le peuvent pas, un système d’obstruction matérielle ou logicielle basique permet de ne pas capter l’image des immeubles (un rectangle noir, typiquement).
En l’espèce, la vidéosurveillance mouvante filme des lieux qui changent constamment et qui ne peuvent être connus à l’avance. Or, il est techniquement irréaliste d’obstruer en temps réel l’image d’immeubles présents sur des lieux inconnus à l’avance et en mouvement constant – contrairement aux lieux statiques filmés par les caméras fixes. Le caractère mouvant de cette vidéosurveillance est mécaniquement incompatible avec une interdiction de filmer l’intérieur des immeubles.
Dès lors, l’article 21 sur les caméras-piétons et l’article 22 bis sur les caméras embarquées ne prévoient aucune interdiction de filmer l’intérieur des immeubles – ce qui, en effet, serait irréaliste. Pourtant, ces caméras sont presque toujours en situation de filmer l’intérieur d’immeubles et de lieux privés, ne serait-ce qu’au travers des fenêtres.
L’article 22 sur les drones prévoit une interdiction de filmer l’intérieur des « domiciles » ou de leurs entrées et non, comme l’exige le Conseil constitutionnel, l’intérieur de tous les « immeubles » en général. La police et la gendarmerie seraient seules à décider quels immeubles sont ou non des domiciles. Cette appréciation se ferait à la volée et en cours d’opération, ce qui semble parfaitement irréaliste – même via des outils d’analyse automatisée, qui ne seraient d’aucune aide s’agissant d’une appréciation aussi sociale et humaine de ce qu’est ou non un « domicile ». Mais ce problème est finalement sans importance dans la mesure où, de toute façon, aucun dispositif technique n’est capable d’obstruer en temps réels l’image mouvante d’immeubles, domiciles ou non.
Au cours des débats à l’Assemblée nationale, la rapporteure Alice Thourot a reconnu sans ambiguïté, s’agissant des drones, qu’il « n’est matériellement pas possible d’interdire de visualiser les espaces privés » (voir les débats publics de la troisième séance du vendredi 20 novembre 2020 relatifs à l’amendement n° 1164).
En conséquence, les dispositifs de vidéosurveillance mouvante ne pouvant jamais éviter de filmer l’intérieur des immeubles, les articles 21 à 22 bis, qui intensifient et autorisent leur déploiement, violent la Constitution.
3 – Reconnaissance faciale
Le titre III de la proposition de loi vise à intensifier la vidéosurveillance fixe et généraliser la vidéosurveillance par drones, hélicoptères et caméras-piétons. Toutes les nouvelles images captées par ces dispositifs, fixes comme mouvants, seront transmises en temps réel à un poste de commandement.
Une telle transmission en direct donne aux forces de police et de gendarmerie la capacité d’analyser les images transmises de façon automatisée, notamment en recourant au dispositif de reconnaissance faciale autorisé par le décret du 4 mai 2012 relatif au traitement d’antécédents judiciaires. Cette technique, qui n’a jamais été autorisée par le législateur, est l’exemple typique de traitements de données biométriques qui, au titre de l’article 10 de la directive police-justice et de l’article 88 de la loi informatique et libertés, doivent démonter leur « nécessité absolue » dans la lutte contre les infractions et les menaces pour la sécurité publique. Pourtant, cette nécessité n’a jamais été démontrée et le droit français ne prévoit aucune garantie pour les limiter à ce qui serait absolument nécessaire. Au contraire, le recours à ces techniques semble être devenu systématique et ne reposer sur aucun contrôle de proportionnalité : en 2019, les autorités ont réalisé plus de 375 000 opérations de reconnaissance faciale, soit plus de 1 000 par jour (voir l’avis rendu le 13 octobre 2020 par le député Mazars au nom de la commission des lois de l’Assemblée nationale).
Il ne fait pourtant aucun doute que l’analyse automatisée d’images de vidéosurveillance est aujourd’hui contraire au droit français et européen, qu’il s’agisse d’ailleurs de reconnaissance faciale comme de tout autre type d’analyse automatisée permettant l’identification et le suivi d’une personne, tel que la CNIL l’a encore dénoncé face au déferlement de caméras dites « intelligentes » au cours de la crise du Covid-19 (Cnil, « Caméras dites « intelligentes » et caméras thermiques », 17 juin 2020).
Comme vu tout au long de la présente analyse, l’utilité opérationnelle des nouvelles captations et transmissions d’images semble nulle ou très faible. Il en irait peut être autrement si le véritable objectif de ces changements était d’abreuver les dispositifs de reconnaissance faciale d’une immense quantité de nouvelles images. Le gouvernement ne l’a jamais avoué explicitement, et pour cause : cet objectif est frontalement contraire au droit européen et ne saurait donc en rien justifier d’intensifier la vidéosurveillance tel que le propose la présente loi.
Plutôt que de renforcer des pratiques aussi illégales qu’impopulaires, le rôle du législateur est d’empêcher l’analyse automatisée des images de vidéosurveillance et son renforcement par le titre III de la proposition de loi Sécurité Globale, qui doit donc être supprimé dans son ensemble.
";s:7:"dateiso";s:15:"20210215_163531";}s:15:"20210214_100800";a:7:{s:5:"title";s:34:"Faut-il réguler Internet ? (2/2)";s:4:"link";s:69:"https://www.laquadrature.net/2021/02/14/faut-il-reguler-internet-2-2/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16566";s:7:"pubDate";s:31:"Sun, 14 Feb 2021 09:08:00 +0000";s:11:"description";s:254:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Suite et fin de « Faut-il réguler Internet ? »
Face à…";s:7:"content";s:18611:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Face à tout cela, il semble clair que se contenter de renforcer les obligations des plateformes géantes ne suffira pas, c’est l’ensemble de ce modèle de l’économie de l’attention qu’il faut remettre en question.
Faire évoluer le droit : différencier petits hébergeurs et grandes plateformes pour aider au développement des alternatives libres et décentralisées aux plateformes géantes
Qu’appelle-t-on « alternative libre et décentralisée » à La Quadrature du Net ? Un exemple pour illustrer : la Quadrature du Net fournit à plus de 9 000 personnes l’accès au réseau Mastodon, une alternative libre et décentralisée à Twitter. Nous fournissons cet accès sur Mamot.fr, qui n’est que l’un des milliers de nœuds du réseau, chaque nœud étant interconnecté avec les autres. Ceci permet de répartir les coûts entre de très nombreux acteurs qui peuvent ainsi plus facilement les supporter (sans avoir à se financer par la collecte massive de données).
Mais actuellement, et ce depuis 15 ans, le droit freine le développement d’alternatives aux GAFAM et à leur monde. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1Voir l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN) de 2004, transposant l’article 14 de la directive européenne de 2000 sur le commerce électronique.. En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube2https://video.lqdn.fr/ . PeerTube est un logiciel libre d’hébergement de vidéo décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d’une fédération d’instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube ou Dailymotion.). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
Pour que des alternatives aux GAFAM et à leur monde puissent se développer, il faut commencer par changer le droit et par distinguer les « petits » hébergeurs (ceux qui ne tirent aucun profit d’une quelconque mise en avant et hiérarchisation des contenus qu’ils hébergent) des grandes plateformes. Ce sont celles qui régulent les contenus de manière active, pour faire tourner leur modèle économique, et qui exercent sur leurs utilisateur·rices un « pouvoir de contrainte » puisque ces dernier·es ne peuvent quitter la plateforme sans subir de conséquences négatives – perte des liens sociaux tissés sur le réseau dans le cas de Facebook par exemple -. Cela permet à la plateforme d’imposer les règles de son choix, sans que quiconque puisse y réagir. Si l’on souhaite utiliser le droit pour corriger les géants du Web, il faut d’abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d’hébergeur et d’éditeur : la plateforme porterait une certaine responsabilité sur les contenus qu’elle héberge et promeut, sans toutefois être responsable de l’ensemble des contenus publiés comme le sont les éditeurs. Enfin, il serait nécessaire d’alléger à l’inverse les obligations faites aux petits hébergeurs, en ne leur laissant pas supporter la charge d’évaluer si un contenu est « manifestement illicite » ou non. Seul·e un·e juge doit pouvoir exiger la censure, et donc le retrait d’un contenu.
Le cercle vertueux de la régulation décentralisée
Permettre à une multitude de petits hébergeurs de se développer fait naître l’espoir d’une auto-régulation efficace, placée dans les mains de l’ensemble des personnes utilisatrices.
Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard 3On appelle « standard » des règles ou normes techniques de communication partagées entre différents acteurs pour leur permettre d’interagir. ActivityPub 4ActivityPub est un standard ouvert pour réseaux sociaux décentralisés basé sur le format ActivityStreams 2.0. Il fournit une API (interface de programmation d’application, ensemble de fonctions permettant à un logiciel d’offrir des services à un autre logiciel : https://fr.wikipedia.org/wiki/Interface_de_programmation) allant d’un client vers un serveur pour la création, la mise à jour et la suppression de contenu, ainsi qu’une API entre serveurs afin de permettre la fédération de notifications et de contenus. https://fr.wikipedia.org/wiki/ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube (alternative à Youtube). Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun·e. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’une règle du jeu à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
Chaque personne choisira de s’exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine (et donc sans mettre en place de filtrage automatique). Cette structure offre l’espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n’auront plus à trancher autant de conflits qu’il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.
Faire cohabiter les petits hébergeurs et les grandes plateformes par l’interopérabilité
En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n’avons pas d’autre choix que de continuer à les utiliser. C’est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d’autres services : si nous les forçons à nous permettre de continuer de parler avec nos « ami·es Facebook » sans être nous-mêmes encore inscrit·es sur Facebook.
Techniquement, cette « interopérabilité » passe par l’application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub (évoqué plus haut) propose un standard pour « réseaux sociaux décentralisés » – et nous y voyons l’espoir concret de l’essor d’un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » (possibilité pour une personne de récupérer tout ou partie de ses données dans un format ouvert et lisible) créé par le RGPD (à l’article 20) et qui, sans interopérabilité entre plateformes, peine pour l’instant à démontrer son utilité.
Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (tel que par exemple Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature du Net, ou encore l’instance mstdn.fr). Depuis ce nouveau service, nous pourrions continuer de recevoir et d’envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.
Ainsi, dès lors qu’un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le « cercle vertueux de la décentralisation » reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu’au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.
Dans tous les cas, il serait tenu, comme n’importe quel hébergeur, d’afficher clairement et en toute transparence ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d’hébergeur « plus souple » ne signifie en aucun cas alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.
La Quadrature du Net travaille actuellement sur cette question de l’interopérabilité, et est à l’origine d’une lettre ouverte sur le sujet, publié en mai 2019.
Et pour mieux comprendre cette question de l’interopérabilité, on peut lire cet excellent billet de Stéphane Bortzmeyer sur le Framablog ou encore notre fiche « Nos propositions positives sur l’interopérabilité ».
Voir l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN) de 2004, transposant l’article 14 de la directive européenne de 2000 sur le commerce électronique.
https://video.lqdn.fr/ . PeerTube est un logiciel libre d’hébergement de vidéo décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d’une fédération d’instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube ou Dailymotion.
ActivityPub est un standard ouvert pour réseaux sociaux décentralisés basé sur le format ActivityStreams 2.0. Il fournit une API (interface de programmation d’application, ensemble de fonctions permettant à un logiciel d’offrir des services à un autre logiciel : https://fr.wikipedia.org/wiki/Interface_de_programmation) allant d’un client vers un serveur pour la création, la mise à jour et la suppression de contenu, ainsi qu’une API entre serveurs afin de permettre la fédération de notifications et de contenus. https://fr.wikipedia.org/wiki/ActivityPub
";s:7:"dateiso";s:15:"20210214_100800";}s:15:"20210203_154419";a:7:{s:5:"title";s:66:"PPL Sécurité globale : la CNIL au secours de l’État policier";s:4:"link";s:98:"https://www.laquadrature.net/2021/02/03/ppl-securite-globale-la-cnil-au-secours-de-letat-policier/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16884";s:7:"pubDate";s:31:"Wed, 03 Feb 2021 14:44:19 +0000";s:11:"description";s:223:"La CNIL vient de rendre son avis sur les drones et caméras de la PPL Sécurité globale. L’époque où la CNIL prétendait se faire l’écho des inquiétudes populaires est bien morte et oubliée. Dans un…";s:7:"content";s:6205:"
La CNIL vient de rendre son avis sur les drones et caméras de la PPL Sécurité globale. L’époque où la CNIL prétendait se faire l’écho des inquiétudes populaires est bien morte et oubliée. Dans un triste spectacle d’équilibriste déserteur, elle parvient à contourner toutes les questions juridiques qui auraient pu remettre en question le projet sécuritaire du gouvernement.
Derrière l’apparente critique de la proposition de loi, la CNIL s’emploie en réalité à valider l’objectif sécuritaire du texte. Aucune disposition n’est remise en cause dans son essence même et l’avis de la CNIL, de même que l’audition de sa présidente ce matin devant la commission des lois du Sénat, n’a qu’un seul objectif : donner le mode d’emploi au législateur pour faire passer son texte.
La CNIL prend ainsi soin de ne surtout rien dire sur la « nécessité absolue » ou le contrôle préalable du déploiement des drones et des caméras-piétons. Et pour cause : ces garanties, exigées tant par la Constitution que le droit européen, sont incompatibles avec le projet du gouvernement et suffiraient à l’invalider.
De même, elle est parfaitement silencieuse sur le fait qu’en pratique les personnes surveillées par drones ou caméras mobiles ne pourront pas en être véritablement informées, comme l’exigent la Constitution et le droit européen. Alors que l’avis de la CNIL relève que l’usage de drone est intrinsèquement dangereux de part leur miniaturisation et leurs capacités techniques, il n’en tire aucune conséquence sur l’information du public. Silence total aussi sur la reconnaissance faciale associée aux caméras-piétons, débat que la CNIL écarte en affirmant qu’elle serait interdite car non explicitement prévue par le texte alors qu’elle a tant animé le débat public et que cette possibilité est offerte par d’autres pans de l’arsenal répressif de l’État.
Contorsion absolue : la CNIL propose que les drones soient d’abord expérimentés avant d’être autorisés définitivement dans la loi. Comme si les drones n’avaient pas déjà été largement déployés pendant des années et n’avaient pas déjà eu l’occasion de démontrer encore et encore leur incompatibilité intrinsèque à la Constitution et au droit européen. Même le Conseil d’État a déjà commencé à dénoncer l’inutilité des drones dans le travail de la police, mais la CNIL refuse absolument de contrarier Gérald Darmanin et lui offre un nouveau délai d’expérimentation que rien ne justifie en pratique ni en droit.
L’avis de la CNIL nous offre également une scène de béatitude totale devant les possibilités de floutage, faisant passer cette rustine inefficace comme la clé du respect de la vie privée. Or, un dispositif de floutage des images prises par drones, en plus d’être désactivable à souhait par la police et techniquement très aléatoire, ne fera que donner un faux sentiment de protection alors que ces dispositifs renforcent le pouvoir de la Technopolice qui pourra filmer tout, tout le temps, et sans contrôle, au mépris de l’ensemble des règles de droit françaises et européennes.
Car les 12 pages de son avis sont largement dépourvues de droit, tant sur le fond (la CNIL ne vise aucune norme précise mais son seul sentiment) que sur la forme (un contrôle rigoureux de la proportionnalité de chaque disposition l’aurait empêchée d’esquiver les très graves manquements qu’elle passe sous silence).
Plus que jamais, la CNIL tord le droit et sa propre mission pour venir au secours d’un État policier qu’elle était supposée limiter. Ayant démissionné de son rôle historique, elle est réduite à conseiller l’État sur la meilleure façon de renforcer ses capacités de surveillance tandis que, dans le même temps et paradoxalement, c’est le Conseil d’État lui-même qui apparaît comme dernier contre-pouvoir du gouvernement dans cette affaire.
Non, contrairement à ce qu’elle affirme dans son avis, la CNIL n’a jamais « mis en lumière […] les questions particulières en matière de vie privée soulevées par l’usage des drones, des caméras embarquées sur des véhicules ou des personnes et des dispositifs dits de « vidéo intelligente » ou de « vidéo assistée » ». C’est même le contraire : après cinq années d’utilisation des drones par la police en toute illégalité, il nous aura fallu tirer la sonnette d’alarme, déposer des recours contentieux à plusieurs reprises pour que ces sujets avancent. Face à cette démobilisation de la CNIL qui ne date pas d’aujourd’hui, nous avons d’autant plus besoin de votre aide pour continuer le travail que devrait faire l’autorité.
";s:7:"dateiso";s:15:"20210203_154419";}s:15:"20210131_095900";a:7:{s:5:"title";s:61:"L’arnaque des algorithmes d’aide à la prise de décision";s:4:"link";s:94:"https://www.laquadrature.net/2021/01/31/larnaque-des-algorithmes-daide-a-la-prise-de-decision/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16563";s:7:"pubDate";s:31:"Sun, 31 Jan 2021 08:59:00 +0000";s:11:"description";s:243:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
L’administration, au sens public du terme, prend tous…";s:7:"content";s:35450:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
L’administration, au sens public du terme, prend tous les jours un certain nombre de décisions : lorsqu’elle accorde une allocation, lorsqu’elle retire un permis de conduire, lorsqu’elle accepte un·e étudiant·e dans une formation supérieure, lorsqu’elle est chargée d’appliquer une loi, etc. Décider est le quotidien de l’administration et administrer, nous dit le dictionnaire Larousse, signifie « diriger, gérer des affaires publiques ou privées ». La Constitution nous prévient également que « le Gouvernement détermine et conduit la politique de la nation » et « dispose de l’administration » (article 20). Le rôle de l’administration dans la conduite des affaires publiques est donc fondamental. À cette fin, son pouvoir de décision l’est tout autant.
Décider est donc une fonction intrinsèque à l’administration, mais décider n’est pas toujours le fruit d’un processus entièrement humain. L’administration s’est toujours dotée de règles, de documents, de cadres, pour décider, quand bien même aucune obligation ne le lui imposerait : ce pouvoir discrétionnaire dont jouit très souvent l’administration est limité par elle-même, c’est-à-dire qu’elle va décider que, parmi l’éventail de possibilités dans la prise de décision, elle en choisira une seule.
De plus, l’arrivée ces derniers temps d’un nouvel outil pour l’administration, l’algorithme, change radicalement la manière dont on peut concevoir la décision administrative. Skip Machine lave plus blanc que blanc ; l’algorithme décide plus efficacement que l’humain. Il en résulte un miracle : la décision administrative algorithmique. Le législateur est intervenu, pour répondre à un certain nombre de craintes. Mais la pratique administrative tend à contourner ces protections grâce à un nouvel outil, l’algorithme d’aide à la prise de décision.
Avant toute chose, il est nécessaire de s’entendre sur la notion de décision et celle d’algorithme. Nous entendons ici un algorithme (ou son équivalent juridique de « traitement algorithmique ») comme une suite d’opérations mathématiques avec en entrée plusieurs paramètres et en sortie un résultat unique (mais pas forcément reproductible, comme nous le verrons plus tard). Un algorithme n’a donc pas à être compliqué : un rapport sénatorial a ainsi pu comparer une recette de cuisine à un algorithme1Sophie Joissains, Rapport n° 350 (2017-2018) fait au nom de la commission des lois sur le projet de loi relatif à la protection des données personnelles, 14 mars 2018. https://www.senat.fr/rap/l17-350/l17-350.html. Il ne s’agit pas forcément non plus d’un programme informatique ou de lignes de codes exécutables : un algorithme peut également être une séries de formules dans une feuille de calcul2Les algorithmes locaux de Parcoursup (ceux utilisés par les commissions de classement des vœux de chaque université) ne sont d’ailleurs qu’une feuille de calcul dont les pondérations sont laissées à l’appréciation de chaque commission..
On classera toutefois les algorithmes en deux catégories : les algorithmes auto-apprenants et les autres. Les premiers (on parlera également d’« intelligence artificielle », de « machine learning » ou de « deep learning ») fonctionnent avec une phase d’apprentissage préalable. Dans un premier temps, l’algorithme auto-apprenant s’entraîne sur un jeu de données dont le résultat attendu est connu (par exemple : « cette image est un chaton » ou « cette image n’est pas un chaton ») et s’adapte en comparant ses résultats à ceux attendus. Une fois cette phase terminée, il est utilisé alors que le résultat attendu n’est pas connu (dans notre exemple, il sera censé distinguer les images de chatons des autres). Le résultat d’un algorithme auto-apprenant n’est pas reproductible puisqu’il dépendra de la phase d’apprentissage et de la qualité du jeu de données initial. Les autres algorithmes, ceux qui ne sont pas auto-apprenants, ont un résultat reproductible puisqu’il ne reposent pas sur une phase préalable d’apprentissage.
Une décision administrative, quant à elle, est un acte administratif (au sens de document émanant d’une administration 3Sans entrer dans les débats de la doctrine administrativiste autour la notion d’acte administratif, notons simplement que cette définition est une approximation et n’est pas partagée pas tou·tes les juristes.) décisoire. Lorsque l’administration constate quelque chose (ce que font beaucoup d’autorités de régulation, par exemple), elle ne fait pas de choix et son acte n’est donc pas une décision.
Enfin, nous entendrons une décision administrative algorithmique comme un type de décision administrative dans laquelle un algorithme a été utilisé durant le processus de prise de décision. L’algorithme n’a pas à être le seul fondement à la décision pour que celle-ci soit qualifiable de décision administrative algorithmique. Il faut distinguer la décision algorithmique de l’algorithme d’aide à la prise de décision : le premier fonde la décision, le deuxième est utilisé en amont de la décision et ne la fonde alors pas.
Arrêtons-nous tout d’abord sur ce qui motive l’administration à utiliser des algorithmes (I). Voyons ensuite les barrières prévues par le droit pour les décision algorithmique (II) et comment l’administration les contourne grâce aux algorithmes d’aide à la prise de décision (III). Enfin, étudions les conséquences de ces algorithmes d’aide à la prise de décision sur nos droits fondamentaux (IV).
I. Un recours aux décisions algorithmiques de plus en plus important
Il est difficile – pour ne pas dire impossible – de systématiser l’utilisation d’un algorithme. L’administration n’est jamais tenue d’y avoir recours, ce n’est qu’une faculté (explicitement admise par la loi depuis 20164Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, article 4, créant l’article L. 311-3-1 du code des relations entre le public et l’administration sur les décisions administratives individuelles prises sur le fondement d’un traitement algorithmique.).
En tout état de cause, lorsqu’elle y a recours, cela peut être pour atteindre deux objectifs. Premièrement, il peut s’agir d’une situation dans laquelle l’administration doit prendre beaucoup de décisions dans un laps de temps restreint. Elle veut alors accélérer la prise de décision. Dans ce cas, l’algorithme est souvent très simple et il s’agit principalement de décisions administratives individuelles (c’est-à-dire dont le destinataire est une personne nommée ou un groupe de personnes individualisées). Le cas des algorithmes locaux de Parcousup illustre parfaitement cette situation : les universités doivent, en quelques semaines, classer des milliers de candidatures en attribuant à chaque candidat un rang précis ; les algorithmes locaux de Parcoursup appliquent à l’ensemble des candidats une même règle pour donner in fine un rang à chaque candidature. Les algorithmes locaux de Parcoursup sont une simple feuille de calcul sur laquelle les commissions de classement ont donné une importance plus ou moins grande à certains critères académiques parmi ceux transmis par la plateforme aux universités (notes, appréciations, lycée d’origine, etc.5Notons déjà d’emblée que les appréciations ne peuvent pas, par une simple feuille de calcul, être évaluées : elles sont donc nécessairement mises de côté par l’algorithme et les commissions de classement ne s’en serviront alors que pour partager deux éventuel·les candidat·es avec exactement le même rang.).
Deuxièmement, il peut s’agir de détecter ce que l’on estime impossible à trouver par une analyse humaine : il s’agit de la recherche de signaux faibles. Un signal faible est un élément tellement difficile à discriminer de la masse qu’un humain ne peut pas le faire : c’est l’aiguille dans la botte de foin. Dans cette situation, le recours aux algorithmes auto-apprenants est le plus souvent nécessaire. Par exemple, la surveillance algorithmique des réseaux de communication (parfois appelée « boîtes noires ») permises depuis la loi renseignement de 20156Loi n° 2015-912 du 24 juillet 2015 relative au renseignement, article 15, créant l’article L. 851-2 du code de la sécurité intérieure. repose sur des algorithmes auto-apprenants dont le but est de détecter des risques à caractère terroriste qu’on estime indétectable par un analyste du renseignement.
II. L’algorithme comme fondement de la décision administrative : une protection théorique contre les abus de la décision administrative algorithmique
Ce panorama étant posé, une peur peut légitimement naître : comment être certain qu’un algorithme a pris la bonne décision ? Il est intellectuellement plus facile de contester une décision prise par un humain que de contester une décision prise par une machine dont l’aléatoire est réputé neutralisé.
Le droit offre un certain nombre de mesures protectrices – bien qu’insuffisantes en pratique – lorsqu’un traitement algorithmique a été le fondement d’une décision. Autrement dit, lorsque l’administration, pour prendre sa décision, se base sur les résultats d’un algorithme, le droit pose des limites. L’article L. 311-3-1 du code des relations entre le public et l’administration énonce ainsi le droit de se faire communiquer les « règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre »7Ce qui, selon l’article R. 311-3-1-2 du même code, englobe, notamment, « les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé » ainsi que « les opérations effectuées par le traitement ». dans le cas d’une décision administrative individuelle prise sur le fondement d’un traitement algorithmique. Ainsi, lorsque l’administration prend une décision individuelle à l’aide d’un algorithme, un droit à se faire communiquer certaines informations sur l’algorithme naît au bénéfice du destinataire de la décision. Une forme de transparence est ainsi posée et d’elle découle une forme de contrôle sur la qualité de l’algorithme, donc de la décision qui en découle.
Le Conseil constitutionnel est également venu poser un garde-fou important à l’usage d’algorithmes dans les décisions administratives. Il a ainsi précisé que l’administration doit pouvoir expliquer et reproduire ses résultats : les algorithmes auto-apprenants sont donc théoriquement exclus de la prise de décision8Cons. const., 12 juin 2018, Loi relative à la protection des données personnelles, n° 2018-765 DC, point 71..
Enfin, précisons également que le code source des algorithmes sont des documents administratifs au sens de la loi9Art. L. 300-2 du code des relations entre le public et l’administration.. À ce titre, il est possible, en dehors des cas de décisions administratives individuelles, de se faire communiquer de tels documents10Art. L. 311-1 du code des relations entre le public et l’administration..
III. L’algorithme comme simple aide : l’absence de toute garantie contre les algorithmes d’aide à la prise de décision
La pratique administrative tend à exclure de plus en plus les algorithmes de la prise de décision. Si l’algorithme n’est plus considéré comme ayant fondé une décision, alors les limites posées (notamment l’interdiction de recourir à des algorithmes auto-apprenants donc aux résultats non reproductibles) n’existent plus du tout.
C’est ce qu’il se passe avec le recours des algorithmes dits « d’aide à la prise de décision ». Ces algorithmes sont utilisés bien en amont de la prise de décision : il s’agit de guider l’administration dans son action au quotidien, avant qu’une décision ne soit prise. On retrouve de tels algorithmes par exemple dans la lutte contre la fraude fiscale et douanière, dans la lutte contre le terrorisme, la police prédictive, etc.
Ces algorithmes d’aide à la prise de décision fonctionnent selon une même logique : une alerte ou une recommandation est levée par l’algorithme. Un·e agent de l’administration reçoit cette alerte ou cette recommandation, puis décide de prendre ou non une décision. Le fondement de la décision n’est donc plus l’algorithme, qui a seulement invité l’agent à s’intéresser à une situation particulière. L’algorithme d’aide à la prise de décision n’est plus au fondement de la décision, il est est détaché.
Ainsi, l’algorithme Paved (« plateforme d’analyse et de visualisation évolutive de la délinquance ») de la gendarmerie ne fait qu’afficher les zones à risques : il ne détermine pas les zones dans lesquelles les patrouilles seront positionnées. L’agent choisira seul·e de placer ses patrouilles dans les zones à risque ou non. Il en va de même pour les boites noires utilisées par les services de renseignement (cf. supra pour leur présentation) : elles ne lèvent qu’une alerte sur une potentielle menace, libre ensuite à l’analyste du renseignement de procéder ou non à une surveillance plus ciblée. Ce même fonctionnement vaut également pour les algorithmes de Bercy chargés de détecter les potentielles fraudes fiscales : les agents du fisc sont toujours libres de procéder ou non au contrôle fiscal.
Ces exemples sont réels et l’hypocrisie est flagrante. Si l’administration demande à un algorithme de l’aider, soit en augmentant le nombre de situations traitées, soit en détectant ce qu’un humain ne pourrait pas voir, pourquoi ne pas suivre ses recommandations ? On pourrait répondre que lorsqu’une alerte ou une recommandation est émise, l’agent pourrait refaire le traitement sur la situation spécifique afin de vérifier la qualité du résultat de l’algorithme. Cependant, premièrement, aucune obligation n’impose à l’administration une telle vérification. Deuxièmement, ce serait omettre les résultats négatifs qui impliquent une forme de validation de la situation par l’algorithme : passer à travers le filet ne serait-il pas une approbation donnée par l’algorithme ? Troisièmement, ce serait réduire drastiquement les gains de productivité demandés à ces algorithmes dans certaines situations, Quatrièmement, enfin, certains cas ne se prêtent tout simplement pas à une telle vérification, notamment lorsqu’il est demandé à l’algorithme de repérer les signaux faibles.
En réalité, lorsque une alerte ou une recommandation est levée par un algorithme d’aide à la prise de décision, l’administration se bornera à vérifier les erreurs grossières pour les cas positifs. Elle ne vérifiera jamais les résultats négatifs. L’humain chargé de réceptionner les alertes ou recommandations n’aura qu’un rôle de vérification a minima, au risque, autrement, d’aller à l’encontre des gains de production demandés. Le doute sera donc nécessairement au détriment de l’administré·e. Éventuellement, il peut être demandé à l’agent d’opérer un classement pour ne prendre en considération qu’un nombre limité de cas. On peut penser qu’un tel choix est fait dans les domaines où un contingentement existe en fait ou en droit (nombre limité de gendarmes mobilisables sur le terrain, quota de mises sous surveillance, etc.). Mais rien n’indique que ce choix ne soit pas dû au hasard (notamment lorsque l’humain n’est pas censé pouvoir apprécier la situation).
IV. Des conséquences négatives concrètes sur les droits fondamentaux
Le résultat de tout cela est assez décevant. D’une part, l’usage même de ces algorithmes d’aide à la prise de décision implique un droit à un recours effectif limité. Dès 201611Cour suprême du Wisconsin, State vs. Eric L. Loomis, 13 juillet 2016., la Cour suprême du Wisconsin affirmait qu’il n’est pas possible de contester le résultat d’un algorithme d’aide à la prise de décision puisque seul l’humain a pris la décision : la seule décision attaquable devant un juge est celle prise par un humain, et elle seule, même si un algorithme a aidé à cette prise de décision. Il n’existe donc pas de recours direct contre ces algorithmes puisqu’ils sont passés par le truchement d’un humain avant la prise de décision en tant que telle.
Mais, même dans le cas des décisions administratives algorithmiques – c’est-à-dire celles dont le fondement est un algorithme, contrairement au cas des algorithmes d’aide à la prise de décision –, les droits fondamentaux sont limités. Dans ces situations, on se heurtera au pouvoir discrétionnaire de l’administration : l’administration, très souvent, a une large possibilité d’action (nous l’avons rappelé en introduction) et le rôle du juge se limite alors à vérifier l’absence d’« erreur manifeste d’appréciation », c’est-à-dire l’absence d’erreur grossière dans la décision. Une décision administrative algorithmique ne sera qu’une décision dans laquelle l’administration a voulu, de son chef, limiter son aléa. Mais la manière de le limiter, les paramétrages de l’algorithme, restent un choix qui n’est pas vraiment contestable puisqu’il entrera très souvent dans le champ du pouvoir discrétionnaire de l’administration. La transparence (lorsqu’elle est applicable) permettra à l’administré·e de vérifier ces erreurs grossières (on peut par exemple penser aux cas de discriminations), mais le doute se fera toujours au bénéfice de l’administration.
D’autre part, l’usage de tels algorithmes va de pair avec une augmentation du nombre de données traitées. Pour utiliser des algorithmes, encore faut-il avoir des informations pour les nourrir. L’administration est donc incitée à collecter et traiter de plus en plus de données. La récente volonté de Bercy de récolter les données publiques des réseaux sociaux n’est que le dernier exemple d’une liste très longue. Avec cette collecte, ce sont le droit à la vie privée et familiale ou encore le droit à la liberté d’expression et d’information qui se retrouvent limités12Voir, pour une illustration, « Le Parlement doit rejeter le flicage fiscal des réseaux sociaux » , La Quadrature du Net, 5 novembre 2019..
Le résultat n’est pas réjouissant. L’administration se sert d’algorithmes, mais parfois tellement en amont dans son travail qu’il ne sont pas considérés comme ayant fondé la décision administrative, sapant au passage les garanties posées par le droit. Un problème de taille se pose : la notion de décision administrative, telle qu’elle est conçue aujourd’hui, a-t-elle encore une légitimité à l’heure des algorithmes ? Doit-elle évoluer pour réintégrer dans son champ les algorithmes d’aide à la prise de décision ?
Sophie Joissains, Rapport n° 350 (2017-2018) fait au nom de la commission des lois sur le projet de loi relatif à la protection des données personnelles, 14 mars 2018. https://www.senat.fr/rap/l17-350/l17-350.html
Les algorithmes locaux de Parcoursup (ceux utilisés par les commissions de classement des vœux de chaque université) ne sont d’ailleurs qu’une feuille de calcul dont les pondérations sont laissées à l’appréciation de chaque commission.
Sans entrer dans les débats de la doctrine administrativiste autour la notion d’acte administratif, notons simplement que cette définition est une approximation et n’est pas partagée pas tou·tes les juristes.
Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, article 4, créant l’article L. 311-3-1 du code des relations entre le public et l’administration sur les décisions administratives individuelles prises sur le fondement d’un traitement algorithmique.
Notons déjà d’emblée que les appréciations ne peuvent pas, par une simple feuille de calcul, être évaluées : elles sont donc nécessairement mises de côté par l’algorithme et les commissions de classement ne s’en serviront alors que pour partager deux éventuel·les candidat·es avec exactement le même rang.
Ce qui, selon l’article R. 311-3-1-2 du même code, englobe, notamment, « les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé » ainsi que « les opérations effectuées par le traitement ».
Voir, pour une illustration, « Le Parlement doit rejeter le flicage fiscal des réseaux sociaux » , La Quadrature du Net, 5 novembre 2019.
";s:7:"dateiso";s:15:"20210131_095900";}s:15:"20210120_163304";a:7:{s:5:"title";s:76:"Règlement terroriste européen : nous saisissons la Défenseure des droits";s:4:"link";s:111:"https://www.laquadrature.net/2021/01/20/reglement-terroriste-europeen-nous-saisissons-la-defenseure-des-droits/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16870";s:7:"pubDate";s:31:"Wed, 20 Jan 2021 15:33:04 +0000";s:11:"description";s:259:"Le 11 janvier dernier, la commission LIBE du Parlement européen (pour Commission des libertés civiles, de la justice et des affaires intérieures) a voté le règlement sur le retrait des contenus « à caractère terroriste ». C’est…";s:7:"content";s:4992:"
Le 11 janvier dernier, la commission LIBE du Parlement européen (pour Commission des libertés civiles, de la justice et des affaires intérieures) a voté le règlement sur le retrait des contenus « à caractère terroriste ». C’est la dernière étape avant le vote en plénière au Parlement, peut-être dès le mois d’avril.
Un silence assourdissant
Ce texte prévoit que n’importe quelle autorité d’un Etat membre de l’Union européenne puisse imposer à n’importe quel hébergeur sur Internet de retirer en une heure un contenu que cette autorité aura considéré comme étant à « caractère terroriste ». Concrètement, en France, cela permettra à la police de faire censurer en une heure n’importe quel texte ou vidéo sans l’autorisation préalable d’un juge.
Outre les dangers de surveillance et de censure politique que nous soulignons depuis plusieurs années, cette obligation de retrait en une heure est exactement celle qui, au sein de la loi Avia, a été censurée par le Conseil constitutionnel en juin 2020 dans le cadre de sa décision sur la loi Avia.
Le vote en commission LIBE de lundi ne donne pourtant lieu qu’à un silence assourdissant. Côté presse, la dernière actualité est celle d’un communiqué de l’AFP intervenu à la suite du compromis trouvé entre le Parlement et le gouvernement européens sur le texte. On y voit le gouvernement français se féliciter de cet accord, sans aucune mention du débat extrêmement vif qu’avait suscité la réplique de ce texte dans la loi Avia ni, évidemment, de la décision du Conseil constitutionnel de juin 2020.
À part ce communiqué, bien pauvre et partiel… rien. La suppression du compte de Donald Trump était manifestement un sujet plus léger et agréable à discuter que la censure de milliers de militants européens qu’il faudra redouter dès que l’ensemble du Web sera soumis à l’arbitraire de toutes les polices européennes.
Côté gouvernement par contre, on se félicite de cette situation. Que ce soit Clément Beaune, le secrétaire d’Etat aux affaires européennes, qui parle sans gêne d’une « avancée majeure, portée par la France ». Ou Emmanuel Macron qui se félicite de l’aboutissement d’un processus qu’il a engagé en 2017. Impossible aussi de ne pas mentionner les parlementaires français du Parlement européen qui se sont vantés de cette adoption, telles que Nathalie Loiseau et Fabienne Keller. Comme si tout l’appareil gouvernemental n’avait plus honte à admettre instrumentaliser l’Union européenne pour contourner la Constitution française et violer frontalement nos libertés.
Une saisine pour préparer le vote final
Nous avons donc décidé de saisir la Défenseure des droits sur ce sujet. Elle est en effet compétente pour veiller « au respect des droits et libertés par les administrations de l’Etat ». Or, le gouvernement français, et particulièrement le secrétaire d’Etat aux affaires européennes, Clément Beaune, a activement participé à faire avancer le processus d’adoption de dispositions déclarées en juin 2020 comme violant la Constitution.
Nous espérons également que, devant ce silence médiatique et ces abus anticonstitutionnels du gouvernement, toutes les organisations et journalistes qui étaient montés au créneau contre les dangers de la loi Avia feront de même sur ce dossier.
";s:7:"dateiso";s:15:"20210120_163304";}s:15:"20210117_094300";a:7:{s:5:"title";s:54:"Nos données n’appartiennent qu’à notre humanité";s:4:"link";s:86:"https://www.laquadrature.net/2021/01/17/nos-donnees-nappartiennent-qua-notre-humanite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16558";s:7:"pubDate";s:31:"Sun, 17 Jan 2021 08:43:00 +0000";s:11:"description";s:257:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
« – Et que fais-tu de ces étoiles ?
(…)
Rien. Je…";s:7:"content";s:56099:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
« – Et que fais-tu de ces étoiles ?
(…)
Rien. Je les possède.
(…)
Mais j’ai déjà vu un roi qui…
Les rois ne possèdent pas. Ils « règnent » sur. C’est très différent. »
Antoine de Saint-Exupéry,
« Le Petit Prince », Chapitre XIII1La référence à ce passage du Petit Prince d’Antoine de Saint-Exupéry pour illustrer la différence entre « régner » et « posséder » et, plus largement, l’existence d’autres liens juridiques que le droit de propriété pour exercer du pouvoir sur une chose, est empruntée à la professeure Valérie-Laure Benabou, qui y recourra magistralement lors d’une conférence-débat coorganisée par le réseau Galatea et l’Ordre des avocats au Conseil d’État et à la Cour de cassation, qui se tint le 26 juin 2018 dans la bibliothèque de l’Ordre. Outre la professeur Valérie-Laure Benabou, les participants à ce débat étaient M. Jean Lessi, M. Gaspard Koenig, Me Emmanuelle Trichet et Me Isabelle Landreau. La vidéo de cette conférence-débat est consultable à cette adresse : https://www.youtube.com/watch?v=bbhr80OvSxI&t=3616s
Une donnée est une information. Dans l’environnement informatique, la donnée est constituée d’une séquence de chiffres. L’ordonnancement de ces chiffres leur confère un sens particulier. Mais, la donnée subsiste aussi indépendamment de son support informatique. L’information brute existe, indépendamment de tout encodage numérique.
Lorsque cette information est susceptible d’être reliée, directement ou indirectement, à une personne physique, elle constitue une donnée personnelle2Les textes recourent plutôt au vocable, plus lourd, de « données à caractère personnel »..
Les débats entourant le droit gouvernant les données personnelles voient régulièrement apparaître des propositions tendant à faire entrer ces données dans le champ du droit de propriété. Les positions les plus extrêmes, issues de cercles ultralibéraux, estiment même opportun de créer un droit de propriété privée sur les données personnelles afin que les individus puissent en négocier l’usage auprès des grands acteurs numériques contre une rémunération. Ces propositions sont présentées comme un moyen plus efficace de lutter contre le « pillage de nos données » que la législation actuelle en vigueur.
Pour séduisante qu’une telle proposition puisse paraître au premier abord, « l’application du concept de propriété est contestable philosophiquement et juridiquement, et n’apporte pas de réponses adéquates »3CNCDH, avis du 22 mai 2018 sur la protection de la vie privée à l’ère du numérique, adopté à l’unanimité par l’Assemblée plénière de la Commission, pt. 32., ainsi que l’a parfaitement résumé la Commission nationale consultative des droits de l’homme (CNCDH).
Idée contestable (1) et efficacité hasardeuse (2), ce qui explique probablement pourquoi, au-delà de la CNCDH, nos institutions s’étant penchées sur la question ont, dans une rare unanimité – Conseil d’État4Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ;
Mme Nicole Belloubet, garde des sceaux, faisait sienne la position du Conseil d’État dans les débats qui se sont tenus au Sénat le 21 mars 2018, sur le projet qui deviendra la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles, en réponse à un amendement qui visait à insérer un second alinéa à l’article L. 341-1 du code de la propriété intellectuelle, ainsi rédigé : « Le citoyen, entendu comme la personne humaine qui consent à faire exploiter ses données, jouit des droits moraux sur les données personnelles qu’il génère individuellement ou par l’intermédiaire des outils numériques qu’il utilise. », CNIL5CNIL, rapport d’activité 2017, p. 52 ; https://www.cnil.fr/sites/default/files/atoms/files/cnil-38e_rapport_annuel_2017.pdf, CNNum6CNNum, rapport sur la « Neutralité des plateformes » (mai 2014), p. 37 ; CNNum, avis sur « La libre circulation des données dans l’Union européenne » (avril 2017). –, rejeté l’idée de faire entrer les données personnelles dans le champ du droit de propriété. Il en va de même de la doctrine la plus éclairée en la matière7Judith Rochfeld. Contre l’hypothèse de la qualification des données personnelles comme des biens, in : Les biens numériques, éd CEPRISCA, 2015, pp.221-23 ; http://www.ceprisca.fr/wp-content/uploads/2016/03/2015-CEPRISCA-BIENS-NUMERIQUES.pdf.
La Quadrature du Net rejette également la thèse de la patrimonialité des données personnelles. Elle considère que la protection de la vie privée et des données personnelles constitue un droit fondamental8Premier considérant du RGPD. 2) de l’article 1er du RGPD. Voir également, CE, ord. réf., 18 mai 2020, La Quadrature du Net e.a., n° 440442, 440445, pt. 6. et que l’enjeu principal consiste à mettre fin à leur exploitation débridée, et non simplement à organiser une compensation monétaire par des tiers.
1.- Une idée contestable
En droit civil, la propriété est le droit de jouir et disposer des choses de la manière la plus absolue, pourvu qu’on n’en fasse pas un usage prohibé par les lois ou par les règlements9Article 544 du code civil. . Ses attributs sont classiquement assimilés à l’usus (le droit d’user de la chose), le fructus (le droit de percevoir les fruits de la chose) et l’abusus (le droit de disposer de la chose, notamment par l’aliénation ou la destruction).
En l’état du droit, il n’existe aucun droit de propriété sur les données brutes10Conseil d’État, « Le numérique et les droits fondamentaux », Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf. Un droit sui generis est certes reconnu au producteur d’une base de données11Dont la notion juridique est définie à l’article L. 112-3 du code de la propriété intellectuelle. lorsque la constitution, la vérification ou la présentation de son contenu atteste d’un investissement financier, matériel ou humain substantiel12Article L. 341-1 du code de la propriété intellectuelle. sur le plan quantitatif ou qualitatif.
Mais la donnée en elle-même est insusceptible de faire l’objet d’un droit de propriété. À l’instar des idées, qui sont de libre parcours13Par ex. Civ. 1ère, 5 juillet 2006, n° 04-16.687.], les données ne sont susceptibles de faire l’objet d’un droit de propriété incorporelle que lorsqu’elles constituent en réalité une œuvre de l’esprit, revêtant un caractère original14Article L. 111-1 du code de la propriété intellectuelle.. Elles rentrent alors dans le champ du droit d’auteur.
Partant, les personnes physiques ne disposent d’aucun droit de propriété sur leurs données personnelles15Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ; Pierre Truche, Jean-Paul Faugère, Patrice Flichy, « Administration électronique et protection des données personnelles. Livre blanc. », février 2002]. Cela vaut, a fortiori, pour les personnes morales, s’agissant des données de personnes physiques[[Thibault Verbiest, « Smart cities et données », JT 2019, n° 221, p. 31..
Il est vrai que certains arrêts récents de la Cour de cassation ont pu faire planer un doute sur la possibilité, pour de simples données, de faire l’objet d’un droit de propriété16Un fichier de clientèle informatisé contenant des données à caractère personnel, qui n’a pas été déclaré auprès de la CNIL, n’est pas dans le commerce, et sa vente a un objet illicite (cf. Com., 25 juin 2013, n° 12-17.037, Bull. civ., IV, n° 108). Le détournement de fichiers informatiques contenant des informations confidentielles peut être constitutif d’un abus de confiance (cf. Crim., 22 octobre 2014, n° 13-82.630). Le téléchargement, effectué sans le consentement de leur propriétaire, de données que le prévenu savait protégées caractérise la soustraction frauduleuse constitutive du vol (cf. Crim., 20 mai 2015, n° 14-81.336, Bull. crim., 2015, n° 119).. Mais si le doute est toujours permis, il est probable que si la juridiction avait souhaité consacrer un changement aussi important de paradigme, en dehors de toute base légale, elle aurait destiné ses décisions à une plus grande publicité – au-delà de la seule publication au Bulletin – et certains auteurs y ont vu plus que ce qu’il fallait y voir.
Le droit de propriété est une formidable fiction, qui prend ses racines dans des temps immémoriaux et répond à un besoin social. Il s’agit d’une forme d’exercice du pouvoir sur une chose. Mais c’est loin d’être la seule.
Lorsque les pouvoirs publics lèvent des impôts, ils exercent leur pouvoir sur des individus, des biens et des activités. Pourtant, la nature du droit qui leur permet d’exercer ce pouvoir n’est pas un droit de propriété. Lorsque l’État exige des personnes résidant régulièrement sur son territoire de s’acquitter d’un impôt sur leurs revenus ; des propriétaires de biens immobiliers présents sur son sol, ou même des habitants résidant sur son territoire, de s’acquitter d’un impôt foncier ou local ; ou encore, que des droits de douane lui soient versés pour les marchandises traversant ses frontières, il exerce un droit qui n’est pas un droit de propriété.
De même, les liens réciproques entre l’État et les personnes disposant de sa nationalité, qui peuvent avoir des effets mutuels très importants – service militaire ou civique, protection consulaire, etc. – ne sont pas constitutifs d’un quelconque droit de propriété.
La conclusion s’impose rapidement : il existe d’autres droits, outre le droit de propriété, qui permettent d’assurer aussi bien, voire nettement mieux, des finalités variées. C’est ainsi que depuis 1978 – et la loi Informatique et Libertés -, le législateur a fait le choix de protéger les données personnelles en tant qu’élément de la personnalité des individus. Cette approche « personnaliste » imprègne également le RGPD (Réglement général sur la protection des données) adopté au niveau de l’Union européenne, dont les dispositions s’opposent frontalement à l’hypothèse « propriétariste ».
2.- Une efficacité hasardeuse
À l’échelle individuelle, les données sont dépourvues d’une valeur économique significative. C’est l’agrégation massive de données, à partir d’une granularité très fine, combinée à un traitement toujours plus rapide, à l’aide d’algorithmes de plus en plus sophistiqués et de machines de plus en plus performantes, qui permet de créer des modèles, d’anticiper et d’influencer les comportements. C’est ce pouvoir d’anticipation et d’influence qui confère une valeur économique aux données. Croire qu’un individu isolé pourrait retirer des revenus importants de la vente de ses seules données constitue donc une illusion et la légitimé économique de l’approche patrimoniale est pour le moins contestable17Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères..
Le droit à la protection des données personnelles existe pour protéger les personnes dans des rapports asymétriques, notamment dans leur rapport avec les entreprises et avec les administrations. Il existe pour rééquilibrer des rapports de forces par essence très fortement défavorables aux individus.
Les mécanismes qui engendrent de la valeur à partir de la collecte et du traitement des données personnelles sont, en pratique, bien souvent illégaux et contraires aux droits fondamentaux. En l’état actuel du droit, lorsqu’une personne consent à ce que l’on utilise des données la concernant, elle conserve un certain nombre de droits (accès, rectification, opposition, effacement, etc.), notamment celui de délimiter l’autorisation accordée à une finalité précise. Dans un système où les données seraient « vendues », ces facultés des individus à contrôler seraient affaiblies, puisque la transaction organiserait un transfert de propriété.
Se placer sur le terrain de la compensation monétaire équivaut donc en réalité à abdiquer ses droits fondamentaux. Doit-on accepter que les droits à la vie privée et à la protection de ses données personnelles soient rétrogradés du rang de droits fondamentaux à de simples biens échangeables sur un marché ?
Les données personnelles existent à la frontière de l’être et de l’avoir18Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères. . Elles constituent un attribut de la personnalité, une émanation immatérielle de l’individu, une prolongation incorporelle de soi-même.
Ces données revêtent, en outre, un caractère dual, janusien : elles oscillent entre intimité et sphère sociale. On occulte en effet bien trop souvent la dimension collective des données personnelles. Ou plutôt, leurs dimensions collectives : médiates et plus immédiates.
La première concerne par exemple nos données génétiques, susceptibles de révéler des informations sur nos parents, mais aussi sur l’humanité tout entière19CNIL, Les données génétiques, 2017, La documentation française, Collection Point CNIL, 216 p. ; https://slate.com/technology/2019/12/gedmatch-verogen-genetic-genealogy-law-enforcement.html.. Au-delà des données génétiques, il s’agit encore de données plus triviales, mais qui, dès lors que massivement agglomérées et traitées, permettent d’établir des « modèles » susceptibles de révéler des informations parfois très intimes sur des tiers.
La seconde concerne plus largement l’ensemble des données qui permettent d’être reliées, directement, à plusieurs personnes. À titre d’exemple, on pourrait citer un accident de voiture entre deux véhicules ou un rendez-vous entre deux personnes, l’un et l’autre susceptibles de révéler une multitude d’informations, parfois très précises, sur l’ensemble des protagonistes.
Aussi, contrairement à cette première intuition qui nous anime, les données personnelles ne sont que bien rarement strictement individuelles. Bien souvent, il s’agit en réalité de données collectives, sociales, à même de révéler des informations extrêmement précises et nombreuses, souvent intimes, sur une multitude d’individus. La voie de la patrimonialisation des données personnelles reviendrait à reconnaître un droit de propriété sur une chose qui ne nous appartient pas en propre.
Nos données personnelles permettent de tracer nos « graphes sociaux »20https://en.wikipedia.org/wiki/Social_graph, d’y entrelacer des nœuds et d’esquisser les liens entre eux. C’est d’ailleurs pour avoir compris l’importance de cette dimension réticulaire des données personnelles que des entreprises comme Google ou Facebook ont pu construire leurs empires grâce à la publicité ciblée. Les données permettent de tisser la trame de nos sociétés et de nouer les points aux carrefours desquels nos relations sociales s’entrecroisent, en sorte qu’il s’agit de véritables « coordonnées sociales »21Lionel Maurel, « Calimaq », https://scinfolex.com/2018/06/28/google-les-donnees-sociales-et-la-caverne-des-habitus/ ;https://scinfolex.com/2018/05/25/rgpd-la-protection-de-nos-vies-numeriques-est-un-enjeu-collectif-tribune-le-monde/.
Si le droit actuel arrive à saisir les données personnelles dans la relation à l’individu, il reste encore assez largement impuissant à reconnaître et à protéger ce qui en fait la dimension collective. Contrairement à ce que soutient la thèse « patrimonialiste », renforcer encore l’approche individualiste en créant un droit de propriété privée ne constituera pas une solution, mais renforcera encore le problème.
Céder nos données reviendrait en réalité à vendre les clés permettant de nous emprisonner dans des bulles de filtre, de capter notre attention afin d’influencer notre perception de la réalité et, in fine, d’influer sur notre comportement à des fins marchandes, voire sociales et même politiques22https://fr.wikipedia.org/wiki/Cambridge_Analytica.
Modéliser des comportements. Les anticiper. Et, surtout, les influencer. D’abord, afin d’engendrer un acte économique : l’achat. Ensuite, un acte social : gommer les comportements sociaux considérés négatifs ou favoriser ceux que l’on considère positifs. Ou enfin, un acte politique : le vote.
Justifier de telles pratiques pourrait bien saper les fondements mêmes de notre société, de nos démocraties et de nos États de droit23En 2002, M. Michel Gentot écrivait déjà que, dans l’esprit du législateur, le droit à la protection des données personnelles « excédait très largement le seul registre de la protection de la vie privée et touchait aux fondements mêmes de l’État de droit. » (M. Gentot, « La protection des données personnelles à la croisée des chemins », in P. Taraboni (dir.), La protection de la vie privée dans la société de l’information, t. III, PUF, 2002, p. 25 s., spéc. p. 31)..
Le marketing économique, la publicité marchande, la propagande politique existent certes depuis des temps immémoriaux. Il est probable que ces activités aient toujours existé dans l’ombre de l’humanité. Mais l’ampleur, la puissance, l’efficacité de ces phénomènes n’ont probablement jamais été aussi importantes.
Face à ces enjeux, l’approche de la Quadrature du Net consiste à rester fidèle à la vision philosophique qui conçoit la protection des données comme un droit fondamental de la personne humaine, tout en ayant conscience de l’importance de nous organiser collectivement pour faire valoir ces droits. C’est la raison pour laquelle l’association, dès l’entrée en vigueur du RGPD, a lancé une série d’actions de groupe, mobilisant plus de 12 000 citoyens pour réclamer le respect de nos droits face aux pratiques des GAFAM (Google, Apple, Facebook, Amazon, Microsoft).
Ces recours collectifs, qui ont été rendus possibles par le RGPD, sont une manière de faire corps ensemble pour le respect de nos droits, mais ils restent encore davantage une agrégation de demandes individuelles plus qu’une défense de la dimension collective des données. Pour aller plus loin et faire évoluer le droit, il devient de plus en plus urgent de reconnaître un droit à l’interopérabilité, qui permettrait aux internautes de quitter les plateformes dominantes et rejoindre des alternatives plus respectueuses de leurs droits, tout en continuant à communiquer avec leurs contacts. Une telle évolution permettrait de protéger les données, non plus uniquement en tant que relation à soi, mais aussi comme relation aux autres.
***
Nos données personnelles nous définissent. Elles révèlent notre intimité la plus profonde.
Les effets néfastes de la théorie propriétariste sont légion24Yann Padova, « Notre vie privée n’a pas de prix ! », Les Echos, 28 mars 2019 ; https://www.lesechos.fr/idees-debats/cercle/notre-vie-privee-na-pas-de-prix-1004389..
Il y a un peu plus de 40 ans, à l’heure où l’informatique en était encore à ses prémisses, le législateur eu la sagesse de proclamer, à l’orée de la première loi relative à l’informatique, aux fichiers et aux libertés, que l’informatique devait être au service de chaque citoyen, sans porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques25Article 1er de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés..
Au lieu de s’aventurer avec légèreté sur les terra incognita de la patrimonialisation de nos données personnelles, il serait préférable de s’interroger sur ce qui serait inévitablement défait pour tenter, probablement en vain, de poursuivre des finalités qui peuvent être atteintes par des voies plus sûres.
La référence à ce passage du Petit Prince d’Antoine de Saint-Exupéry pour illustrer la différence entre « régner » et « posséder » et, plus largement, l’existence d’autres liens juridiques que le droit de propriété pour exercer du pouvoir sur une chose, est empruntée à la professeure Valérie-Laure Benabou, qui y recourra magistralement lors d’une conférence-débat coorganisée par le réseau Galatea et l’Ordre des avocats au Conseil d’État et à la Cour de cassation, qui se tint le 26 juin 2018 dans la bibliothèque de l’Ordre. Outre la professeur Valérie-Laure Benabou, les participants à ce débat étaient M. Jean Lessi, M. Gaspard Koenig, Me Emmanuelle Trichet et Me Isabelle Landreau. La vidéo de cette conférence-débat est consultable à cette adresse : https://www.youtube.com/watch?v=bbhr80OvSxI&t=3616s
CNCDH, avis du 22 mai 2018 sur la protection de la vie privée à l’ère du numérique, adopté à l’unanimité par l’Assemblée plénière de la Commission, pt. 32.
Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ;
Mme Nicole Belloubet, garde des sceaux, faisait sienne la position du Conseil d’État dans les débats qui se sont tenus au Sénat le 21 mars 2018, sur le projet qui deviendra la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles, en réponse à un amendement qui visait à insérer un second alinéa à l’article L. 341-1 du code de la propriété intellectuelle, ainsi rédigé : « Le citoyen, entendu comme la personne humaine qui consent à faire exploiter ses données, jouit des droits moraux sur les données personnelles qu’il génère individuellement ou par l’intermédiaire des outils numériques qu’il utilise. »
CNNum, rapport sur la « Neutralité des plateformes » (mai 2014), p. 37 ; CNNum, avis sur « La libre circulation des données dans l’Union européenne » (avril 2017).
Judith Rochfeld. Contre l’hypothèse de la qualification des données personnelles comme des biens, in : Les biens numériques, éd CEPRISCA, 2015, pp.221-23 ; http://www.ceprisca.fr/wp-content/uploads/2016/03/2015-CEPRISCA-BIENS-NUMERIQUES.pdf
Premier considérant du RGPD. 2) de l’article 1er du RGPD. Voir également, CE, ord. réf., 18 mai 2020, La Quadrature du Net e.a., n° 440442, 440445, pt. 6.
Conseil d’État, « Le numérique et les droits fondamentaux », Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf
Conseil d’État, Le numérique et les droits fondamentaux, Étude annuelle 2014, p. 264 ; https://www.vie-publique.fr/sites/default/files/rapport/pdf/144000541.pdf ; Pierre Truche, Jean-Paul Faugère, Patrice Flichy, « Administration électronique et protection des données personnelles. Livre blanc. », février 2002]. Cela vaut, a fortiori, pour les personnes morales, s’agissant des données de personnes physiques[[Thibault Verbiest, « Smart cities et données », JT 2019, n° 221, p. 31.
Un fichier de clientèle informatisé contenant des données à caractère personnel, qui n’a pas été déclaré auprès de la CNIL, n’est pas dans le commerce, et sa vente a un objet illicite (cf. Com., 25 juin 2013, n° 12-17.037, Bull. civ., IV, n° 108). Le détournement de fichiers informatiques contenant des informations confidentielles peut être constitutif d’un abus de confiance (cf. Crim., 22 octobre 2014, n° 13-82.630). Le téléchargement, effectué sans le consentement de leur propriétaire, de données que le prévenu savait protégées caractérise la soustraction frauduleuse constitutive du vol (cf. Crim., 20 mai 2015, n° 14-81.336, Bull. crim., 2015, n° 119).
Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères.
Arnaud Anciaux, Joëlle Farchy et Cécile Méadel, « L’instauration de droits de propriété sur les données personnelles : une légitimité économique contestable », Revue d’économie industrielle, 158 | 2017, 9-41 ; mis en ligne le 15 juin 2019, consulté le 24 décembre 2019. URL : http://journals.openedition.org/rei/6540 ; DOI : 10.4000/rei.6540 ; Fabrice Rochelandet, Economie des données personnelles et de la vie privée, 2010, La Découverte, Repères.
CNIL, Les données génétiques, 2017, La documentation française, Collection Point CNIL, 216 p. ; https://slate.com/technology/2019/12/gedmatch-verogen-genetic-genealogy-law-enforcement.html.
En 2002, M. Michel Gentot écrivait déjà que, dans l’esprit du législateur, le droit à la protection des données personnelles « excédait très largement le seul registre de la protection de la vie privée et touchait aux fondements mêmes de l’État de droit. » (M. Gentot, « La protection des données personnelles à la croisée des chemins », in P. Taraboni (dir.), La protection de la vie privée dans la société de l’information, t. III, PUF, 2002, p. 25 s., spéc. p. 31).
Yann Padova, « Notre vie privée n’a pas de prix ! », Les Echos, 28 mars 2019 ; https://www.lesechos.fr/idees-debats/cercle/notre-vie-privee-na-pas-de-prix-1004389.
Article 1er de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.
";s:7:"dateiso";s:15:"20210117_094300";}s:15:"20210112_163944";a:7:{s:5:"title";s:77:"Règlement terroriste : la commission LIBE vote pour la censure sécuritaire";s:4:"link";s:113:"https://www.laquadrature.net/2021/01/12/reglement-terroriste-la-commission-libe-vote-pour-la-censure-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16861";s:7:"pubDate";s:31:"Tue, 12 Jan 2021 15:39:44 +0000";s:11:"description";s:273:"Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à…";s:7:"content";s:3196:"
Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
.
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
";s:7:"dateiso";s:15:"20210112_163944";}s:15:"20210108_153642";a:7:{s:5:"title";s:91:"Règlement terroriste : le Parlement européen doit s’opposer à la censure sécuritaire";s:4:"link";s:122:"https://www.laquadrature.net/2021/01/08/reglement-terroriste-le-parlement-europeen-doit-sopposer-a-la-censure-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16814";s:7:"pubDate";s:31:"Fri, 08 Jan 2021 14:36:42 +0000";s:11:"description";s:262:"Lundi 11 janvier, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen va voter sur le règlement dit « antiterroriste ».
Ce texte (disponible ici en anglais, version non…";s:7:"content";s:5248:"
Lundi 11 janvier, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen va voter sur le règlement dit « antiterroriste ».
Ce texte (disponible ici en anglais, version non consolidée) vise à soumettre l’ensemble des acteurs de l’Internet à des obligations aussi strictes qu’absurdes.
La principale obligation sera de permettre aux autorités de n’importe quel État membre de l’Union européenne (que ce soit la police ou un juge) de demander le retrait de n’importe quel contenu qu’elle considère comme « terroriste » à un acteur du Web dans un délai d’une heure.
La loi Avia prévoyait l’exacte même obligation et le Conseil constitutionnel l’a censuré en juin dernier. Cette victoire nous avait laissé espérer que le texte européen soit profondément modifié. Ce n’est pourtant pas le cas. Après sa défaite nationale, le gouvernement français démontre clairement vouloir utiliser l’Union européenne pour faire passer des textes anticonstitutionnels.
Introduit en septembre 2018 par la Commission européenne, le règlement antiterroriste a été adopté en décembre 2018 par le Conseil de l’Union européenne puis adopté en première lecture par le parlement européen en avril 2019. Après des négociations en trilogue (entre les trois institutions européennes), il est maintenant de retour devant le Parlement pour un dernier vote (vous pouvez retrouver le bilan de nos actions sur ce texte en avril 2019 ici).
La Quadrature du Net a envoyé le message suivant aux membres de la Commission LIBE pour leur demander de rejeter ce texte.
—
Chers membres de la Commission LIBE,
Lundi 11 janvier prochain, vous allez voter sur le règlement « relatif à la prévention de la diffusion des contenus à caractère terroriste en ligne ». Nous vous demandons de rejeter ce texte dangereux qui ne pourra que conduire à une surveillance massive de nos communications en ligne et à une censure privée et automatisée de l’information.
En premier lieu, ce texte imposera à tout acteur du Web de bloquer en une heure n’importe quel contenu signalé comme « terroriste » par un juge ou par la police. Les exceptions prévues dans ce texte sont purement hypothétiques et ne protégeront pas en pratique nos libertés.
Le délai d’une heure est irréaliste et seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook.
En France et dans d’autres pays membres de l’Union européenne, ce pouvoir sera donné à la police, sans contrôle préalable d’un juge. Un tel pouvoir pourrait mener à la censure d’opposants politiques et de mouvements sociaux.
En France, cette même disposition, obligeant des acteurs de l’Internet à retirer en une heure un contenu considéré comme « terroriste » par la police, a été considérée contraire à la Constitution en juin 2020. Le Conseil Constitutionnel a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication. L’adoption de ce texte serait faite donc en violation de la Constitution française et conduirait à amoindrir considérablement la confiance dans l’Union européenne.
En second lieu, le texte sur lequel vous devez vous prononcer est bien différent du texte adopté par le Parlement européen en avril 2019. L’article 4 permet ainsi à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse.
Demander aux membres du Parlement de voter dans un délai aussi court et sur un texte aussi important ne peut que vous encourager à rejeter ce texte et à exiger, sur des questions aussi complexes, un débat véritablement démocratique.
Les idéologies meurtrières ne peuvent être combattues que par des changements structurels et sociétaux. Ce texte joue sur la peur du terrorisme pour mieux contrôler la liberté d’expression sur Internet et limiter les oppositions politiques.
La Quadrature du Net vous demande de rejeter ce texte.
";s:7:"dateiso";s:15:"20210108_153642";}s:15:"20210107_145847";a:7:{s:5:"title";s:92:"Décrets PASP : première bataille perdue contre le fichage massif des militants politiques";s:4:"link";s:128:"https://www.laquadrature.net/2021/01/07/decrets-pasp-premiere-bataille-perdue-contre-le-fichage-massif-des-militants-politiques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16803";s:7:"pubDate";s:31:"Thu, 07 Jan 2021 13:58:47 +0000";s:11:"description";s:251:"Le 4 janvier 2021, le Conseil d’Etat a rejeté les recours formés en urgence par plusieurs associations (et dans lesquels nous étions intervenus) contre les trois décrets PASP, GIPASP et EASP (plus d’explications ici).
Le fichage…";s:7:"content";s:2658:"
Le 4 janvier 2021, le Conseil d’Etat a rejeté les recours formés en urgence par plusieurs associations (et dans lesquels nous étions intervenus) contre les trois décrets PASP, GIPASP et EASP (plus d’explications ici).
Le fichage massif des militantes et militants politiques, de leur entourage, de leurs opinions politiques, de leurs données de santé ne sera donc pas suspendu. Comme il s’agit de fichiers étendus par un texte réglementaire, seul le Conseil d’État avait le pouvoir de freiner les ambitions sécuritaires du gouvernement – ce qu’il vient de refuser de faire, au moins pour l’instant. Ce refus révèle toute la défaillance du système qui prétend encadrer les fichiers de police : le seul contre-pouvoir placé face aux ambitions de la police est un Conseil d’État qui, sur les questions sécuritaires, démontre régulièrement son manque d’indépendance idéologique vis-à-vis du gouvernement et un certaine largesse dans l’application du droit (tel que dans la présente décision, où la démonstration juridique est aussi sommaire que confuse).
Cette décision marque par ailleurs une nouvelle étape dans la déchéance de la CNIL : outre ses avis bien timides sur les fichiers (avis non contraignants), la CNIL avait néanmoins émis un communiqué pour critiquer le fait qu’elle n’avait pu donner son avis sur le fichage des opinions politiques, convictions religieuses et appartenances syndicales. Le Conseil d’État a balayé cet argument en un paragraphe, sans réelle explication.
Ce n’est cependant qu’une décision visant le recours en référé-suspension (c’est-à-dire une demande visant à suspendre les décrets le temps que le juge administratif puisse examiner les recours au fond), qui n’augure en rien d’une possible annulation des décrets sur le fond. La bataille n’est donc pas entièrement perdue. Nous avons déposé fin décembre, en même temps que de nombreuses associations, nos trois recours contre ces décrets. Une décision devrait donc être rendue, sur le fond cette fois-ci, dans quelques mois.
";s:7:"dateiso";s:15:"20210107_145847";}s:15:"20210105_174732";a:7:{s:5:"title";s:28:"Liberté pour Julian Assange";s:4:"link";s:68:"https://www.laquadrature.net/2021/01/05/liberte-pour-julian-assange/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16788";s:7:"pubDate";s:31:"Tue, 05 Jan 2021 16:47:32 +0000";s:11:"description";s:277:"
Hier, la justice britannique a refusé la demande d’extradition de Julien Assange vers les États-Unis. Nous nous réjouissons de cette décision, qui soulève cependant quelques questions. Car rappelons-le, Julian Assange est aujourd’hui inquiété du fait…";s:7:"content";s:2285:"
Hier, la justice britannique a refusé la demande d’extradition de Julien Assange vers les États-Unis. Nous nous réjouissons de cette décision, qui soulève cependant quelques questions. Car rappelons-le, Julian Assange est aujourd’hui inquiété du fait de son activité de journaliste, qui l’a amené à rendre publics notamment les crimes de guerre commis par l’armée américaine dans le cadre de ses opérations en Irak, mais aussi d’autres dossiers d’intérêt public.
Nous déplorons que le verdict ne s’appuie que sur les seuls risques qu’une extradition aurait engendrée sur l’état de santé mentale d’Assange. Nous rejoignons ainsi les critiques rappelant que le jugement n’a pas rejeté la demande américaine sur le fond, validant ainsi la pratique de procès politique remettant en question la liberté de la presse et le droit à l’information, principes pourtant au cœur de cette affaire.
Nous appelons donc à la libération de Julian Assange dès aujourd’hui, pour lui permettre de continuer d’informer librement, et d’être jugé de manière équitable, sans subir les pressions des États-Unis, qui rappelons-le, ont déjà persécuté de nombreux lanceurs et lanceuses d’alerte telles que Chelsea Manning.
Afin d’assurer sa protection, l’asile politique lui a été offert par le gouvernement mexicain, ce que nous saluons également. Nous regrettons que des pays dits « démocratiques » ne lui aient pas, eux aussi, offert asile.
";s:7:"dateiso";s:15:"20210105_174732";}s:15:"20210103_094100";a:7:{s:5:"title";s:46:"Technopolice, villes et vies sous surveillance";s:4:"link";s:86:"https://www.laquadrature.net/2021/01/03/technopolice-villes-et-vies-sous-surveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16550";s:7:"pubDate";s:31:"Sun, 03 Jan 2021 08:41:00 +0000";s:11:"description";s:259:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Depuis plusieurs années, des projets de « Smart Cities »…";s:7:"content";s:13932:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Depuis plusieurs années, des projets de « Smart Cities » se développent en France, prétendant se fonder sur les nouvelles technologies du « Big Data » et de l’« Intelligence Artificielle » pour améliorer notre quotidien urbain. Derrière ce vernis de ces villes soi-disant « intelligentes », se cachent des dispositifs souvent dangereusement sécuritaires.
D’une part, car l’idée de multiplier les capteurs au sein d’une ville, d’interconnecter l’ensemble de ses réseaux et d’en gérer l’entièreté depuis un centre unique et hyper-technologique ne peut qu’entraîner une surveillance accrue de ses habitant·es. Mais d’autre part, car les promoteurs de tels projets ne s’en cachent pas et considèrent que le premier objectif d’une « ville intelligente » doit être la sécurité de ses habitant·es. C’est ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille considère que : « La safe city est la première brique de la smart city », ou, que Marc Darmon, directeur général adjoint de Thales déclare que : « La sécurité est, avec la mobilité, le pilier le plus réaliste de la Smart City. »
Panorama de la Technopolice en France
Un ensemble de nouvelles technologies visant à la surveillance totale de l’espace public sont ainsi expérimentées en toute opacité sur le territoire français. C’est le cas de la vidéosurveillance automatisée (dit vidéosurveillance « intelligente ») qui vise à détecter certains comportements considérés comme suspects par ses promoteurs : détection de mouvement de foule, de personnes se mettant subitement à courir, ou suivi de silhouettes ou de démarches… De tels projets sont déjà à l’essai à Valenciennes, Toulouse, Nice et bientôt à Marseille. [1] La reconnaissance faciale est par ailleurs un type de vidéosurveillance automatisée qui connaît un développement inquiétant : au niveau national avec le TAJ (le fichier des « Traitements des Antécédents Judiciaires) qui concerne plusieurs millions de personne mais aussi à Nice, où la technologie a été testée sur la voie publique en 2019 ou dans la région Sud où un projet de portiques de reconnaissance faciale dans des lycées est encore en discussion.
Les drones font également partie intégrante de ces projets techno-policiers. Ils participent à l’idée de multiplier les flux de vidéo (avec les caméras fixes et les caméras-piétons) pour ne plus laisser aucun espace à l’abri du regard tout-puissant des autorités. L’image ne leur suffit d’ailleurs pas : les dispositifs de détection de sons se multiplient à leur tour. C’est ainsi que le projet « Serenicity » à Saint-Etienne, aujourd’hui abandonné, prévoyait d’installer des microphones dans les rues pour détecter les « bruits suspects » et aider à l’intervention automatisée de la police.
D’autres projets plus globaux sont en préparation. À Marseille, la ville cherche, à travers son projet d’ « Observatoire de la tranquillité publique », à agréger l’ensemble des données issues des services municipaux pour détecter et prévoir les incidents, dans l’objectif de « façonner la ville quasi-idéale ». À Nice, encore une fois, le projet « Safe City », porté par Thalès, veut « anticiper les incidents et les crises » et « collecter le maximum de données existantes » et « effectuer des corrélations et de rechercher des signaux faibles ».
Le fantasme d’une ville sécurisée
Le même objectif se retrouve à chaque fois dans ces différents projets : celui d’une ville totalement sécurisée, surveillée et fluidifiée à l’aide d’outils technologiques soi-disant miraculeux : reconnaissance faciale, vidéosurveillance « intelligente », police prédictive, application mobile de dénonciation citoyenne… Ces outils participent à la transformation de la ville en un espace où le hasard n’a plus sa place, où l’intelligence artificielle servira, comme l’annonçait Gérard Collomb, à « repérer dans la foule des individus au comportement bizarre », où l’on parle de l’« optimisation de la gestion [des] flux » : une ville finalement où l’humain n’a plus sa place mais devient un capteur comme les autres, pour un maire qui se voit maintenant qualifié de « CEO de la ville »…
Car c’est l’un des pendants du développement de ces projets : la délégation à des entreprises privées de la gestion de la ville. Se retrouvent dans l’administration de nos espaces publics des logiques de marché, de concurrence, de normalisation qui y sont totalement étrangères et qui ne peuvent conduire qu’à des dérives, la première étant d’en faire des terrains d’expérimentations pour ces start-up qui peuvent développer en toute impunité leurs outils de surveillance. Caroline Pozmentier, encore elle, n’hésite ainsi même pas à déclarer que « les villes sont des laboratoires » pour ces outils technologiques de surveillance.
Un autre pendant de ces projets, c’est la militarisation de notre espace public : les drones sont avant tout un outil militaire dont l’utilisation commence pourtant à se normaliser au cœur de nos villes. Qui était ainsi derrière le projet de « Serenicity » à Saint-Etienne ? L’entreprise Verney Carron, fabricant d’armes et fournisseur de lanceurs de balle de défense Flash-balls pour la police et la gendarmerie nationale.
Terrorisme et nouveaux marchés industriels
Pourquoi ces projets sont-ils mis en place ? La première réponse à apporter est devenue une évidence dans le contexte politique des dernières années : la « menace terroriste », érigée en grand ennemi public face auxquels tous les Français·es ont le devoir de se rallier, s’est imposée comme un argument politique imparable. C’est en son nom qu’ont été notamment adoptées la loi Renseignement en 2015 ou la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » en 2017. Ces textes, ainsi que d’autres à venir, nous amputent pourtant chaque fois d’un peu plus de liberté. Au nom de la lutte contre le terrorisme, tout est maintenant acceptable car la lutte contre le terrorisme fait élire.
Désormais tout ce qui permet aux élu·es de se revendiquer de la « sécurité » vaut le coup. Les caméras de surveillance, qui sont présentes par dizaines de milliers dans nos villes, n’ont jamais réellement fournit la preuve de leur efficacité mais continuent pourtant de se multiplier. Nice est la ville la plus équipée en caméras de France, et elle l’était déjà en juillet 2016 lors de l’attentat sur la promenade des Anglais, sans qu’elle n’ait permis d’éviter quoi que ce soit.
Qu’importe, les choix d’augmentation des dispositifs de surveillance ne sont jamais faits dans le but d’augmenter de façon effective la sécurité. Si c’était le cas, cet argent serait orienté vers la rénovation des immeubles proches de l’effondrement à Marseille au lieu de l’être dans le projet de l’ « Observatoire de la tranquillité publique ». Le but des élu·es est finalement beaucoup plus clair : augmenter le sentiment de sécurité, et cela dans un objectif purement électoraliste.
La deuxième réponse est d’ordre économique. Derrière la mise en place de ces technologies se cache l’ouverture de nouveaux marchés : Thalès, Cisco, Huawei et d’autres industriels préparent ces projets depuis longtemps avec la volonté de vendre, clés en main, de nouveaux équipements aux villes qui le souhaiteraient. L’idée est de généraliser ces systèmes au maximum. Thalès a par exemple finalisé en avril le rachat de l’entreprise Gemalto, à l’origine du système PARAFE, qui gère le contrôle d’identité aux frontières dans les aéroports afin de se positionner en leader de la sécurité de la surveillance. Pour s’ouvrir à ce marché des villes sécuritaires, les industriels, les élu·es et les start-ups nous inondent de discours sur la ville intelligente et leur progrès technique inéluctable au service d’une soi-disante sécurité.
Enfin le dernier argument – le plus inquiétants au regard du respect de nos droits et libertés – est d’ordre politique. Ces technologies ont pour but de rendre l’espace urbain plus contrôlable et prévisible. Pour certain·es élu·es, les technologies de surveillance couplées à l’intelligence artificielle sont les outils parfaits pour l’exécution de leur fantasme sécuritaire. Christian Estrosi déclare ainsi vouloir « suivre, grâce au logiciel de reconnaissance faciale dont est équipé [le] centre de supervision urbain [de Nice], toutes les allées et venues des [fichés S] ». Dans le cadre de mouvements sociaux de plus en plus difficiles à réprimer, les outils de surveillance ont un impact normatif sur la société dont les dirigeant·es sont bien conscient·es : se savoir surveillé·e est en effet bien souvent aussi efficace que la surveillance en elle-même.
Dans cette atmosphère de progrès technologique fantasmé, les solutions techno-sécuritaires pré-fabriquées proposées par ces différents industriels se présentent comme la solution de facilité pour se faire élire et contenir plus facilement la population. Les argumentaires de lutte contre le terrorisme et de développement économique finissent d’entériner l’idée de contrôle total et massif de l’espace public.
Technopolice contre surveillance
La campagne Technopolice, lancée en septembre 2019 par La Quadrature du Net et d’autres associations, a pour objectif de mettre en lumière le développement de ces dispositifs, de partager les informations et de mettre en place la résistance nécessaire face à ces nouveaux outils de surveillance. De telles mobilisations ont déjà porté leurs fruits : les projets de portiques de reconnaissance faciale à Nice et de microphones dans les rues de Saint-Etienne ont été pour l’instant arrêtés en France par la Cnil. Ces projets craignent en effet la lumière, et le débat public peut y mettre un premier frein. Aux États-Unis, des mobilisations semblables ont par exemple conduit de nombreuses villes à prendre des arrêtés interdisant l’utilisation de la reconnaissance faciale.
Le but de la plateforme Technopolice est ainsi double : documenter de la manière la plus rigoureuse possible le déploiement de ces projets de surveillance à travers le pays, et construire ensemble des outils et des stratégies de mobilisation capables de les tenir en échec. L’enjeu, c’est de parvenir à organiser des résistances locales en les fédérant afin qu’elles puissent se nourrir les unes les autres. Vous pouvez dès à présent nous rejoindre sur forum.technopolice.fr pour participer à l’analyse et à la lutte contre le développement de ces projets sécuritaires.
Contre cette dystopie que préparent ceux qui prétendent nous gouverner, nous appelons à une résistance systématique.
";s:7:"dateiso";s:15:"20210103_094100";}s:15:"20201222_152519";a:7:{s:5:"title";s:65:"Interdiction des drones : victoire totale contre le gouvernement";s:4:"link";s:103:"https://www.laquadrature.net/2020/12/22/interdiction-des-drones-victoire-totale-contre-le-gouvernement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16744";s:7:"pubDate";s:31:"Tue, 22 Dec 2020 14:25:19 +0000";s:11:"description";s:238:"Le Conseil d’État vient d’exiger que la préfecture de police de Paris cesse sa surveillance par drones des manifestations (voir sa décision). Allant encore plus loin que son interdiction de mai dernier, la plus haute…";s:7:"content";s:16590:"
Le Conseil d’État vient d’exiger que la préfecture de police de Paris cesse sa surveillance par drones des manifestations (voir sa décision). Allant encore plus loin que son interdiction de mai dernier, la plus haute juridiction administrative est particulièrement virulente contre l’utilisation de drones en manifestation, laissant peu de place au gouvernement pour autoriser ceux-ci dans sa PPL Sécurité Globale. Le rapport de force s’inverse enfin : engouffrons-nous dans la brèche !
Comme nous le racontions, à la suite de la première interdiction exigée par le Conseil d’État en mai dernier, la préfecture de police de Paris a continué à utiliser les drones pour surveiller, notamment, les manifestations. Nous avons été donc forcé·es de former un nouveau recours contre cette surveillance illégale, recours que nous venons donc de gagner devant le Conseil d’Etat.
La préfecture de police avait tenté, pour contourner l’interdiction faite par le Conseil d’État d’utiliser des drones, d’ajouter un dispositif de floutage par intelligence artificielle. Aujourd’hui, le Conseil d’État a entièrement rejeté cette tentative grotesque d’esquiver la loi. La préfecture de police est donc enjointe d’arrêter immédiatement le déploiement de drones en manifestation.
Le Conseil d’État va même plus loin et dénonce le dispositif dans son essence : « le ministre n’apporte pas d’élément de nature à établir que l’objectif de garantie de la sécurité publique lors de rassemblements de personnes sur la voie publique ne pourrait être atteint pleinement, dans les circonstances actuelles, en l’absence de recours à des drones ».
En droit des données personnelles, si l’utilité d’un dispositif de surveillance n’est pas clairement démontrée, il ne peut jamais être autorisé (en matière de données sensibles, telles que les opinions politiques captées en manifestation, il faut même que le dispositif soit « absolument nécessaire » au maintien de l’ordre).
En dénonçant l’absence d’une telle preuve, le Conseil d’État prive donc l’article 22 de la proposition de loi Sécurité Globale de tout fondement. Cette décision du Conseil d’État est une double claque pour le gouvernement : non seulement les drones sont interdits, mais le gouvernement a perdu toute légitimité juridique à vouloir les autoriser dans la loi (à moins d’apporter l’impossible preuve d’une « nécessité absolue »).
Après de longues semaines douloureuses à subir une série de projets autoritaires et de violences en manifestation, il se pourrait que le rapport de force commence enfin à s’inverser, le camp sécuritaire connaissant sa première défaite majeure. L’année 2021 commencera dans cette optique et, avec vous, nous vaincrons !
Pour documenter la lutte, nous détaillons ci-dessous l’ensemble du débat juridique contre le gouvernement qui, commençant il y a 6 mois, a conduit à la victoire d’aujourd’hui.
Premier confinement : le déploiement sauvage de drones déclaré illégal
En avril 2020, alors que la France connaissait un premier confinement , nous documentions comment les différentes forces de police en profitaient pour mettre à l’essai un usage totalement sauvage et opaque des drones. La tentation sécuritaire derrière cette initiative était très forte et assumée : celle de surveiller tout, tout le temps, par des moyens toujours plus intrusifs. C’est début mai, suite à un article de Mediapart qui avait obtenu des détails sur les drones parisiens, que nous attaquions en urgence cet usage aux côtés de la Ligue des droits de l’Homme dans la ville de Paris. Au-delà de ce cas particulier, le but de ce recours était d’obtenir une décision de justice démontrant l’illégalité de l’ensemble des déploiements de drones.
Le Conseil d’État nous a donné raison. Par une ordonnance de mai 2020, il enjoignait ainsi à la préfecture de police de Paris de cesser d’utiliser ses drones pour faire respecter les mesures sanitaires. Le juge estimait que les drones, en l’absence de tout encadrement, portaient atteinte aux libertés fondamentales et devaient être interdits. Si la décision de mai ne concernait que les drones utilisés à Paris pour faire respecter les règles propres au confinement, le raisonnement affiché par le Conseil d’Etat pouvait être utilisé de façon plus large et s’appliquer contre tout type d’usage. Ce qui n’a pas empêché le préfet Lallement de l’ignorer de façon délibérée.
Les manifestations : nouveau terrain de surveillance par drones
Avec l’assouplissement des mesures sanitaires et la ré-autorisation des manifestations, la préfecture de police ne s’est pas privée d’utiliser les drones pour surveiller ces rassemblements. Cet usage n’était pas nouveau (les manifestations de gilets jaunes ont quelquesfois été surveillées par drones avant le confinement), mais il venait cette fois-ci violer frontalement la décision du Conseil d’État qui venait de déclarer leur utilisation illégale quelques semaines plus tôt.
C’est grâce à votre aide que nous avons pu documenter cet usage par la préfecture de police : en juin, juillet, septembre, octobre. Lors de la procédure, la préfecture de police n’a jamais contesté cette utilisation systématique des drones en manifestation.
Surtout, si cette surveillance des manifestations restait illégale, elle questionnait l’usage des drones sous un angle nouveau : les opinions politiques n’ont pas à être surveillées. C’est pour cela que nous avons déposé un nouveau recours en urgence devant le Tribunal administratif de Paris.
Le floutage des personnes : un artifice dangereux
Grâce à cette nouvelle procédure, il nous a été révélé que la préfecture de police de Paris a tenté de contourner la première ordonnance de mai en mettant en place un dispositif de floutage par intelligence artificielle : une fois captées, les images des drones étaient transmises à un serveur chargé de flouter les personnes, avant de retransmettre les informations (images floutées et non-floutées) au centre de commandement de la police.
Mediapart analysait en novembre les documents de la préfecture tentant de justifier et d’expliquer ce procédé. Ce dispositif de floutage, réversible et soumis au seul bon vouloir de la police, était une tentative grossière de la préfecture de police de tromper les juges. Le Conseil d’État, contrairement au tribunal administratif de Paris, n’est pas tombé dans le piège : le rapporteur public1Le rapporteur public est un membre de la formation de jugement
chargé de donner une première analyse juridique de l’affaire, avant que le Conseil d’État rende sa décision. estimait à l’audience que la préfecture de police avait commis une erreur de lecture de l’ordonnance de mai et que le fait de flouter les personnes souligne le problème intrinsèque aux drones : ce genre de dispositif a bien une capacité très importante de surveillance et un floutage a posteriori n’enlève rien à cela.
La CNIL doit mettre fin à la mauvaise foi de la police
Cette affaire met en lumière l’incroyable mauvaise foi de la préfecture de police qui, durant toute la procédure, a tenté de sauver son dispositif à l’aide d’indignes pirouettes, faisant ainsi évoluer sa doctrine d’utilisation des drones au gré des débats2Fort heureusement, comme en mai dernier, le Conseil d’État n’a donné aucune valeur à cette doctrine qui n’a aucune portée juridique., ou n’hésitant pas à contredire de manière éhontée ses propres documents quand nous les retournions contre elle pour appuyer l’illégalité du déploiement des drones.
La préfecture de police est en roue libre et il est fondamental de mettre fin à cette impunité. Le préfet de police a par exemple attendu près de deux mois pour appliquer (faussement vient de dire le Conseil d’État) la décision de mai. Combien de temps lui faudra-t-il cette fois-ci ? La CNIL doit passer à l’action et sanctionner les forces de police nationale et de gendarmerie qui continuent d’utiliser des drones ou des hélicoptères pour surveiller les manifestations ou faire appliquer les règles sanitaires. Nous lui avons mâché le travail, à elle de prendre le relais.
Cette nouvelle interdiction des drones intervient alors que la proposition de loi Sécurité Globale a déjà été votée en première lecture à l’Assemblée nationale et arrivera à la rentrée devant le Sénat. Après les critiques des rapporteur·es des Nations Unies de la Défenseure des droits et de 188 organisations, et les manifestations qui ont eu lieu partout en France contre ce texte, son rejet est d’autant plus important. Non seulement cette loi légalise les usages policiers de drones et accentue une fois de plus la pression sécuritaire sur les citoyen·nes, mais elle fait également fi de la protection la plus élémentaire des libertés fondamentales.
Le rapporteur public est un membre de la formation de jugement
chargé de donner une première analyse juridique de l’affaire, avant que le Conseil d’État rende sa décision.
Fort heureusement, comme en mai dernier, le Conseil d’État n’a donné aucune valeur à cette doctrine qui n’a aucune portée juridique.
";s:7:"dateiso";s:15:"20201222_152519";}s:15:"20201221_182435";a:7:{s:5:"title";s:53:"Contre la politique de maintien de l’ordre en ligne";s:4:"link";s:91:"https://www.laquadrature.net/2020/12/21/contre-la-politique-de-maintien-de-lordre-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16710";s:7:"pubDate";s:31:"Mon, 21 Dec 2020 17:24:35 +0000";s:11:"description";s:231:"Depuis un mois nous vous parlons de la loi Sécurité Globale, de fichiers de police étendus, des nouveaux moyens donnés à la police pour réprimer les manifestants et des moyens de dénonciation des violences policières…";s:7:"content";s:11758:"
Depuis un mois nous vous parlons de la loi Sécurité Globale, de fichiers de police étendus, des nouveaux moyens donnés à la police pour réprimer les manifestants et des moyens de dénonciation des violences policières qui leur sont retirés. Aujourd’hui nous abordons les stratégies de maintien de l’ordre en ligne.
La censure, première arme de maintien de l’ordre sur internet
Depuis la création d’Internet, il semble que nos gouvernants n’aient eu de cesse de le présenter comme un « espace de non-droit » qu’il faudrait au plus vite « re-civiliser », y rétablir l’ordre. Si l’année 2000 a d’abord vu apparaître un statut européen protecteur des hébergeurs, préservant ces derniers de toute obligation de contrôle actif des contenus publiés sur leurs infrastructures sauf à « retirer promptement un contenu manifestement illicite qui leur aurait été désigné », différentes lois se sont enchaînées depuis pour renforcer la censure d’État.
La police est ainsi la première entité à bénéficier d’un très fort pouvoir de censure au prétexte de lutter contre le « terrorisme ». Lorsque la police demande à ce qu’un contenu soit censuré, elle s’adresse directement à l’hébergeur. Aucun juge n’intervient alors à ce stade et la police est la seule à décider de la nature d’un contenu qu’elle veut faire censurer, sur la base d’une notion de « terrorisme » particulièrement large, floue et sujette à l’arbitraire. Le seul recours offert est la contestation devant les tribunaux de la demande de censure mais cette possibilité est dérisoire : le juge arrive après la demande de la police, des mois voire des années plus tard. Ce mécanisme, dans lequel le juge n’intervient qu’en cas de contestation, prive les hébergeurs de toute marge de manœuvre quant à ces demandes, et les place dans une position de faiblesse. De l’autre coté, ce système offre à la police de vastes capacités d’abus et de censures politiques1.
Les géants du Net, bras armé de l’État
Loi haine, Règlement européen de censure terroriste, loi Fake News, Directive Copyright, toutes les lois de censure de ces dernières années remettent en question la protection du statut d’hébergeur, en leur confiant le rôle de police sur Internet. 1h pour censurer les contenus considérés comme « terroristes », 24h pour censurer les contenus ciblés comme « haineux », la mission confiée ici aux géants du web à travers cette exigence de délais si courts est de créer une police robotisée pour automatiser la censure. Sous couvert de lutte contre la haine ou le terrorisme, ce sont bien souvent les opposants politiques qui sont visés.
Les géants, tout à fait enclins à obéir aux États tant qu’ils conservent leur position dominante sur le marché illégal des données personnelles, font même du zèle, appliquant ces lois avant même leurs applications.
Contre la censure et la surveillance en ligne, la décentralisation
Depuis quelques jours nous avons vu s’inscrire sur notre instance Mastodon, mamot.fr, plus de mille personnes ayant souffert de la censure politique de Twitter. Beaucoup d’entre eux nous ont demandé quelle était notre politique de conservation des données et de censure. Il y a trois ans nous avons fait l’objet d’une réquisition concernant les données personnelles d’un utilisateur de mamot. Si la loi française « pour la confiance en l’économie numérique » demande aux hébergeurs de conserver les données des utilisateur·ices pendant un an, La Quadrature a choisi de respecter le droit européen et de ne conserver ces données que 14 jours.
Qu’il s’agisse de régime de conservation et de communication à la police de données personnelles ou de modération et de filtrage des contenus publiés, nous gagnerons toujours à avoir une diversité d’hébergeurs et à lutter contre la centralisation des contenus et des personnes. C’est pourquoi, même si les nouv·elles venu·es sur mamot.fr sont les bienvenu·es, nous vous encourageons à ne pas vous concentrer sur ce serveur : de nombreuses instances existent et vous pouvez aussi créer les vôtres afin d’utiliser les nombreuses possibilités de modération qu’offre la décentralisation, et surtout créer des espaces dont vous choisissez les règles. Nous envisageons d’ailleurs de clore bientôt les inscriptions sur mamot.fr afin d’éviter qu’elle ne devienne une instance trop grosse.
Interopérabilité
Sur tous les réseaux, le poids de l’organisation verticale décidée unilatéralement se fait de plus en plus sentir. Il nous revient à toutses de créer ou de trouver des espaces pour communiquer qui ne soient plus assujettis aux principes économiques des plateformes ou aux principes sécuritaires des États. Mais quitter les plateformes des géants revient souvent à abandonner des liens importants, et nombreux sont ceux qui choisissent de céder un peu de leurs libertés pour préserver ces liens. Pour permettre à tout le monde de préserver ses liens sociaux et ses libertés, La Quadrature propose depuis deux ans de contraindre les géants à devenir interopérables. C’est-à-dire, de les forcer à communiquer avec l’extérieur comme c’est le cas pour le mail : peut importe votre hébergeur mail, vous pouvez écrire à n’importe quelle autre adresse email car le protocole est ouvert.
Pour les réseaux sociaux c’est possible aussi : le protocole ActivityPub permet par exemple aux différentes instances Mastodon de communiquer entre elles. Ce protocole permet même de faire communiquer des réseaux qui ont des activités différentes (publications d’images, de vidéos, de billets de blogs…). Si les plateformes géantes étaient interopérables, il deviendrait possible de supprimer nos compte et de refuser de se soumettre entièrement à leur Conditions Générales d’Utilisation, pour passer sur des services qui respectent nos droits, voire même héberger soi-même son propre compte !
Forcer les géants du Net à devenir interopérable est un projet probablement aussi ambitieux que d’imposer la neutralité du Net. L’Union européenne pourrait commencer à se saisir de cet enjeu dans son récent Digital Market Act, qu’il faudra pleinement investir dans les mois à venir.
Depuis 2008, La Quadrature se bat contre la surveillance et la censure sur Internet, nous dénonçons les lois liberticides et tentons de faire pression sur nos représentant·es pour qu’iels préservent nos droits. Pour que La Quadrature continue ses combats nous avons besoin d’énergie et d’argent. Pour nous aider à lutter contre ces futurs sécuritaires, parlez de nos combats autour de vous et faites un don si vous le pouvez sur laquadrature.net/donner
L’affaire d’IndyMedia Nantes un exemple d’abus assez parlant : la police voulait censurer une revendication de sabotage et la justice, parce que l’hébergeur est allé jusqu’au bout et a tenu, le tribunal administratif a fini par déclarer abusive la demande de la police.
";s:7:"dateiso";s:15:"20201221_182435";}s:15:"20201220_101800";a:7:{s:5:"title";s:36:"Combattre le capitalisme identitaire";s:4:"link";s:77:"https://www.laquadrature.net/2020/12/20/combattre-le-capitalisme-identitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16546";s:7:"pubDate";s:31:"Sun, 20 Dec 2020 09:18:00 +0000";s:11:"description";s:230:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Il ne fait désormais plus aucun doute que…";s:7:"content";s:36181:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Il ne fait désormais plus aucun doute que le marché de la surveillance est en plein essor. Des sociétés vendent aux États des systèmes d’identification des populations, à des fins de contrôle, pour des marchés se comptant en milliards d’euros. En France, de plus en plus de villes mettent en place des systèmes invasifs, qu’il s’agisse d’ériger des portiques de reconnaissance faciale dans les lycées (comme à Nice et Marseille 1), de déployer des drones (en dépit de la faune locale qui ne les apprécie que peu, comme à Paris 2) ou de forcer les habitants à s’identifier sur des services en ligne pour interagir avec leur administration – comme l’illustre notamment le site Technopolice.
Il y a également un autre marché plus insidieux, que l’on suppose parfois moins nuisible que celui, brutal, de la surveillance par les États. C’est celui de l’économie de l’attention, de la marchandisation de nos comportements et de nos identités. Ne nous trompons pas de sujet, la plupart des multinationales hégémoniques du numérique (Google, Apple, Facebook, Amazon et Microsoft – GAFAM par la suite) parlent3 de vente et d’exploitation de données personnelles et non de comportement, car la donnée est abstraite et omniprésente. Il est difficile de s’opposer à une collecte de données personnelles ou de métadonnées. La donnée est abstraite, une modélisation mathématique, et peut-être isolée, car il est difficile d’en percevoir l’effet au quotidien. Pourtant si l’on parle des comportements que décrivent ces données, alors il devient beaucoup plus évident de s’opposer à cette collecte et à leurs marchandisations.
Parler de capitalisme des comportements, de capitalisme des identités, de capitalisme identitaire, au lieu de capitalisme de surveillance ou de l’économie de l’attention, permet de rendre concret et palpable ce que font réellement les GAFAM. Ils analysent nos comportements dans le but de nous forcer à nous comporter de certaines façons. De plus, cela permet de mettre en lumière le fait que les pratiques de surveillance des États et ce capitalisme du comportement sont en fait souvent les deux faces d’une même pièce de cette surveillance. D’autant que les acteurs de ces deux formes de surveillance sont, de fait, souvent les mêmes. Palantir, par exemple, la société qui a obtenu un marché d’analyse de grandes quantités de données pour la DGSI4 en France, est fondée par Peter Thiel. Qui est également le fondateur de PayPal, le premier financeur externe de Facebook et qui, via le fonds d’investissement duquel il fait partie, investit également dans Airbnb, Lyft, Space X (le programme spatial d’Elon Musk) et Spotify.
Palantir est loin d’être le seul exemple. La société Amesys, ancienne filiale du groupe Bull, s’est fait connaître par la vente d’un système de surveillance à Mouammar Kadhafi5. Ou encore Amazon, qui héberge le cloud de la CIA (un petit contrat à 600 millions de dollars tout de même). Ou Google qui, via le projet Maven (officiellement abandonné en 2019 suite à des pressions des employé·es de Google), entraîne les drones à faire de la reconnaissance de cible6. C’est un phénomène global qui touche énormément d’entreprises du numérique, comme le documentent, par exemple, Transparency Toolkit et Privacy International7.
Ces capitalistes identitaires tirent leur richesse du travail que nous leur fournissons gratuitement en alimentant leurs gigantesques collections de données comportementales. Chaque fois que vous lisez quelque chose en ligne, que vous regardez une vidéo, que vous la repartagez avec d’autres ou non, chaque action minime que vous entreprenez sur Internet, permet à ces ogres gargantuesques de s’enrichir encore plus, d’accumuler encore un peu plus de contrôle tout en évitant de s’y soumettre, renforçant toujours plus l’asymétrie propre aux systèmes capitalistiques. Cela engendre également une forme de prolétariat. Une dépossession des travailleu·ses dans ces systèmes de leurs outils de production, pour ne se voir évaluer qu’en fonction de leur « crédit social ». Qu’il s’agisse du nombre d’étoiles du chauffeur supposé indépendant, mais aliéné à Uber (ou Lyft), ou le nombre de vues de votre profil Facebook ou de contenus sur Instagram, le « score p » de votre chaine Youtube8, votre valeur dans ce système capitaliste est celle que les plateformes de gestion de contenus vous donnent.
Ce n’est pas la qualité intrinsèque du contenu de ce que vous publiez, ou de ce que vous lisez, qui compte. C’est le score que vous attribue une entreprise de manière arbitraire qui décide de votre valeur, de ce que vous êtes pour la société, de ce à quoi vous aurez accès. Ces gigantesques entrepôts d’information sur les comportements et les identités sont gérés par des entreprises qui cherchent à gagner toujours plus et à n’importe quel prix, au mépris de l’éthique et même des lois. Elles n’hésitent pas à collaborer et à renforcer les systèmes oppressifs existants pour conquérir de nouveaux marchés. Ces entreprises n’ont pas fait exprès, elles sont désolées et promis juré, la prochaine fois elles feront mieux, développant une culture de l’excuse9 et s’exonérant à l’inverse de toute responsabilité.
Ces entrepôts comportementaux permettent aux États de renforcer encore plus leurs appétits pour obtenir toujours plus de moyens de contrôle des populations dans une forme de « partenariat public privé de la surveillance ». Appétits qui sont ensuite nourris par les nouvelles avancées technologiques proposées par les GAFAM, créant ainsi un cercle vicieux, affaiblissant encore plus les prolétaires au contrôle sur leurs comportements et identités, afin de toujours donner plus aux mêmes et de permettre à cette classe de très riches cyberbourgeois de continuer de bénéficier d’un pouvoir de plus en plus total sur nous.
Il existe cependant des moyens pour mettre à mal ce capitalisme identitaire. Se saisir des moyens de production apparaît comme l’une des façons les plus efficaces, qu’il s’agisse des machines de productions des ouvriè·res industriel·les ou des systèmes de production et de consommation d’information. De la même manière que le travail à la chaîne a retiré aux ouvrier·es leurs statuts et les ont asservi aux machines en les dépossédant de leurs compétences et connaissances, les systèmes centralisateurs des GAFAM cherchent à nous empêcher de comprendre comment fonctionnent les échanges d’informations pour nous déposséder de notre connaissance.
Leur force, en plus de l’appétence des États en quête de toujours plus de contrôle, est d’être parvenus à transformer un système géré en communauté – Internet – en un système géré par eux. Pour s’affranchir de leur contrôle, il faut s’affranchir de leurs solutions, de leurs outils. L’Internet des protocoles, par exemple, est un premier pas dans cette direction (voir l’article L’Internet des Protocoles dans ce même dossier). Mais seul, il ne suffit pas. Il faut que nous prenions tou·tes conscience que ce problème s’étend bien au-delà de nos simples espaces en ligne. L’identification systématique requise pour utiliser des services, quels qu’ils soient, en forçant la création (ou l’association) d’un « compte », nous identifiant, de préférence avec un système d’identification centralisée, renforce le pouvoir de ces GAFAM et des États sur nous. Cela nous force également, nous militan·tes, à nous soumettre à leur bon vouloir pour constituer les archives de nos luttes, pour coordonner nos actions ou simplement pour prendre des nouvelles les un·es des autres.
Requérir d’une personne qu’elle dispose d’un compte Google pour accéder aux discussions internes à un groupe est dangereux et vous coupe des personnes qui refuseraient d’avoir un tel compte. Mais exiger qu’elle ouvre un compte sur une plateforme « sécurisée » quelconque n’est pas forcément une meilleure idée10. Si votre liste de militant·es pour l’environnement est rendue publique, il y a fort à parier que votre mouvement en pâtisse. En France comme ailleurs, les services de renseignements utilisent de plus en plus les médias sociaux comme source de renseignement11. Lorsque votre réseau social privé sera compromis, le fait que les communications soient chiffrées ne vous protégera pas. Utiliser un protocole de chiffrement est un bon premier pas, mais ne suffit pas à lui seul. L’analyse des données comportementales — qui parle à qui et quand — via les métadonnées12 suffit à mettre en danger les personnes. Savoir comment sont chiffrées vos communications, ou qui a accès à tel ou tel élément de la conversation est tout aussi important. Les systèmes de messageries privées mis en place par les GAFAM et les entreprises qu’elles financent, directement ou non (WhatsApp, Messenger, iMessage, etc.) ne permettent pas de répondre à ces questions, même si le logiciel est à code ouvert.
Car un programme, quel qu’il soit, s’exécute dans un environnement social et technique. Cet environnement est tout aussi important que le code source. Les nombreux échecs de l’utilisation d’algorithmes pour essayer de modérer les discussions13 sont très souvent liés aux biais personnels des personnes développant ces logiciels, ces personnes étant souvent des hommes blancs, relativement aisés, vivants sur la côte ouest des États-Unis. Mais au-delà des problématiques politiques, des limitations matérielles et légales existent. Par exemple, si le système de génération de nombre aléatoire d’un ordinateur est modifié pour ne générer que des nombres prédictibles (par exemple, que des 1), alors tous les algorithmes de chiffrement utilisant cet ordinateur sont instantanément cassés et inefficaces, sans pour autant que l’utilisat·rice du service ne remarque quoi que ce soit. Par ailleurs, il existe des territoires sur lesquels les nations obligent des entreprises à ajouter des faiblesses dans leurs logiciels, via des « portes dérobées » communément appelées backdoors14 ou du « chiffrement responsable »15. Ces pratiques sont de plus souvent tenues secrètes par des procédures bâillons16. De fait, il est malheureusement illusoire de penser que le seul fait que le logiciel soit à code ouvert est une garantie suffisante de protection des communications.
Il est donc impératif de résister aux sirènes de l’identification systématique sur les pages et services en ligne. La plupart des contenus que vous consultez ne changent pas en fonction de votre identité. Ou ne devrait pas. Que je sois Arthur, Ahmed ou Amélie ne devrait pas changer le contenu d’un journal ou d’un livre que je consulte. Certes, une personne me connaissant pourra me recommander tel ou tel livre en fonction de mes goûts personnels, pour peu que je les partage avec elle, mais il me reste possible de prendre un média au hasard et son contenu sera le même pour moi que pour tous les autres. Ou devrait être le même. Les commentaires, idées, ou autre, que je produis et souhaite rendre publiques ne devraient pas être limités par l’accès aux seul·es membres d’un club privé et restreint, mais rendus disponibles à toute personne voulant les lires, les commenter, les critiquer ou les partager avec ses ami·es.
Au-delà du simple contenu, la manière dont nos comportements transitent en ligne est aussi importante et est souvent associée à une identité. Les adresses IP, attribuées par des fournisseurs d’accès à Internet, ou les numéros IMEI de vos téléphones portables, très souvent associés à une déclaration d’identité, sont également utilisés pour faire du profilage (par exemple, bon nombre de publicités vous localisent géographiquement relativement précisément17).
Il est donc fondamental, pour se réapproprier les moyens de production numérique, de se réapproprier nos collectifs et nos identités, de questionner les structures s’occupant de convoyer ces petits bouts de comportements d’un point à l’autre de la planète.
Au plus bas niveau, cela peut être de créer ou de rejoindre un fournisseur d’accès à Internet associatif, comme l’un de ceux fédérés autour de la FFDN18. À un niveau plus élevé, il peut s’agir d’utiliser d’autres moyens de se connecter à Internet que de passer par la seule ligne fournie par votre fournisseur, en utilisant des protocoles de routage alternatif comme Tor ou GNUNet. Mais il est également de notre responsabilité à tou·tes de documenter nos usages, d’archiver nos luttes, de les partager et de les faire circuler. Sans que tout le monde ne devienne ingénieur·e en systèmes et réseaux, permettre à chacun·e de pouvoir accéder au contenu de la manière qui l·a protège le plus sans qu’iel n’ait à décliner son identité est fondamental.
Les réflexions sur la gouvernance et l’Internet des protocoles doivent aussi s’inscrire dans une vision politique plus large. Par exemple, les archives de discussions d’il y a cinq ans sont-elles réellement nécessaires ? Et si oui, ne serait-il pas possible de les conserver sous la forme d’un texte de positionnement reprenant les éléments clefs de cette conversation, supprimant le nom des personnes qui ont tenu ces propos il y a cinq ans et permettant aux nouve·lles venu·es d’avoir la réponse à une question qu’iels auraient pu poser et rejouer de nouveau cette discussion ?
À l’inverse, les conversations quotidiennes, qui font le sel du travail militant, qui nous permettent de tenir le coup, de veiller les un·es sur les autres, n’ont pas nécessité à être mises à disposition du public au-delà de l’intervalle de temps dans lequel elles prennent place. C’est le deuxième point important et nécessaire pour s’affranchir du contrôle des capitalistes identitaires. Il faut se poser la question de ce que l’on garde comme données, comme traces de comportement. Même les inscriptions aux casiers judiciaires sont censées être limitées dans le temps et avoir une date au-delà de laquelle on considère que la personne a suffisamment changé pour ne pas se voir chargée à vie de ses actions passées19. Même à des fins d’observation des comportements à l’échelle de la société, il est souvent bien plus efficace de ne conserver que des données dites consolidées, c’est à dire étant le résultat d’un traitement statistique, et non le détail de chaque donnée. Enfin, dans le cadre d’étude scientifique, notamment médicale, mais aussi sociologique, le consentement des personnes participant·es à cette étude est un préalable à toute forme de travail scientifique, il devrait en être de même pour l’analyse comportementale, expérimentale ou non.
Distribuer la responsabilité de la gestion au plus grand nombre, se poser la question de la persistance des données et de l’accès à celles-ci sont les moyens par lesquels il devient possible de se réapproprier nos moyens de production culturelle et informationnelle, de reprendre le contrôle sur l’identité que nous voulons afficher auprès des autres. C’est aussi le meilleur moyen d’attaquer les GAFAM là où il sera possible de leur faire le plus de dégâts : le portefeuille. Si un Internet hors des plateformes se développe, alors ces entreprises n’auront plus la possibilité de toujours fournir plus de données aux États, brisant ainsi le cercle vicieux et la course à la plus grande quantité de comportements analysés et disséqués.
La Quadrature du Net, « Reconnaissance faciale au lycée : l’expérimentation avant la généralisation », 19 déc. 2018, https://www.laquadrature.net/2018/12/19/reconnaissance-faciale-au-lycee-lexperimentation-avant-la-generalisation/
Jean-Muchel Décugis, « Paris : les goélands attaquent les drones de la police », 25 juin 2019, http://www.leparisien.fr/faits-divers/les-goelands-attaquent-les-drones-de-la-prefecture-de-police-de-paris-25-06-2019-8102361.php ; voir aussi une vidéo de La Quadrature « Comment lutter contre la surveillance en manif ? », https://video.lqdn.fr/videos/watch/b1f10929-b471-4caf-8fbe-5c8dade9142f
Hervé Chambonnière, « Palantir. La « boule de cristal » des services de police et de renseignement », 10 juin 2019 https://www.letelegramme.fr/france/palantir-la-boule-de-cristal-de-la-dgsi-10-06-2019-12307531.php
Olivier Tesquet, « Amesys, cette société française qui aidait Kadhafi à surveiller les Libyens », 17 mars 2016 mis à jour le 1 fév. 2018, https://www.telerama.fr/medias/amesys-cette-societe-francaise-qui-aidait-kadhafi-a-surveiller-les-libiens,139820.php
Nicholas Montegriffo, « Le créateur de l’Oculus Rift se joint au controversé Project Maven », 11 mars 2019 https://www.androidpit.fr/createur-oculus-rift-project-maven
Autour d’un projet visant à établir les entreprises privées du secteur de la surveillance, Surveillance Industry Index, https://sii.transparencytoolkit.org/ et https://www.privacyinternational.org/explainer/1632/global-surveillance-industr
Sylvqin, « P-Score : comment Youtube a noté les chaînes des créateurs (et a oublié de le cacher) », 1 nov. 2019, https://www.youtube.com/watch?v=PYrJq7r90Ao
Benjamin Ferran, « Facebook, Google et la culture de l’excuse permanente », 5 oct. 2017, http://www.lefigaro.fr/secteur/high-tech/2017/10/05/32001-20171005ARTFIG00097-les-geants-de-la-tech-et-la-culture-de-l-excuse-permanente.php voir en ce sens 14 ans d’excuses de Facebook : Geoffrey A. Fowler Chiqui Esteban April, « 14 years of Mark Zuckerberg saying sorry, not sorry », 9 avril 2018, https://www.washingtonpost.com/graphics/2018/business/facebook-zuckerberg-apologies
Et ce sans cadre légal spécifique, voir aussi Léa Sanchez, « Après les « gilets jaunes », les services de renseignement veulent mieux anticiper les mouvements sociaux », 18 juil. 2019, https://www.lemonde.fr/societe/article/2019/07/18/les-services-de-renseignement-veulent-mieux-anticiper-les-mouvements-sociaux_5490588_3224.html
Olivier Clairouin et Martin Vidberg, « Comment les métadonnées permettent de vous surveiller (expliqué en patates) », 1 juil. 2015, https://www.lemonde.fr/pixels/video/2015/06/15/comment-les-metadonnees-permettent-de-vous-surveiller-explique-en-patates_4654461_4408996.html
Une porte dérobée est une fonctionnalité cachée et inconnue des utilisat·rices d’un outil informatique permettant aux personnes qui l’ont introduite de prendre contrôle de tout ou partie de cet outil souvent au détriment de ses utilisat·rices (par exemple pour les espionner ou pour installer d’autres logiciels sur l’ordinateur), pour plus de détails voir par exemple : la page https://fr.wikipedia.org/wiki/Porte_d%C3%A9rob%C3%A9e ou https://www.panoptinet.com/culture-cybersecurite/cest-quoi-un-backdoor-porte-derobee.html
Qui est en réalité totalement irresponsable, ouvrant une porte dérobée permettant le déchiffrement des contenus sans que la personne ne le souhaite remettant en cause toute la sécurité du dispositif, pour plus d’explications : Yves Grandmontagne, « ‘Chiffrement responsable’ : les irresponsables des backdoors », 20 nov. 2017 https://itsocial.fr/enjeux/securite-dsi/cybersecurite/chiffrement-responsable-irresponsables-backdoors/
Weronika Zarachowicz, « Comprendre les procédures-bâillons : le stade ultime de l’intimidation judiciaire », 16 mai 2017 mis à jour le 1 fév. 2018, https://www.telerama.fr/monde/comprendre-les-procedures-baillons-le-stade-ultime-de-l-intimidation-judiciaire,158229.php
Voir par exemple, Julie rédactrice chez Tactill, « Les meilleurs outils pour une publicité géolocalisée », 5 déc. 2017, https://www.tactill.com/blog/les-meilleurs-outils-pour-une-publicite-geolocalisee/
Malheureusement ces délais en plus d’être très longs ne sont pas toujours très bien respectés.
";s:7:"dateiso";s:15:"20201220_101800";}s:15:"20201214_135812";a:7:{s:5:"title";s:71:"Contre les technocrates et les oligopoles, démocratiser les télécoms";s:4:"link";s:108:"https://www.laquadrature.net/2020/12/14/contre-les-technocrates-et-les-oligopoles-democratiser-les-telecoms/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16644";s:7:"pubDate";s:31:"Mon, 14 Dec 2020 12:58:12 +0000";s:11:"description";s:278:"Alors que le déploiement de la 5G suscite une large opposition populaire, La Quadrature du Net et la Fédération FDN des fournisseurs d’accès associatifs (FFDN) interpellent aujourd’hui les responsables publics français. L’enjeu ? Œuvrer à la…";s:7:"content";s:5114:"
Alors que le déploiement de la 5G suscite une large opposition populaire, La Quadrature du Net et la Fédération FDN des fournisseurs d’accès associatifs (FFDN) interpellent aujourd’hui les responsables publics français. L’enjeu ? Œuvrer à la démocratisation des politiques dans le secteur des télécoms. Comment ? En favorisant le développement de réseaux construits et gérés par et pour la population.
Il y a près de deux ans, La Quadrature se battait aux côtés des opérateurs télécoms associatifs de la Fédération FDN et de nombreux autres « réseaux communautaires » à travers le monde pour porter une revendication simple : démocratiser les télécoms. Et pour ce faire, favoriser le développement d’infrastructures gérées en bien commun par des opérateurs alternatifs plutôt que d’inféoder la régulation des télécoms aux intérêts d’une poignée d’industriels. Nous avons même obtenu quelques avancées, à la fois modestes et historiques, encourageant le développement des réseaux communautaires (dont on pourrait dire, par analogie avec l’agriculture, qu’ils sont un peu les AMAP du numérique). Pourtant, bien qu’inscrites dans le Code des communications électroniques européen adopté fin 2018 au niveau de l’Union européenne, ces dispositions se heurtent aujourd’hui à l’indifférence totale des responsables publics.
Après le piteux lancement de la 5G, décidé en haut lieu et imposé brutalement en dépit d’oppositions légitimes, il nous a semblé utile de les remettre sur la table. Car si les responsables publics, à l’image du président sortant de l’Arcep Sébastien Soriano, se plaisent à disserter sur les « biens communs » et à dénoncer les dérives du capitalisme numérique, les actes concrets se font cruellement attendre. On se paie de belles paroles, mais en réalité rien ne change. À travers ce « commonswashing », on tente de légitimer des politiques conçues pour servir les intérêts du cartel de multinationales qui domine aujourd’hui le secteur, et redonner un peu de panache à la vision industrielle éculée des quelques technocrates qui pilotent ces dossiers. Mais, en pratique, personne n’est vraiment dupe : c’est business as usual.
Alors que le gouvernement finalise la transposition du Code des communications électroniques européen par voie d’ordonnance, et tandis que l’Arcep devrait rendre un avis sur ce projet de transposition, nous publions aujourd’hui des lignes directrices favorables au développement d’opérateurs alternatifs – c’est-à-dire opérant sur un modèle coopératif ou, comme la Fédération FDN, sur un mode associatif. Fruit du travail commun de dizaines de réseaux communautaires à travers l’Europe, elles ont été publiées dès 2017 et, pour certaines d’entre elles, reprises par le Parlement européen afin de les inscrire dans le code européen des télécoms. Nous les présentons aujourd’hui dans une version traduite et mise à jour qui prend en compte l’évolution du cadre réglementaire intervenue depuis lors.
Alors que le Parlement français sera bientôt saisi de l’ordonnance de transposition du code européen des télécoms, et tandis que de nombreux responsables publics – y compris des élus locaux – s’interrogent sur la crise de légitimité qu’affrontent les politiques dans le domaine du numérique, nous entendons ainsi rappeler que des solutions concrètes se construisent « par en bas », et qu’il est grand temps de leur accorder la reconnaissance qu’elles méritent. Et ce d’autant plus que, désormais, le cadre réglementaire européen y oblige.
Plutôt qu’une course effrénée à l’innovation industrielle, plutôt que la surenchère technologique et la fuite en avant de la surveillance, ces initiatives citoyennes montrent qu’il est possible de construire des réseaux simples et résilients, adaptés aux besoins et aux valeurs de leurs usagers, mais aussi respectueux de leurs droits. Pour ainsi reconstruire une maîtrise démocratique des infrastructures télécoms.
";s:7:"dateiso";s:15:"20201214_135812";}s:15:"20201210_095702";a:7:{s:5:"title";s:60:"« Safe City » de Marseille : on retourne à l’attaque";s:4:"link";s:86:"https://www.laquadrature.net/2020/12/10/safe-city-de-marseille-on-retourne-a-lattaque/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16607";s:7:"pubDate";s:31:"Thu, 10 Dec 2020 08:57:02 +0000";s:11:"description";s:283:"MAJ du 11 décembre : Premier bout de victoire, la ville annonce avoir « suspendu » le projet. Nous attendons la résiliation du contrat.
Nous repartons à l’attaque contre la « Safe City » de Marseille. Le projet de vidéosurveillance automatisée,…";s:7:"content";s:11869:"
MAJ du 11 décembre : Premier bout de victoire, la ville annonce avoir « suspendu » le projet. Nous attendons la résiliation du contrat.
Nous repartons à l’attaque contre la « Safe City » de Marseille. Le projet de vidéosurveillance automatisée, que nous avions déjà essayé d’attaquer sans succès en janvier dernier, est en effet toujours d’actualité, et ce malgré le changement de majorité à la mairie et les critiques de la CNIL. Nous déposons donc un nouveau recours devant le tribunal administratif de Marseille pour stopper ce projet dangereux et illégal – alors que la loi « Sécurité Globale » discutée au Parlement cherche justement à faciliter l’analyse algorithmique des images de vidéosurveillance. L’enjeu est aussi de créer une jurisprudence capable d’entraver des projets similaires en cours dans d’autres villes françaises, comme à Paris, Toulouse, Nice, Lille ou encore Valenciennes.
En janvier dernier, dans le cadre de notre campagne Technopolice, nous attaquions le projet de vidéosurveillance automatisée de la ville de Marseille, alors dirigée par Jean-Claude Gaudin épaulé par son adjointe à la sécurité, Caroline Pozmentier.
En novembre 2018, la ville avait en effet signé avec la société SNEF un contrat pour installer un dispositif de « vidéoprotection intelligente ». Ce dispositif doit, selon eux, permettre de pallier au fait que les opérateurs humains ne peuvent pas visualiser l’ensemble des images issues des caméras et que l’aide d’un logiciel leur serait nécessaire. Une justification qui marche sur la tête : alors que l’utilité de la vidéosurveillance est toujours aussi contestée, on continue pourtant à multiplier les caméras dans nos rues, jusqu’à remplacer les opérateurs humains dépassés par des machines supposément toutes-puissantes.
Technopolice marseillaise
Parmi les fonctionnalités envisagées de ce dispositif à Marseille, on trouve la détection automatique de graffitis, de destruction de mobilier urbain, la possibilité de rechercher dans les archives de vidéosurveillance par filtre de photos ou de « description », la détection sonore de coups de feu ou d’explosions, la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).
Derrière la technicité des termes utilisés, le projet ressemble parfaitement à ce que l’on voit se multiplier un peu partout en France, discrètement depuis plusieurs années : le déploiement de nouvelles technologies visant à décupler les pouvoirs de surveillance de la police grâce aux avancées de l’analyse algorithmique. Reconnaissance faciale oui, mais pas seulement : « tracking » de personnes, détection de comportements suspects, analyse de foule… Et depuis la crise sanitaire : caméras thermiques, détection du port de masque ou calcul de distance physique.
Le projet de Marseille est d’ailleurs directement lié aux projets que nous avons dénoncé dans notre campagne. La société SNEF, qui a eu le marché en 2018, admet elle-même sur sa brochure commerciale être liée à d’autres entreprises de surveillance, en premier lieu la société israélienne Briefcam (voir d’ailleurs l’article d’EFF ici), l’entreprise canadienne Genetec ou le français Evitech : des entreprises qui développent toutes des produits illégaux de surveillance à destination des collectivités.
Ces dispositifs, couplés à l’augmentation du nombre de caméras, permettent une surveillance totale de notre espace urbain et nous réduisent à une société de suspects, traqués et identifiés identifiés en permanence. C’était donc l’objectif de notre premier recours en janvier dernier : lutter contre le développement de cette Technopolice en dénonçant son illégalité.
Une opacité qui empêche d’agir en justice
Nous avons néanmoins perdu ce premier contentieux. Non pas pour une raison de fond concernant le système mis en place par Marseille, mais pour une raison purement procédurale. Alors que nous attaquions la décision de la ville de mettre en place le dispositif, le tribunal a rejeté notre requête en considérant que nous aurions dû attaquer le contrat signé entre Marseille et la SNEF. C’est ce que nous faisons donc aujourd’hui en demandant la résiliation de ce marché.
Cette première défaite en mars est loin d’être anodine : elle révèle la difficulté à contester devant les tribunaux la mise en place des systèmes de vidéosurveillance automatisée. De tels systèmes ne font en effet que très rarement l’objet de décisions administratives publiques (et facilement attaquables) mais sont plutôt organisés autour de décisions non publiées ou de marchés publics moins médiatisés, plus compliqués aussi à attaquer.
Si nous avons pu avoir connaissance du projet de Marseille, c’est parce qu’il a fait l’objet d’un appel d’offre spécifique. La plupart du temps, ils sont englobés dans d’autres marchés, plus généraux, sur la sécurité publique ou la vidéosurveillance, ou dans des contrats pluriannuels passés avec de grosses entreprises, où aucune publication n’est nécessaire si la ville décide d’installer un jour un logiciel d’analyse algorithmique. Nous avons récemment écrit au ministère de l’Intérieur pour tenter de trouver des solutions face à cette opacité organisée, mais nos demandes et relances sont restées à ce jour sans réponse.
Gaudin et Rubirola, même combat
Autre point important : la mairie de Marseille n’est plus dirigée aujourd’hui par la même équipe que celle qui avait signé en 2018 le contrat. Ainsi, on a pu espérer un instant que la liste du Printemps marseillais abandonne le contrat au vu de ses positions sur la défense des libertés. En mars 2020, durant la campagne des municipales, il avait répondu favorablement à notre lettre ouverte demandant un moratoire sur les projets technopoliciers à Marseille. L’équipe de campagne nous avait également contacté pour nous signifier leur intérêt de notre manifeste contre la Technopolice. Dès la victoire aux municipales, en juillet dernier, il avait été question d’un « moratoire » sur la vidéosurveillance. Plus récemment encore, nombre des partis auxquels appartiennent certains cadres de l’administration marseillaise ont signifié leur opposition à la loi « Sécurité Globale » et à ses objectifs d’intensifier la vidéosurveillance sur le territoire. Des élus du Printemps Marseillais se sont également montrés aux côtés des manifestants sur le Vieux-Port le 28 novembre dernier.
Hélas, comme nous l’avons dénoncé à l’occasion de cette manifestation, cela fait six mois que cette nouvelle liste est au pouvoir et les actes concrets se font toujours attendre. L’idée de « moratoire » semble même avoir disparu. Lors du dernier conseil municipal (voir page 172), il est maintenant fait état d’un « déploiement (…) contenu » des caméras pour atteindre le nombre de 1500 sur le territoire communal. Et même si l’on parle d’un « bilan et une évaluation complète du dispositif », la collectivité a tenu à souligner que pour « assurer la continuité du fonctionnement des équipements actuels, le lancement d’une nouvelle procédure de marché public est nécessaire ». On est bien loin d’un moratoire ou d’un audit citoyen, auxquels le Printemps Marseillais s’était pourtant engagé. Quant à l’arrêt définitif du projet d’observatoire Big Data de la tranquillité publique — un prototype de police prédictive — et de l’expérimentation de la vidéosurveillance automatisée, les nouveaux élus marseillais ne semblent pas même au fait de ces dossiers.
Ainsi, s’agissant de la vidéosurveillance automatisée fournie par la SNEF, le marché public semble toujours bien en place, comme l’attestent d’ailleurs les documents que nous avons obtenus et qui concernent les échanges entre la mairie et la CNIL. En septembre dernier, l’autorité de protection des données personnelles livrait ainsi une sévère critique de « l’analyse d’impact » réalisée à la va-vite par la ville de Marseille suite à notre recours en référé de l’hiver dernier. La CNIL évoque notamment des finalités imprécises et les justifications insuffisantes avancées par la mairie pour justifier au plan juridique le déploiement de ce nouvel outil de surveillance. Ces critiques n’ont pourtant pas suffit à mettre un coup d’arrêt au projet.
Tandis que les nouvelles majorités municipales oublient déjà leurs promesses électorales et semblent incapables d’aller à contre-courant des dogmes sécuritaires, nous les attaquons pour les rappeler au strict respect du cadre légal.
";s:7:"dateiso";s:15:"20201210_095702";}s:15:"20201208_171957";a:7:{s:5:"title";s:56:"Décrets PASP : fichage massif des militants politiques";s:4:"link";s:93:"https://www.laquadrature.net/2020/12/08/decrets-pasp-fichage-massif-des-militants-politiques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16593";s:7:"pubDate";s:31:"Tue, 08 Dec 2020 16:19:57 +0000";s:11:"description";s:272:"Après la loi sécurité globale et la loi séparatisme, le gouvernement poursuit son offensive généralisée visant à museler toute opposition politique. Mercredi dernier, les trois fichiers de « sécurité publique » (PASP, GIPASP et EASP) ont été…";s:7:"content";s:16109:"
Après la loi sécurité globale et la loi séparatisme, le gouvernement poursuit son offensive généralisée visant à museler toute opposition politique. Mercredi dernier, les trois fichiers de « sécurité publique » (PASP, GIPASP et EASP) ont été largement étendus par trois décrets (ici, ici et là). Ils permettront le fichage massif de militantes et militants politiques, de leur entourage (notamment de leurs enfants mineurs), de leur santé ou de leurs activités sur les réseaux sociaux. Malgré ses moyens limités, La Quadrature du Net n’entend pas se faire prendre de vitesse par cette offensive généralisée. Elle contestera ces décrets non seulement dans la rue, chaque samedi au sein de la coordination contre la loi sécurité générale, mais aussi en justice, devant le Conseil d’État.
Historique
En 2008, la DST et les RG ont été supprimés et leurs missions ont été partagées entre la DCRI (maintenant DGSI, la direction générale de la sécurité intérieure) et la DGPN (direction générale de la police nationale). Les fichiers des anciens services ont été partagés entre la DCRI (qui les a récupérés dans le fichier CRISTINA) et la DGPN (dans un fichier alors nommé EDVIGE). Une mobilisation historique sur l’étendue trop importante des informations contenues dans EDVIGE avait forcé le gouvernement a retirer le décret qui l’autorisait.
En 2009, le gouvernement revient avec deux fichiers distincts qui tentent de corriger les pires reproches faits à EDVIGE (tel que le fait de ficher les « opinions politiques », des données de santé ou des enfants). Les deux fichiers sont le fichier des enquêtes administratives (EASP) et le fichier de prévention des atteintes à la sécurité publique (le PASP), tous deux gérés par la police. En 2011 est créé le GIPASP, l’équivalent du PASP pour la gendarmerie.
Un rapport de 2018 permet de bien saisir le fonctionnement de ces fichiers de renseignement : en 2017, le PASP comportait 43 446 notes sur des individus, répartis autour d’une demi-douzaine de thèmes qu’on pourrait résumer ainsi :
manifestations illégales ;
violences et dégradations liées à des contestations idéologiques ;
violence et vandalisme lors de manifestations sportives ;
violences liées aux économies souterraines ;
discours prônant la haine, agressions, stigmatisations envers certaines communautés ;
radicalisation, prosélytisme virulent, velléités de départ à l’étranger en zone de combat ;
pressions sectaires.
Ces notes pouvaient contenir des informations particulièrement détaillées : profession, adresses physiques, email, photographies, activités publiques, comportement, déplacements…
Fichage généralisé des manifestants
Jusqu’à présent, les fichiers de renseignement de la police (PASP) et de la gendarmerie (GIPASP) ne concernaient que des personnes physiques considérées comme dangereuses par les autorités. Nouveauté importante : depuis la semaine dernière, les fichiers pourront aussi concerner des personnes morales ou des « groupements ». On imagine qu’il s’agira d’associations, des groupes Facebook, de squats, de ZAD ou même de manifestations.
Si une fiche est ouverte pour une manifestation, le PASP et le GIPASP permettent aussi de lister les personnes « entretenant ou ayant entretenu des relations directes et non fortuites » avec ce « groupement ». Jusqu’à présent, les fiches du PASP et du GIPASP ne pouvaient lister l’entourage des « personnes dangereuses » que de façon succincte, sur la fiche principale de la personne dangereuse. Désormais, si la police le juge nécessaire, chaque membre de l’entourage pourra avoir une fiche presque aussi complète que celle des personnes dangereuses (activités en ligne, lieux fréquentés, mode de vie, photo…).
Ces deux évolutions semblent officialiser une pratique (jusqu’alors illégale) qui commençait à apparaître dans le rapport de 2018 précité : « certaines notes se bornent à faire état de faits collectifs, notamment pour les phénomènes de bande ou les manifestations, avec une tendance à inclure dans le traitement toutes les personnes contrôlées ou interpellées alors qu’il n’est fait état dans la note d’aucun fait personnel qui leur est reproché ». C’est ainsi l’ensemble des participants (« ayant entretenu une relation directe et non fortuite ») à une manifestation (« groupement » considéré comme dangereux) qui pourraient se voir attribuer une fiche particulièrement détaillée sur la base d’informations obtenues par la police sur le terrain (vidéo captées par drones et caméra mobile, par exemple) ou sur les réseaux sociaux.
Fichage automatisé
Les trois décrets augmentent considérablement la variété et l’ampleur des informations pouvant être enregistrées. Sont visées les « habitudes de vie » et les « activités en ligne ». Dans son avis préalable, la CNIL souligne que « l’ensemble des réseaux sociaux est concerné », « les données sont à ce titre collectées sur des pages ou des comptes ouverts » et « porteront principalement sur les commentaires postés sur les réseaux sociaux et les photos ou illustrations mises en ligne ». Une forme de surveillance devenue monnaie courante à défaut d’être encadrée dans la loi, et d’autant plus dangereuse qu’elle peut facilement être automatisée.
Inquiète, la CNIL demandait à « exclure explicitement la possibilité d’une collecte automatisée de ces données ». Le gouvernement a refusé d’ajouter une telle réserve, souhaitant manifestement se permettre de telles techniques, qu’il s’est déjà autorisé en d’autres matières (voir notre article en matière de surveillance fiscale).
Opinions politiques et données de santé
Les notes individuelles peuvent désormais contenir des informations qui relèvent « des opinions politiques, des convictions philosophiques, religieuses ou une appartenance syndicale » là où, avant, seules pouvaient être enregistrées des informations se rattachant à « des activités politiques, philosophiques, religieuses ou syndicales ».
S’agissant des personnes considérées comme dangereuses, le fichier pourra désormais recueillir des données de santé supposées « révéler une dangerosité particulière » : « addictions », « troubles psychologiques ou psychiatriques », « comportement auto-agressif ». La CNIL souligne qu’il ne s’agira pas d’une information « fournie par un professionnel de santé [mais] par les proches, la famille ou l’intéressé lui-même ». Difficile de comprendre en quoi la police aurait besoin d’une telle variété de données aussi sensibles, si ce n’est pour faire pression et abuser de la faiblesse de certaines personnes.
Fichage des victimes et des enfants
Autre débordement : le PASP et le GIPASP peuvent désormais contenir des fiches détaillées sur les « victimes » des personnes considérées comme dangereuses (sans que cette notion de « victime » ne renvoie à une notion pénale, étant interprétée librement par les agents).
Encore plus grave : alors que, depuis leur origine, le PASP et le GIPASP interdisaient de ficher des enfants de moins de 13 ans, les nouveaux décrets semblent désormais indiquer que seuls les mineurs considérés comme dangereux bénéficieront de cette protection d’âge. Ainsi, en théorie, plus rien n’empêche la police d’ouvrir une fiche pour un enfant de 5 ans ou de 10 ans se trouvant dans l’entourage d’une personne considérée comme dangereuse ou parce qu’il se trouvait dans une manifestation qui a dégénéré.
Recoupement de fichiers
Le rapport de 2018 précité explique que « l’accès à l’application PASP se fait par le portail sécurisé « CHEOPS » qui permet de donner accès, sous une même configuration, à différentes applications de la police nationale [et qui] dispose d’une fonctionnalité originale, en cours d’enrichissement par des développements complémentaires. Il s’agit d’une gestion de liens pertinents entre individus du fichier qui aboutit à élaborer graphiquement des sociogrammes (leader d’un groupe, membres du groupe, antagonistes…) ».
Cette constitution de graphes sociaux fait directement écho à l’entourage des « groupements » décrit plus haut. Mais ce commentaire renvoie aussi à une autre réalité, décrite par la CNIL dans son avis préalable : de nombreuses catégories d’informations comprises dans les trois fichiers « seront alimentées manuellement par d’autres traitements » – les agents nourriront les fichiers PASP, GIPASP et EASP en allant manuellement chercher des informations dans d’autres fichiers. Pour leur faciliter le travail, les nouveaux décrets prévoient que les notes individuelles mentionneront si la personne concernée est aussi fichée dans l’un des 5 autres grands fichiers de police (TAJ, N-SIS II, fichier des personnes recherchées, FSPRT, fichiers des objets et véhicules volés ou signalés).
Reconnaissance faciale
Autre nouveauté facilitant considérablement le recoupement des fichiers : les décrets prévoient que le PASP, le GIPASP et l’EASP participent non seulement à la sécurité publique, mais désormais aussi à la « sûreté de l’État », qui est définie comme recouvrant les « intérêts fondamentaux de la Nation ». Il s’agit d’une notion très large, que la loi renseignement de 2015 a défini comme couvrant des choses aussi variées que « les intérêts économiques et industrielles majeurs de la France », le respect des engagements internationaux pris par la France ou la lutte contre les manifestations non-déclarées et les attroupements. Un des intérêts de cette notion juridique est de donner accès aux photographies contenues dans le fichier TES, destiné à centraliser les photos de tout détenteur de passeport et de carte d’identité. Une fois obtenues, les photographies pourront être ajoutées au PASP ou au GIPASP et, pourquoi pas, aussi au TAJ, où elles pourront être analysées par reconnaissance faciale (dispositif que nous avons déjà attaqué devant les tribunaux).
D’ailleurs, les décrets de la semaine dernière ont pris le soin de supprimer la mention qui, depuis leur origine, précisait que le PASP comme le GIPASP « ne comporte pas de dispositif de reconnaissance faciale ». En lisant l’avis de la CNIL, on comprend que le projet initial prévoyait carrément d’ajouter un nouveau dispositif de reconnaissance faciale dans le PASP et le GIPASP, afin d’identifier automatiquement les fiches correspondant à la photographie d’une personne : « l’interrogation par la photographie doit constituer une nouvelle possibilité d’interrogation du traitement (à l’instar du nom) […] aux fins de déterminer si la personne dont la photographie est soumise figure déjà dans le traitement ». Ce nouveau système n’apparaît plus dans les décrets publiés, le gouvernement ayant sans doute préféré créer des ponts entre les différents dispositifs existants plutôt que de déployer une nouvelle infrastructure complexe. Ou peut-être a-t-il simplement préféré remettre à plus tard la légalisation de cette fonctionnalité controversée.
Conclusion
Alors que la loi sécurité globale autorise des techniques de captation d’informations en masse (drones et caméras piétons), ces trois nouveaux décrets concernent la façon dont ces informations pourront être exploitées et conservées, pendant 10 ans. Si, via la loi sécurité globale, tous les manifestants pourront être filmés en manifestation et que, via le fichier TAJ, une grande partie d’entre eux pourra être identifiée par reconnaissance faciale, le PASP et le GIPASP leur a déjà préparé une fiche complète où centraliser toutes les informations les concernant, sans que cette surveillance ne soit autorisée ni même contrôlée par un juge.
L’ensemble de ce système, aussi complexe qu’autoritaire, poursuit l’objectif décrit dans le récent livre blanc de la sécurité intérieure : faire passer la surveillance policière à une nouvelle ère technologique avant les JO de 2024. Nous préparons notre recours pour contester la validité de ces décrets devant le Conseil d’État et serons samedi 12 décembre dans la rue, comme tous les samedis désormais, pour lutter contre le fichage généralisé et la surveillance des manifestants.
";s:7:"dateiso";s:15:"20201208_171957";}s:15:"20201207_101200";a:7:{s:5:"title";s:63:"Contre les futurs sécuritaires, faites un don à La Quadrature";s:4:"link";s:101:"https://www.laquadrature.net/2020/12/07/contre-les-futurs-securitaires-faites-un-don-a-la-quadrature/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16500";s:7:"pubDate";s:31:"Mon, 07 Dec 2020 09:12:00 +0000";s:11:"description";s:223:"Nos dirigeants et leur armée d'industriels n'ont que ces mots à la bouche. Ils prétendent nous guider tels des prophètes vers ce futur auquel, paraît-il, on n'échappera pas, parce que ce serait pour notre bien.…";s:7:"content";s:5815:"
Futur et sécurité.
Nos dirigeants et leur armée d’industriels n’ont que ces mots à la bouche. Ils prétendent nous guider tels des prophètes vers ce futur auquel, paraît-il, on n’échappera pas, parce que ce serait pour notre bien. Ce futur qu’ils nous promettent c’est celui de la surveillance biométrique, des drones et des caméras partout.
« Expérimenter la reconnaissance faciale est nécessaire pour que nos industriels progressent » déclarait notre secrétaire d’État chargé du numérique. De toute façon, comme toutes les autres technologies de surveillance, « la reconnaissance faciale ne peut être désinventée » ; alors à quoi bon s’y opposer ?
Prétendre que le futur est tracé de manière immuable et nier son caractère politique, c’est le meilleur moyen de se dédouaner, de s’ôter la culpabilité de transformer nos villes en Technopolice, en laissant nos vies exsangues de libertés.
La Quadrature du Net refuse ce futur.
Nous nous battrons pour choisir notre futur. Nous nous battrons pour que les machines et techniques servent les habitants des villes et de la Terre. Qu’elles ne nous soient plus imposées, qu’elle ne servent plus à nous faire taire et à nous contrôler. Rejoignez-nous dans ce combat. Soutenez La Quadrature du Net.
POURQUOI DONNER À LA QUADRATURE ?
Pour faire le travail qui est le sien, l’association a une fantastique équipe de membres bénévoles, mais elle a besoin d’une équipe salariée. Elle se finance grâce à vos dons.
L’association ne touche aucun argent public, mais elle touche des subventions de la part de deux fondations philanthropiques, OSF et FPH, à hauteur de 25 % de son budget.
Tout le reste provient de la générosité des personnes qui estiment que nos droits et nos libertés doivent être défendues sans relâche.
COMMENT DONNER ?
Vous pouvez faire un don par CB, ou bien par chèque, par virement ou en crypto-monnaie.
Et si vous pouvez faire un don mensuel — même un tout petit ! — n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, les dons mensuels nous permettent de travailler avec plus de confiance dans la pérennité de nos actions.
En plus, le cumul de vos dons vous donne droit à des contreparties (sac, t-shirt, hoodie, etc.)
DE NOUVEAUX PALIERS POUR LES CONTREPARTIES
Les paliers qui donnent accès aux contreparties ont changé l’année dernière. Ils ont augmenté (c’est rarement dans l’autre sens…) pour s’adapter aux coûts de la fabrication et de l’expédition.
Dorénavant, il faudra cumuler 42 € de dons pour recevoir un piplôme, 64 € pour un sac (+piplôme), 128 € pour un t-shirt (+piplôme+sac), et 314 € pour un hoodie (+piplôme+sac+t-shirt).
Attention, l’envoi n’est pas automatique, il faut faire la demande sur votre page personnelle de donateur.
Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et parce qu’on fait tout ça nous-mêmes avec nos petites mains. Mais elles finissent toujours par arriver !
Merci encore pour votre générosité, et merci beaucoup pour votre patience <3
À QUOI SERVENT VOS DONS ?
Tout simplement à faire exister l’association. La Quadrature du Net emploie actuellement une équipe de six salarié·es à plein temps. C’est encore trop peu, pour tout le boulot à abattre. Quand on en parle avec nos collègues à l’étranger, l’étonnement est toujours le même : « Vous êtes aussi peu nombreux pour faire tout ça ? ». Oui, on est aussi peu nombreux, même en comptant les membres bénévoles, et non, on n’a pas le temps de s’ennuyer…
En 2020, vos dons nous ont permis de récolter 217 000 €. Nos dépenses pour l’année se montent à 195 000 €. Pour l’année qui vient, nous nous fixons un objectif de 240 000 € de dons, avec l’espoir de pouvoir embaucher une personne supplémentaire dans l’équipe.
Les dons recueillis servent principalement à payer les salaires des permanents (79 % des dépenses). Le restant couvre le loyer et l’entretien du local, les déplacements en France et à l’étranger (en train uniquement) et les divers frais matériels de l’activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).
Quand on ventile toutes les dépenses (salaires inclus) sur nos campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
";s:7:"dateiso";s:15:"20201207_101200";}s:15:"20201206_100200";a:7:{s:5:"title";s:46:"Les couts sociétaux de la publicité en ligne";s:4:"link";s:85:"https://www.laquadrature.net/2020/12/06/les-couts-societaux-de-la-publicite-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16252";s:7:"pubDate";s:31:"Sun, 06 Dec 2020 09:02:00 +0000";s:11:"description";s:253:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
(Re)définir la publicité
La page Wikipédia la concernant est…";s:7:"content";s:46854:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
(Re)définir la publicité
La page Wikipédia la concernant est éloquente, elle commence ainsi « La publicité est une forme de communication de masse, dont le but est de fixer l’attention d’une cible visée (consommateur, utilisateur, usager, électeur, etc.) afin de l’inciter à adopter un comportement souhaité : achat d’un produit, élection d’une personnalité politique, incitation à l’économie d’énergie, etc. »1. Elle ne s’éloigne pas des définitions plus classiques où l’on retrouve toujours le fait « d’inciter », de « promouvoir », « d’exercer sur le public une influence, une action psychologique afin de créer en lui des besoins, des désirs »2
Il est important de poser ces définitions pour sortir des chaussetrappes où la publicité serait entendue, dans son sens étymologique, comme le fait de rendre quelque chose « public », de le faire connaitre et serait assimilée à de la simple communication, voire à de l’information du public. Non, la publicité n’est pas là pour échanger ni pour informer, elle est là pour inciter. Elle agit sur nos schémas cognitifs, nos pensées et nos rêves, sur nos « temps de cerveaux disponibles »3 pour les modifier, majoritairement dans des logiques de consommation commerciale voire de propagande politique. Ainsi, une personne qui tire des revenus de la publicité tire des revenus de la modification des processus cognitifs des individus et donc quasi systématiquement de leurs manipulations dans des actes de consommation potentiellement inutiles et néfastes.
Le deuxième point important à rappeler est que la publicité ne crée pas en soi de valeur et toute l’énergie qui y est investie peut être perçue comme gaspillée. Elle est susceptible de créer des besoins ou peut réorienter des pratiques, mais cela sans faire appel à des choix conscients ou informés. Elle joue sur les désirs, sur les fonctionnements cognitifs, sur nos peurs, etc. À l’échelle sociétale, la publicité est un surcout de paiement. On subit la publicité dans la rue comme sur Internet et on paye ces influences mentales, majoritairement non souhaitées, quand on achète un bien ou un service. La publicité est donc payée aussi bien cognitivement que monétairement.
Une définition sarcastique en creux de la publicité pourrait donc être : le symptôme d’une société malade qui paye une industrie parasite pour se faire manipuler.
Pour en résumer brièvement quelques-uns, la publicité a pour cout sociétaux :
La modification des comportements orientée par des logiques mercantiles et adressée surtout aux personnes qui sont les plus vulnérables à ces influences, et notamment aux enfants ;
La création de besoins et les conséquences notamment environnementales et sociales qui les accompagnent, par la surconsommation de biens (nouvel ordiphone, voiture…) ;
Des utilisations à des fins de propagande politique et donc de perversion de l’idéal des logiques démocratiques ;
Des liens de contrôle des médias, dont les informations seront influencées par ce lien de dépendance4 ;
La construction ou la reproduction de normes sociales par des pratiques de communication de masse qui viennent influencer et polluer nos imaginaires.
Malheureusement, la publicité a trouvé avec Internet un terrain de jeu sans égal qui n’a fait que renforcer ses conséquences.
Le modèle publicitaire, le péché originel d’Internet
Internet n’a pas été pensé et spécialement conçu pour des pratiques économiques. Facilité de transmission de l’information et de son partage, pratiques décentralisées, numérisation des contenus et une reproduction à cout marginal… En dehors des couts d’accès à Internet qui étaient eux onéreux (matériel informatique et abonnements liés au débit), la navigation en ligne et même les premiers services numériques ne requéraient aucun paiement. Les premiers temps d’Internet témoignent ainsi de nombreuses pratiques bénévoles, amatrices, libres, d’expérimentation, de partage, etc. un certain idéal paradisiaque5 pour nombre des premiè·res internautes. La déclaration d’indépendance du cyberespace6 de John Perry Barlow témoigne de cet enthousiasme et on peut pourtant voir un certain tournant symbolique dans le fait qu’elle ait été réalisée dans le cadre du Forum économique mondial de Davos. Les entreprises ont ensuite saisi l’importance de ce nouveau média et ont commencé à l’investir. Elles se sont toutefois confrontées à un problème : un rejet majeur de toute possibilité de paiement en ligne dû aussi bien à des craintes (plutôt justifiées) liées à la sécurité des données bancaires, mais aussi, et surtout, à des pratiques déjà ancrées d’accès gratuit. Pourquoi payer pour une information alors qu’elle est déjà présente en accès libre sur un autre site ? Pourquoi débourser une somme pour un service alors que tel prestataire me l’offre « gratuitement » ? Assez naturellement de nombreuses personnes se sont tournées vers la publicité pour obtenir des revenus en ligne, le modèle était connu et malgré quelques premières réticences des annonceurs les audiences étaient en pleine croissance et ils se sont ainsi laissés convaincre. Le développement de la publicité sur Internet n’a pas été exempt de tout heurt, le tout premier mail publicitaire (spam) en 1978 a, par exemple, connu une vive réaction d’indignation.7 De la même façon, les bloqueurs de publicité, petits outils qui bloquent techniquement les différents affichages publicitaires sont apparus et ont été rapidement adoptés au moment où la publicité a commencé à inonder de nombreux sites pour maximiser les « impressions publicitaires ». L’invasion publicitaire est devenue trop forte et les internautes avertis se protègent ainsi des multiples « popups », affichages conduisant vers des sites malveillants, renvois et rechargements intempestifs, etc.
Le déluge publicitaire a envahi ce « paradis » et l’a durablement déséquilibré. La gratuité bénévole et altruiste des débuts a été remplacée par une apparence de gratuité. Rares sont les services en ligne (et très spécifiques) qui réussissent, même aujourd’hui, à obtenir un paiement direct de la part de leurs utilisateurs-clients face à la distorsion de concurrence induite par ce trou noir de la gratuité publicitaire et l’exploitation des biais psychologiques des utilisateurs-produits par la publicité.
Cela a pu faire dire à Ethan Zuckerman, chercheur sur les questions touchant aux libertés à l’ère du numérique et activiste, mais qui a également participé à la création du popup publicitaire : « L’état de déchéance de notre internet est une conséquence directe, involontaire, de choisir la publicité comme modèle par défaut pour les contenus et services en ligne. »8 Ce noir constat s’appuie aussi sur les conséquences de la deuxième vague du développement publicitaire en ligne : la publicité « ciblée ».
Les dérives illégales de la surveillance publicitaire
Citant Ethan Zuckerman, Hubert Guillaud résume ainsi les conséquences néfastes de la publicité en ligne9 :
« La surveillance et le développement de la surveillance (comme le dit Bruce Schneier, la surveillance est le modèle d’affaires d’internet 10 ;
Le développement d’une information qui vise à vous faire cliquer, plutôt qu’à vous faire réfléchir ou à vous engager en tant que citoyens ;
Le modèle publicitaire favorise la centralisation pour atteindre un public toujours plus large. Et cette centralisation fait que les décisions pour censurer des propos ou des images par les entreprises et plates-formes deviennent aussi puissantes que celles prises par les gouvernements :
Enfin, la personnalisation de l’information, notre récompense, nous conduit à l’isolement idéologique, à l’image de la propagande personnalisée […] »
On en ajoutera quelques-unes, mais la plus importante est désormais bien connue. Pour sortir des logiques inefficaces de matraquage publicitaire, des entreprises ont fait le choix de développer des outils permettant de surveiller les internautes au travers de leurs navigations pour mieux les profiler et ainsi leur fournir des publicités plus « ciblées », au meilleur endroit au meilleur moment pour ainsi essayer de les manipuler le plus efficacement possible dans des actes de consommation.11 C’est une évolution relativement logique de « l’économie de l’attention », pour éviter la perte d’attention induite par la surmultiplication publicitaire, on a développé des outils pour les rendre beaucoup plus efficaces.
Ces outils ont toutefois un cout sociétal colossal : ils impliquent une surveillance de masse et quasi constante des internautes dans leurs navigations. La publicité a financé et continue de financer le développement de ces outils de surveillance qui viennent cibler les consommateurs et les traquer. Les deux entreprises championnes de cette surveillance sont incontestablement Google/Alphabet et Facebook12 dont la quasi-totalité des revenus proviennent de la publicité et qui représentent à elles deux désormais bien plus de 50% de tout le secteur de la publicité en ligne. Ce ne sont (malheureusement ?) pas les seuls acteurs de ce système et bien d’autres (géants du numérique, courtiers en données, etc.) cherchent à se partager le reste du gâteau. Le développement de ces nombreuses entreprises s’est ainsi totalement orienté vers la captation de données personnelles par la surveillance et vers la maximisation de l’exploitation des temps de cerveaux disponibles des internautes.
Ce problème est ainsi résumé par la chercheuse Zeynep Tufekci : « on a créé une infrastructure de surveillance dystopique juste pour que des gens cliquent sur la pub »13. Cette infrastructure est colossale, les outils de surveillance qui ont été développés et le marché de la surveillance publicitaire en ligne sont d’une grande complexité14 et n’hésitent pas à utiliser la moindre faille possible.15 Le système publicitaire a su pleinement tirer profit de l’informatique pour automatiser la surveillance des individus et les manipuler. Il espère même maintenant pouvoir importer cette surveillance dans nos rues avec les panneaux numériques.16 Sans insister ici sur ce point, cette surveillance a assez naturellement attiré la convoitise des différents gouvernements qui ne pouvaient rêver d’un tel système de surveillance et ne se privent pas d’essayer d’en bénéficier à des fins de contrôle et de répression dans ce que l’on pourrait appeler un « partenariat public-privé de la surveillance. »17
Il y a là une atteinte majeure au droit au respect de la vie privée des personnes, une liberté pourtant fondamentale, ainsi qu’à la législation européenne sur la protection des données personnelles. Ainsi, le Règlement général sur la protection des données (RGPD) couplé à la directive e-privacy impose un consentement « libre, éclairé, spécifique et univoque » pour la majorité des opérations de collecte de données personnelles à des fins publicitaires. Or, la quasi-totalité de ces outils de surveillance ne satisfont pas à ces critères qui impliqueraient par défaut que les données ne soient pas collectées. C’est seulement si l’internaute acceptait volontairement et spécifiquement d’être traqué à des fins publicitaires qu’il pourrait l’être. C’est pourquoi La Quadrature du Net a lancé18, dès l’entrée en application du RGPD, des plaintes collectives contre les fameux « GAFAM » pour leurs violations de ces règles. Malheureusement, plus d’un an et demi après ces plaintes, ces pratiques continuent de proliférer et seul Google a été sanctionné d’une timide amende de 50 millions d’euros qui ne s’appuyait malheureusement pas sur tous les griefs. Même aux États-Unis la législation COPPA (Children’s Online Privacy Protection Act), interdit la collecte à des fins publicitaires sur des enfants de moins de 13 ans et n’a fait jusqu’en 201919qu’être assez sciemment contournée face à la manne publicitaire de la manipulation des plus jeunes… Malgré l’illégalité flagrante, ces pratiques de surveillance continuent donc de violer chaque jour nos libertés. Si les internautes averti·es peuvent configurer certains outils, dont leur bloqueur de publicités, pour limiter ces abus (par exemple en suivant les informations sur https://bloquelapub.net/) c’est encore dans une guerre continue entre l’ingéniosité pervertie20 des ingénieurs publicitaires pour contourner ou bloquer les bloqueurs de pubs et celles des hackeur·ses qui y résistent. Quoi qu’il en soit, la publicité et la surveillance publicitaire demeurent pour la majorité des personnes.
Une lourde addition des couts sociétaux de la publicité en ligne
La surveillance publicitaire est la dérive la plus flagrante de la publicité, elle est inacceptable et il est nécessaire de la combattre pour la faire disparaitre si l’on veut caresser l’espoir de retrouver des pratiques commerciales plus saines sur Internet, mais cela semble loin de suffire. La publicité en elle-même est un problème : elle induit une dépendance économique aux annonceurs, mais aussi technique aux systèmes publicitaires. Les problématiques liées à la dépendance économique publicitaire sont très claires quand la publicité constitue la seule source de revenus d’un acteur. Cette problématique est aussi mise en valeur avec les vidéastes qui s’appuient sur la plateforme de Google « Youtube » qui sont devenu·es de fait totalement dépendant·es du bon vouloir de celle-ci pour leurs revenus ou encore avec les éditeurs de presse qui ne font depuis plus de 10 ans que de subir des revers pour obtenir les miettes des revenus publicitaires de Google. Côté dépendance technique, pour les gestionnaires de site Internet, insérer un système publicitaire revient à laisser une porte ouverte à des acteurs tiers et constitue donc une faille en puissance. Il y a là un réel cout de confiance et de dépendance. L’encart publicitaire peut être utilisé pour faire exécuter des éléments de code d’un prestataire publicitaire ou d’un tiers qui l’aurait compromis, on ne contrôle pas nécessairement le contenu des publicités qui s’afficheront… La publicité est également un surcout énergétique dans l’affichage de la page, qui peut rester faible, mais peut aussi largement alourdir une page si l’on parle par exemple de publicité vidéo21ou de multiplication des traqueurs et dispositifs de contrôle. Le gaspillage énergétique, les dépendances multiples des acteurs dont le modèle économique repose sur la publicité, la dystopie de surveillance, l’influence mentale subie des personnes qui voient leurs pensées parasitées pour leur faire consommer plus ou voter autrement… La publicité apparait bien comme une cause majeure de perversion d’Internet vers plus de centralité, plus de contrôle et de surveillance des géants du numérique, plus de contenus piège à clic et de désinformation au lieu de productions de qualité et de partage… L’addition des conséquences sociétales de la publicité en ligne est salée comme la mer d’Aral22. La supprimer en même temps que la surveillance publicitaire participerait très largement à résoudre de nombreuses atteintes aux libertés fondamentales et aux équilibres démocratiques.
Twitter a annoncé fin octobre 201923 supprimer les publicités politiques de son réseau social et en explique les raisons : « Nous avons pris la décision d’arrêter toutes les publicités politiques sur Twitter. Nous pensons que la portée d’un message politique doit se mériter, pas s’acheter. » La démarche est louable, mais pour arrêter les publicités politiques sur Twitter ne faut-il pas arrêter la publicité tout court ? Edward Bernays (neveu de Freud, considéré comme le père de la propagande politique et des « relations publiques ») comme Cambridge Analytica24 avaient bien compris que la publicité a les mêmes effets qu’il s’agisse de biens de consommation ou d’idées. Mais au-delà de ça, « tout est politique » : les publicités sexistes ou pour des véhicules polluants, des nouveaux gadgets technologiques, des voyages lointains, de la nourriture de mauvaise qualité… jouent largement sur de grands enjeux politiques25. La publicité est en soi une idéologie politique26, adossée au capitalisme, qu’il soit de surveillance ou non.
À La Quadrature du Net nous refusons l’exploitation de ces temps de cerveaux disponibles et de profiter de ces revenus publicitaires, même quand ils sont si « gentiment » proposés par des sociétés telles que Lilo, Brave ou Qwant27 qui derrière une vitrine d’« éthique » restent dans cette logique d’exploitation et ne servent qu’à faire accepter ces logiques publicitaires.
Nous refusons ces manipulations et espérons des pratiques saines où les biens ou des services sont vendus directement pour ce qu’ils valent, nous souhaitons avoir une liberté de réception sur les informations auxquelles nous accédons et que les plus riches ne puissent pas payer pour être plus entendus et modifier nos comportements.
La dépendance de nombreux vidéastes aux revenus de NordVpn en témoigne assez clairement, même quand ceux-ci restent caustiques à ce sujet cela reste très édulcoré, voir par exemple « Pourquoi NordVPN est partout ?! », Un créatif, 30 mai 2019, publié sur https://www.youtube.com/watch?v=9X_2rNC6nKA
Ethan Zuckerman, « The Internet’s Original Sin », 14 août 2014, https://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/, la citation en anglais « The fallen state of our Internet is a direct, if unintentional, consequence of choosing advertising as the default model to support online content and services. »
Et oui, la publicité marche sur tout le monde, voir Benjamin Kessler et Steven Sweldens, « Think You’re Immune to Advertising ? Think Again », 30 janv. 2018, https://knowledge.insead.edu/marketing/think-youre-immune-to-advertising-think-again-8286
Voir par ex. Nicole Perrin, « Facebook-Google Duopoly Won’t Crack This Year » , 4 nov. 2019, https://www.emarketer.com/content/facebook-google-duopoly-won-t-crack-this-year et rappelons que les fondateurs de Google ont pourtant pu exprimer certains des réels problèmes de la dépendance publicitaire, Sergei Brin et Lawrence Page, « The Anatomy of a Large-Scale Hypertextual Web Search Engine », 1998, http://infolab.stanford.edu/~backrub/google.html : « To make matters worse, some advertisers attempt to gain people’s attention by taking measures meant to mislead automated search engines. » ou encore : « we expect that advertising funded search engines will be inherently biased towards the advertisers and away from the needs of the consumers. »
Zeynep Tufekci, « We’re building a dystopia just to make people click on ads », sept. 2017 https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads
L’Avis n° 18-A-03 du 6 mars 2018 portant sur l’exploitation des données dans le secteur de la publicité sur internet de l’Autorité de la concurrence, https://www.autoritedelaconcurrence.fr/sites/default/files/commitments//18a03.pdf en témoigne.
Résistance à l’Agression Publicitaire, « JCDecaux colonise la Défense avec ses mobiliers urbains numériques », sept. 2014, https://antipub.org/jcdecaux-colonise-la-defense-avec-ses-mobiliers-urbains-numeriques/
Voir notre site de campagne https://gafam.laquadrature.net/ et par exemple la plainte contre Google https://gafam.laquadrature.net/wp-content/uploads/sites/9/2018/05/google.pdf
Google semble toutefois s’être fait rappelé à l’ordre et a annoncé devoir supprimer les publicités pour les chaines s’adressant à un public enfantin. Sur ce sujet, voir par exemple, « Game Theory : Will Your Favorite Channel Survive 2020 ? (COPPA) », 22 nov. 2019, https://www.youtube.com/watch?v=pd604xskDmU
Les ingénieur-es de Facebook font preuve d’une malice certaine aussi bien pour traquer les internautes que pour les forcer à voir leurs publicités (il suffit de regarder le code source des contenus « sponsorisés » pour en être convaincu…).
Gregor Aisch, Wilson Andrew and Josh Kelleroct « The Cost of Mobile Ads on 50 News Websites », 1 oct. 2015,https://www.nytimes.com/interactive/2015/10/01/business/cost-of-mobile-ads.html
Le parallèle pourrait même être poussé plus loin, voir Professeur Feuillage, « Aral, ta mer est tellement sèche qu’elle mouille du sable », 31 janv. 2018, https://www.youtube.com/watch?v=uajOhmmxYuc&feature=emb_logo&has_verified=1
Edward Bernays, Propaganda : Comment manipuler l’opinion en démocratie, (trad. Oristelle Bonis, préf. Normand Baillargeon), Zones / La Découverte, 2007 (1re éd. 1928) ; concernant Cambridge Analytica, avant que le scandale n’éclate la page d’accueil du site affichait fièrement : « Data drives all we do, Cambridge Analytica uses data to change audience behavior. Visit our Commercial or Political divisions to see how we can help you ».
Voir Emily Atkin, Exxon climate ads aren’t « political, » according to Twitter But a Harvard researcher says Exxon’s ads « epitomize the art » of political advertising, 5 nov. 2019, https://heated.world/p/exxon-climate-ads-arent-political et Résistance à l’agression publicitaire (RAP), En refusant de réglementer la publicité, le gouvernement sacrifie l’écologie, 10 décembre 2019, https://reporterre.net/En-refusant-de-reglementer-la-publicite-le-gouvernement-sacrifie-l-ecologie
Pour en saisir l’ampleur, voir l’ouvrage de Naomi Klein, No Logo : la tyrannie des marques, (trad. Michel Saint-Germain), Actes Sud, 2001, et celui du Groupe Marcuse, De la misère humaine en milieu publicitaire : comment le monde se meurt de notre mode de vie, la Découverte, 2004.
Lilo ne servant que d’emballage de blanchiment aux recherches et aux publicités de Microsoft – Bing en vendant l’image de marque des associations tout en se gardant 50% des revenus publicitaires reversés par Microsoft. S’agissant de Brave, les montants versés directement par les internautes constituent une piste intéressante de financement des contenus et services en ligne, mais les logiques de remplaçement des publicités présentes sur les sites par celles de la régie Brave où « Les publicités sont placées en fonction des opportunités, et les utilisateurs deviennent des partenaires et non des cibles » pour qu’une partie soit reversée à des acteurs tiers est à minima douteuse… C’est la même logique absurde que l’option « Qwant Qoz » qui permet si elle est activée à l’utilisateur-produit de voir deux fois plus de publicités pour que son surplus d’exploitation cérébrale soit reversé à des associations…
";s:7:"dateiso";s:15:"20201206_100200";}s:15:"20201126_180106";a:7:{s:5:"title";s:63:"Contre les futurs sécuritaires, faites un don à La Quadrature";s:4:"link";s:101:"https://www.laquadrature.net/2020/11/26/contre-les-futurs-securitaires-faites-un-don-a-la-quadrature/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16500";s:7:"pubDate";s:31:"Thu, 26 Nov 2020 17:01:06 +0000";s:11:"description";s:223:"Nos dirigeants et leur armée d'industriels n'ont que ces mots à la bouche. Ils prétendent nous guider tels des prophètes vers ce futur auquel, paraît-il, on n'échappera pas, parce que ce serait pour notre bien.…";s:7:"content";s:6351:"
Futur et sécurité.
Nos dirigeants et leur armée d’industriels n’ont que ces mots à la bouche. Ils prétendent nous guider tels des prophètes vers ce futur auquel, paraît-il, on n’échappera pas, parce que ce serait pour notre bien. Ce futur qu’ils nous promettent c’est celui de la surveillance biométrique, des drones et des caméras partout.
« Expérimenter la reconnaissance faciale est nécessaire pour que nos industriels progressent » déclarait notre secrétaire d’État chargé du numérique. De toute façon, comme toutes les autres technologies de surveillance, « la reconnaissance faciale ne peut être désinventée » ; alors à quoi bon s’y opposer ?
Prétendre que le futur est tracé de manière immuable et nier son caractère politique, c’est le meilleur moyen de se dédouaner, de s’ôter la culpabilité de transformer nos villes en Technopolice, en laissant nos vies exsangues de libertés.
La Quadrature du Net refuse ce futur.
Nous nous battrons pour choisir notre futur. Nous nous battrons pour que les machines et techniques servent les habitants des villes et de la Terre. Qu’elles ne nous soient plus imposées, qu’elle ne servent plus à nous faire taire et à nous contrôler. Rejoignez-nous dans ce combat. Soutenez La Quadrature du Net.
POURQUOI DONNER À LA QUADRATURE ?
Pour faire le travail qui est le sien, l’association a une fantastique équipe de membres bénévoles, mais elle a besoin d’une équipe salariée. Elle se finance grâce à vos dons.
L’association ne touche aucun argent public, mais elle touche des subventions de la part de deux fondations philanthropiques, OSF et FPH, à hauteur de 25 % de son budget.
Tout le reste provient de la générosité des personnes qui estiment que nos droits et nos libertés doivent être défendues sans relâche.
COMMENT DONNER ?
Vous pouvez faire un don par CB, ou bien par chèque, par virement ou en crypto-monnaie.
Et si vous pouvez faire un don mensuel — même un tout petit ! — n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, les dons mensuels nous permettent de travailler avec plus de confiance dans la pérennité de nos actions.
En plus, le cumul de vos dons vous donne droit à des contreparties (sac, t-shirt, hoodie, etc.)
DE NOUVEAUX PALIERS POUR LES CONTREPARTIES
Les paliers qui donnent accès aux contreparties ont changé l’année dernière. Ils ont augmenté (c’est rarement dans l’autre sens…) pour s’adapter aux coûts de la fabrication et de l’expédition.
Dorénavant, il faudra cumuler 42 € de dons pour recevoir un piplôme, 64 € pour un sac (+piplôme), 128 € pour un t-shirt (+piplôme+sac), et 314 € pour un hoodie (+piplôme+sac+t-shirt).
Attention, l’envoi n’est pas automatique, il faut faire la demande sur votre page personnelle de donateur.
Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et parce qu’on fait tout ça nous-mêmes avec nos petites mains. Mais elles finissent toujours par arriver !
Merci encore pour votre générosité, et merci beaucoup pour votre patience <3
À QUOI SERVENT VOS DONS ?
Tout simplement à faire exister l’association. La Quadrature du Net emploie actuellement une équipe de six salarié·es à plein temps. C’est encore trop peu, pour tout le boulot à abattre. Quand on en parle avec nos collègues à l’étranger, l’étonnement est toujours le même : « Vous êtes aussi peu nombreux pour faire tout ça ? ». Oui, on est aussi peu nombreux, même en comptant les membres bénévoles, et non, on n’a pas le temps de s’ennuyer…
En 2020, vos dons nous ont permis de récolter 217 000 €. Nos dépenses pour l’année se montent à 195 000 €. Pour l’année qui vient, nous nous fixons un objectif de 240 000 € de dons, avec l’espoir de pouvoir embaucher une personne supplémentaire dans l’équipe.
Les dons recueillis servent principalement à payer les salaires des permanents (79 % des dépenses). Le restant couvre le loyer et l’entretien du local, les déplacements en France et à l’étranger (en train uniquement) et les divers frais matériels de l’activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).
Quand on ventile toutes les dépenses (salaires inclus) sur nos campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
";s:7:"dateiso";s:15:"20201126_180106";}s:15:"20201124_180108";a:7:{s:5:"title";s:80:"« Sécurité globale » : l’Assemblée nationale vote pour la Technopolice";s:4:"link";s:104:"https://www.laquadrature.net/2020/11/24/securite-globale-lassemblee-nationale-vote-pour-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16479";s:7:"pubDate";s:31:"Tue, 24 Nov 2020 17:01:08 +0000";s:11:"description";s:250:"L’Assemblée nationale vient de voter la proposition de loi de « Sécurité Globale ». Déposée le 20 octobre dernier, elle a donc été examinée en commission des lois, débattue en séance publique puis votée en à peine…";s:7:"content";s:5589:"
L’Assemblée nationale vient de voter la proposition de loi de « Sécurité Globale ». Déposée le 20 octobre dernier, elle a donc été examinée en commission des lois, débattue en séance publique puis votée en à peine un mois, alors que l’agenda parlementaire était déjà surchargé. Outre le caractère liberticide de plusieurs de ses dispositions, le gouvernement et sa majorité viennent de faire adopter un texte très certainement inconstitutionnel. Espérons que le Sénat saura se montrer à la hauteur des enjeux et refusera cette nouvelle atteinte à nos libertés.
Nous avons dès le début alerté sur plusieurs dispositions particulièrement dangereuses de ce texte. L’article 21, qui autorise la transmission en direct des images filmées par les caméras-piétons de la police et de la gendarmerie à un centre de commandement – et qui facilite ainsi leur analyse automatisée, comme la reconnaissance faciale. L’article 22, qui autorise la police à surveiller nos villes, nos rues et nos manifestations avec des drones. L’article 24, évidemment, qui nous interdit de dénoncer les violences policières.
Le passage-éclair en commission des lois nous a effrayé encore un peu plus. Nous avons relaté l’ambiance lugubre et fuyante des débats entre des rapporteur·euses aux ordres des syndicats de police, et des député·es de l’opposition insulté·es et méprisé·es. Le texte y a été étoffé de nouvelles dispositions pour que la police puisse avoir plus facilement accès aux caméras dans nos halls d’immeubles et pour étendre, encore un peu, le nombre de personnes pouvant visionner les images de la voie publique (on en parlait ici).
Nous avons ensuite suivi, mot par mot, les débats en séance publique. Ceux-ci, comme l’attention médiatique, étaient particulièrement concentrés sur l’article 24 et ses conséquences sur la liberté de la presse. À l’issue des débats, cet article n’a d’ailleurs en aucun cas été arrangé mais, au contraire, aggravé, s’étendant à la police municipale. L’article 22, majeur pourtant, a été lui débattu vendredi en pleine nuit et voté à 1h du matin, alors que le ministre de l’intérieur ne prenait même plus la peine de répondre aux parlementaires.
Il est particulièrement difficile de voir un texte qui aura autant de conséquences sur nos libertés être voté aussi vite et dans des conditions aussi déplorables. Quand on le lit à la lumière du livre blanc de la sécurité intérieure et du schéma national de maintien de l’ordre publiés récemment, on comprend que ce texte veut faire entrer la surveillance dans une nouvelle ère : celle de la multiplication des dispositifs de captations d’images (caméras fixes, caméras sur les uniformes, caméras dans le ciel), de leur croisement afin de couvrir toutes nos villes (espaces publics ou privés) et de leur analyse massive par des algorithmes, avec en tête la reconnaissance faciale. Si en 2019, grâce au fichier TAJ, il y a déjà eu plus de 375 000 traitements de reconnaissance faciale faits par la police en France, combien y en aura-t-il en 2021 quand chaque coin de rue sera filmé et analysé en direct ? Comment croire en l’intérêt d’un encadrement quand un tel pouvoir de surveillance est donné aux gouvernants ? Comment faire confiance à la majorité parlementaire et au gouvernement qui nous assure que la reconnaissance faciale sur les images des drones et caméras-piétons ne sera pas permise par ce texte – ce qui est juridiquement faux –, alors même que tous les amendements visant à écarter explicitement cette possibilité ont été rejetés ?
Ce texte, que vient donc d’adopter l’Assemblée nationale, c’est celui de la Technopolice. Celle que nous dénonçons depuis deux ans : une dystopie préparée par ceux qui prétendent nous gouverner, la mise sous coupe réglée de nos villes pour en faire une vaste entreprise de surveillance.
La prochaine étape se jouera au Sénat, pas avant janvier si l’on en croit son calendrier. Nous en sommes réduits à espérer que celui-ci prenne son rôle au sérieux et vienne rappeler à la majorité présidentielle les bases du respect des libertés et de nos droits. Il faudra en tous cas, et quoiqu’il arrive, maintenir la pression sur nos institutions pour que ce texte disparaisse, ne revienne jamais, et que la voix des citoyens et citoyennes – mobilisé·es massivement – soient entendue.
";s:7:"dateiso";s:15:"20201124_180108";}s:15:"20201119_180040";a:7:{s:5:"title";s:56:"La Technopolice, moteur de la « sécurité globale »";s:4:"link";s:86:"https://www.laquadrature.net/2020/11/19/la-technopolice-moteur-de-la-securite-globale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16451";s:7:"pubDate";s:31:"Thu, 19 Nov 2020 17:00:40 +0000";s:11:"description";s:219:"L’article 24 de la loi Sécurité Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la surveillance et le contrôle de…";s:7:"content";s:16039:"
L’article 24 de la loi Sécurité Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la surveillance et le contrôle de la population par la police à une nouvelle ère technologique.
Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son Livre blanc. Ce long rapport de prospective révèle la feuille de route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’images de la police (article 24), vise surtout à renforcer considérablement les pouvoirs de surveillance des forces de l’ordre, notamment à travers la légalisation des drones (article 22), la diffusion en direct des caméras piétons au centre d’opération (article 21), les nouvelles prérogatives de la police municipale (article 20), la vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.
Toujours plus de pouvoirs pour la police
Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes forces de sécurité (la Police nationale, la police municipale, la gendarmerie et les agents de sécurité privée) : ce qu’ils appellent, dans la novlangue officielle, le « continuum de la sécurité intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :
Il ambitionne de (re)créer une confiance de la population en ses forces de sécurité, notamment par une communication renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le Service National Universel, ou encore par la création de « journées de cohésion nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « guerre de l’image » en publiant les vidéos prises à l’aide de leurs caméras portatives (article 21).
Il prévoit d’augmenter les compétences des maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux fichiers de police, de nouvelles compétences en terme de lutte contre les incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
Il pousse à une professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des Jeux olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses compétences : extension de leur armement, possibilité d’intervention sur la voie publique, pouvoir de visionner les caméras, et même le port d’un uniforme spécifique (page 145).
Enfin, le dernier grand axe de ce livre concerne l’intégration de nouvelles technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la frontière technologique » (la notion de frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).
Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une analyse automatisée des réseaux sociaux (page 221), des gilets connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou casques augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la biométrie pour la police. Entre proposition d’interconnexion des fichiers biométriques (TAJ, FNAEG, FAED…) (page 256), d’utilisation des empreintes digitales comme outil d’identification lors des contrôles d’identité et l’équipement des tablettes des policiers et gendarmes (NEO et NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la reconnaissance vocale et d’odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la reconnaissance faciale dans l’espace public (page 263).
Le basculement technologique de la surveillance par drones
Parmi les nouveaux dispositifs promus par le Livre blanc : les drones de police, ici appelés « drones de sécurité intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.
Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la sécurité intérieure et à la défense nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »
Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du robot par le fait, par exemple pour les contrôles routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « zooms puissants », les « caméras thermiques », leur donnant une « vision d’aigle », ainsi que « le décollage possible pratiquement de n’importe où ».
Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type Phantom 4 » et « Mavic Pro » (ou « Mavic 2 Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.
Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.
Où serons-nous dans 4 ans ?
En pratique, c’est un basculement total des pratiques policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).
En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?
Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son décret TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de cyborgs.
En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un cap sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un État autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une insécurité bien plus profonde que celle prétendument gérée par la police.
";s:7:"dateiso";s:15:"20201119_180040";}s:15:"20201119_112805";a:7:{s:5:"title";s:82:"Libération de Jeremy Hammond, hacktiviste emprisonné depuis 7 longues années !";s:4:"link";s:116:"https://www.laquadrature.net/2020/11/19/liberation-de-jeremy-hammond-hacktiviste-emprisonne-depuis-7-longues-annees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16438";s:7:"pubDate";s:31:"Thu, 19 Nov 2020 10:28:05 +0000";s:11:"description";s:240:"La libération de Jeremy Hammond, hacktiviste étatsunien à qui l’on doit la publication des Stratfor Leaks, vient d’être annoncée par son comité de soutien.
Après avoir passé 7 années de sa vie en prison, il vient…";s:7:"content";s:1250:"
Après avoir passé 7 années de sa vie en prison, il vient d’être libéré.
Jeremy Hammond fut dénoncé par Sabu, un ex-hacker devenu informateur pour le gouvernement américain.
En octobre 2019, Hammond refusa de témoigner contre Julian Assange, et ce malgré les menaces du gouvernement d’augmenter sa peine.
La Quadrature se réjouit de cette nouvelle, et rappelle que d’autres lanceuses et lanceurs d’alertes sont toujours emprisonné·es ou poursuivi·es (Reality Winner, Julian Assange, Ola Bini…).
";s:7:"dateiso";s:15:"20201119_112805";}s:15:"20201113_115759";a:7:{s:5:"title";s:94:"Les ordres du sommet : Le programme de l’UE pour démanteler le chiffrement de bout en bout";s:4:"link";s:162:"https://www.laquadrature.net/2020/11/13/republication-en-francais-de-larticle-de-leff-orders-from-the-top-the-eus-timetable-for-dismantling-end-to-end-encryption/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16281";s:7:"pubDate";s:31:"Fri, 13 Nov 2020 10:57:59 +0000";s:11:"description";s:271:"Ceci est une republication en français de l’article de l’EFF « Orders from the Top: The EU’s Timetable for Dismantling End-to-End Encryption »
Aux États-Unis, ces derniers mois, un flux continu de propositions de lois, incitées et encouragées…";s:7:"content";s:7595:"
Aux États-Unis, ces derniers mois, un flux continu de propositions de lois, incitées et encouragées par le discours du FBI et du Département de la Justice, est venu prôner un « accès légal » aux services chiffrés de bout en bout. Ce mouvement de lobbying est récemment passé des États-Unis, où le Congrès est complètement paralysé par la polarisation critique de la société, à l’Union Européenne, où le lobby anti-chiffrement espère pouvoir passer plus facilement. Plusieurs documents qui ont fuité des plus hautes instances de l’UE montrent un plan d’action en ce sens, avec l’apparente intention de présenter une loi anti-chiffrement au parlement européen dès l’année prochaine.
Les premiers signaux de ce retournement de l’Union européenne — qui soutenait jusqu’alors les technologies de protection de la vie privée comme le chiffrement de bout en bout — datent de juin 2020, avec le discours de Ylva Johansson, commissaire européenne aux affaires intérieures.
Lors d’une conférence en ligne sur la lutte contre la pédophilie et l’exploitation des enfants, Johannsson avait appelé à une « solution technique » à ce qu’elle décrit comme le « problème » du chiffrement et annoncé que son bureau avait réuni « un groupe spécial d’experts issus du monde académique, des gouvernements, de la société civile et des entreprises afin de trouver des manières de détecter et de signaler les contenus pédophiles chiffrés ».
Le rapport a ensuite été fuité via Politico. Il fournit une liste de procédés inavouables et tortueux pour ateindre cet objectif impossible : permettre aux Etats d’accéder aux données chiffrées, sans pour autant casser le chiffrement.
En haut de cette liste bancale, on trouve, comme cela fut en effet proposé aux États-Unis, le scan côté client. Nous avons déjà expliqué en quoi le scan côté client est tout bonnement une porte dérobée (ou « backdoor ») qui ne dit pas son nom. Un code informatique inaltérable qui tourne sur votre terminal (ordinateur ou téléphone), et compare en temps réel le contenu de vos messages avec une liste noire de mots (liste dont le contenu est secret et impossible à auditer : voilà qui est en contradiction complète avec l’expression « chiffrement de bout en bout », censée garantir une protection de la vie privée. La même approche est d’ailleurs utilisée par la Chine pour suivre les conversations politiques sur des services comme WeChat. Cette technique n’a pas sa place dans un outil qui prétend protéger la confidentialité des conversations privées.
Tout gouvernement qui utiliserait cette technique franchirait un pas décisif dans l’intrusion. Pour la première fois en dehors d’un régime autoritaire, l’Europe déclarerait quels programmes de communication par Internet sont légaux et lesquels ne le sont pas. Même si les propositions de loi étaient les meilleures solutions possibles imaginées par les meilleurs chercheurs appliqués à résoudre cette quadrature du cercle, la solution serait toujours trop agressive pour en faire une réglementation applicable politiquement, même avec le soi-disant objectif de lutter contre la pédophilie comme l’assurait Johannsson.
Le sujet exige une avancée politique concertée, et les instances supérieures de l’Union Européenne se préparent pour la bataille. Fin septembre, Statewatch a publié une note, maintenant diffusée par la présidence allemande de l’UE, intitulée « La sécurité via le chiffrement et la sécurité malgré le chiffrement » qui invite les états membres à se mettre d’accord sur une nouvelle position commune au sujet du chiffrement avant la fin de l’année 2020.
Tout en concédant que « l’affaiblissement du chiffrement par quelconques moyens (incluant les portes dérobées) n’est pas une option souhaitable », la note de la présidence cite explicitement une note du Coordonnateur du Contre-Terrorisme (CCT) de l’Union Européenne, écrite en mai et divulguée par NetzPolitik.org, site allemand d’actualité et de défense des libertés sur Internet. Cette publication appelle à la création d’une « front-door », c’est-à-dire une solution d’accès dédié, autorisant la lecture légale des données chiffrées par les forces de police, sans imposer toutefois de solutions techniques particulières aux fournisseurs de services.
Le CCT souligne ce qui serait nécessaire pour légiférer sur ce cadre légal :
L’UE et ses Etats membres devraient prendre position de manière croissante dans le débat public sur le chiffrement, dans le but de l’orienter selon un angle juridique et policier…
Cela éviterait un débat à sens unique mené par le secteur privé et les organisations non gouvernementales. Cela pourrait impliquer de s’engager auprès de groupes militants, y compris des associations de victimes qui relateraient les efforts gouvernementaux dans ce domaine. S’engager au parlement européen sera aussi important pour préparer le terrain d’une possible légifération.
Un discours de la Commissaire Johannsson qui établit un lien entre la remise en cause des messageries sécurisées et la protection des enfants ; une publication appelant à des « solutions techniques » pour tenter de briser le front d’opposition ; et, dans un futur proche, une fois que l’UE aura publié sa nouvelle position commune sur le chiffrement, un lobbying concerté pour inciter les membres du parlement européen à adopter ce nouveau cadre légal ; tout cela correspond parfaitement aux étapes proposées par le Coordonnateur du Contre-Terrorisme.
Nous en sommes aux toutes premières étapes d’une longue charge anti-chiffrement aux plus hauts niveaux de l’UE, pour forcer la porte des conversations sécurisées des européens. La Grande-Bretagne, l’Australie et les États-Unis suivent la même voie. Si l’Europe veut conserver son statut de juridiction sacralisant la vie privée, il faudra donc se battre.
";s:7:"dateiso";s:15:"20201113_115759";}s:15:"20201112_140226";a:7:{s:5:"title";s:54:"187 organisations contre la « sécurité globale »";s:4:"link";s:84:"https://www.laquadrature.net/2020/11/12/55-organisations-contre-la-securite-globale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16406";s:7:"pubDate";s:31:"Thu, 12 Nov 2020 13:02:26 +0000";s:11:"description";s:251:"Nous signons aux côtés de 186 organisations la lettre ci-dessous pour nous opposer à la loi de sécurité globale. Si vous êtes une association partageant notre combat, écrivez-nous à contact@laquadrature.net pour signer la lettre (mettez…";s:7:"content";s:18188:"
Nous signons aux côtés de 186 organisations la lettre ci-dessous pour nous opposer à la loi de sécurité globale. Si vous êtes une association partageant notre combat, écrivez-nous à contact@laquadrature.net pour signer la lettre (mettez « signature lettre sg » en objet). Si vous êtes un particulier, appelez les députés pour leur demander de rejeter ces dispositions.
Contre la loi « sécurité globale », défendons la liberté de manifester
Nous nous opposons à la proposition de loi « sécurité globale ». Parmi les nombreuses propositions dangereuses de ce texte, trois articles risquent de limiter la liberté de manifester dans des proportions injustifiables, liberté déjà fortement restreinte sur le terrain et de nouveau remise en cause par le Schéma national du maintien de l’ordre.
L’article 21 concerne les caméras portables qui, selon les rapporteurs du texte, devraient équiper « toutes les patrouilles de police et de gendarmerie […] dès juillet 2021 ». S’il est voté, le texte autorisera donc la transmission des flux vidéo au centre de commandement en temps réel. Cela permettra l’analyse automatisée des images, et notamment la reconnaissance faciale des manifestants et des passants, en lien avec les 8 millions de visages déjà enregistrés par la police dans ses divers fichiers.
Ces nouveaux pouvoirs ne sont justifiés par aucun argument sérieux en matière de protection de la population et ne s’inscrivent aucunement dans une doctrine de gestion pacifiée des foules. L’effet principal sera de faciliter de façon considérable des pratiques constatées depuis plusieurs années en manifestation, visant à harceler des opposants politiques notamment par des placements en « garde à vue préventive », par l’interdiction de rejoindre le cortège ou par des interpellations arbitraires non suivies de poursuites. Ces pratiques illicites seront d’autant plus facilement généralisées que l’identification des militants et des militantes sera automatisée.
L’article 22 autoriserait la surveillance par drones qui, selon le Conseil d’État, est actuellement interdite. Ici encore, la police n’a produit aucun argument démontrant qu’une telle surveillance protégerait la population. Au contraire, nous avons pu constater en manifestation que les drones sont avant tout utilisés pour diriger des stratégies violentes contraires à la liberté de manifester : nassage, gaz et grenades lacrymogènes notamment. Comme pour les caméras mobiles, la reconnaissance faciale permettra ici aussi d’identifier des militantes et militants politiques.
En clair, le déploiement massif des caméras mobiles et des drones, couplés aux caméras fixes déjà existantes, entraînerait une capacité de surveillance généralisée de l’espace public, ne laissant plus aucune place à l’anonymat essentiel au respect du droit à la vie privée et ne pouvant avoir qu’un effet coercitif sur la liberté d’expression et de manifestation.
L’article 24 vise à empêcher la population et les journalistes de diffuser des images du visage ou de tout autre élément d’identification de fonctionnaire de police ou militaire de gendarmerie. Autrement dit, les images des violences commises par les forces de l’ordre ne pourront dés lors plus être diffusées. Le seul effet d’une telle disposition sera d’accroître le sentiment d’impunité des policiers violents et, ainsi, de multiplier les violences commises illégalement contre les manifestantes et manifestants.
Nous appelons les parlementaires à s’opposer à ces trois dispositions qui réduisent la liberté fondamentale de manifester dans le seul but de faire taire la population et de mieux la surveiller.
";s:7:"dateiso";s:15:"20201112_140226";}s:15:"20201110_123047";a:7:{s:5:"title";s:52:"« Sécurité globale » : appelons les députés";s:4:"link";s:56:"https://www.laquadrature.net/2020/11/10/securiteglobale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16395";s:7:"pubDate";s:31:"Tue, 10 Nov 2020 11:30:47 +0000";s:11:"description";s:231:"Défendons notre droit de manifester, opposons nous à la censure et à la surveillance généralisée de nos rues. La proposition de loi sera examinée à partir du mardi 17 novembre par l’ensemble des députés (voir…";s:7:"content";s:7290:"
Défendons notre droit de manifester, opposons nous à la censure et à la surveillance généralisée de nos rues. La proposition de loi sera examinée à partir du mardi 17 novembre par l’ensemble des députés (voir notre première analyse du texte et notre compte rendu de l’examen en commission). Profitons du confinement pour prendre le temps d’appeler les personnes censées nous représenter.
Au hasard parmi les députés de
et de
( – )
Député suivant >
Malgré le confinement, il y a encore un bon nombre de députés présents à l’Assemblée et qui nous répondrons (ou alors ce sera leurs assistant·es, qui connaissent parfois mieux le dossier, donc prenons le temps de leur parler aussi). Si personne ne répond, écrivons-leur (venez consulter ou proposer vos modèles de messages sur ce document participatif).
Résumé de nos arguments
L’article 21 autorisera la transmission en temps réel des vidéos enregistrées par les caméras individuelles de chaque brigade de police et de gendarmerie, ouvrant la voie à la vidéosurveillance automatisée et particulièrement à la reconnaissance faciale généralisée (pour rappel, en 2019, sans même disposer de ces futures vidéos transmises en temps réels, la police a déjà réalisé 375 000 opérations de reconnaissance faciale). La Défenseure des droits considère elle-aussi qu’une telle transmission porterait « une atteinte disproportionnée au droit à la vie privée ».
L’article 22 autorisera la surveillance de masse de nos rues par drones, ce qui n’augmentera pas la protection de la population mais servira surtout à renforcer des stratégies violentes du maintien de l’ordre, visant notamment à épuiser et dissuader les manifestants d’exercer leur liberté fondamentale d’exprimer leurs opinions politiques. Pour la Défenseure des droits, cette surveillance « ne présente pas les garanties suffisantes pour préserver la vie privée ».
L’article 24 empêchera la population de diffuser des images de violences policières, et ce dans des conditions si floues et si générales qu’elles conduiront en pratique à empêcher presque toute captation d’images de policiers et de gendarmes, en violation totale de la liberté fondamentale de la population d’être informée des pratiques et dérives des institutions publiques.
Réponses aux contre-arguments
« La reconnaissance faciale par transmission de vidéo en temps réel (article 21) ne s’en prendra qu’aux criminels ».
La reconnaissance faciale est autorisée depuis 2012 dans le fichier de traitement des antécédents judiciaires, le « TAJ » (lire notre analyse). Ce fichier est géré seule par la police, sans contrôle extérieure effectif, de sorte qu’elle peut y inscrire en pratique à peu près qui elle veut, et même des opposants politiques. Le TAJ contiendrait 19 millions de personnes fichées et 8 millions de photos.
« Les drones (article 22) permettront de limiter les violences en manifestation ».
Si la police voulait diminuer les violences, elle adopterait une approche de désescalade de la violence fondée sur la communication et l’apaisement. Les drones sont parfaitement inutiles pour une telle approche apaisée. Ils ne sont utiles que pour l’approche confrontationnelle actuellement adoptée par la police, consistant à gérer les manifestants comme des flux dans des stratégies d’épuisement.
« Il faut bien une loi pour encadrer l’utilisation des drones, c’est ce que demande le Conseil d’État »
Telle que rédigée aujourd’hui, la proposition de loi n’est pas un encadrement mais un blanc-seing donnée aux forces de l’ordre pour déployer tout type de surveillance dans l’espace public. Une telle capacité de surveillance de masse est en totale opposition avec les exigences de nécessité et de proportionnalité qui sont normalement nécessaires avant le déploiement de chaque nouvelle caméra dans la rue.
« L’article 24 n’empêchera que les diffusions faites dans le but de nuire physiquement ou psychiquement aux policiers et gendarmes. »
La dénonciation d’une violence policière se fait forcément avec la conscience et même la volonté de pouvoir nuire au moral des personnes qu’on dénonce : on veut les empêcher d’agir. Quand on fait une telle dénonciation, on souhaite une sanction disciplinaire, ce qui est une attente parfaitement légitime et normale, qu’il serait donc injustifiable de criminaliser. S’agissant des appels à la violence contre les policiers, ils sont déjà interdits comme pour n’importe quelle personne.
« L’article 24 n’empêchera que la diffusion des images, pas leur captation. »
Ce sera déjà une atteinte injustifiable au droit fondamental de la population d’être informée de l’usage de la violence réalisée par la police. De plus, en pratique, la police empêche déjà régulièrement les manifestants et les passants de filmer ses interventions, alors que la population est parfaitement autorisée à le faire. Une interdiction aussi floue et générale que celle introduite par l’article 24 ne pourra que renforcer cette interdiction « de fait » imposée par la police de façon complètement arbitraire et très souvent violente.
";s:7:"dateiso";s:15:"20201110_123047";}s:15:"20201109_174759";a:7:{s:5:"title";s:107:"Fichage policier : recours contre le détournement du fichier du « Système de contrôle automatisé »";s:4:"link";s:133:"https://www.laquadrature.net/2020/11/09/fichage-policier-recours-contre-le-detournement-du-fichier-du-systeme-de-controle-automatise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16354";s:7:"pubDate";s:31:"Mon, 09 Nov 2020 16:47:59 +0000";s:11:"description";s:245:"Nous venons de déposer un recours devant le Conseil d’État contre l’extension du fichier du Système de contrôle automatisé (SCA). Depuis avril, ce fichier permet de conserver pendant 5 à 10 ans les informations relatives…";s:7:"content";s:8896:"
Nous venons de déposer un recours devant le Conseil d’État contre l’extension du fichier du Système de contrôle automatisé (SCA). Depuis avril, ce fichier permet de conserver pendant 5 à 10 ans les informations relatives à une contravention ou un délit conduisant au paiement d’une amende forfaitaire. Nous attaquons cet énième fichier de police.
Le SCA — ou ADOC, pour « Accès au dossier des contraventions » — est un fichier de police qui permettait, avant avril, de conserver des informations relatives aux délits routiers. En avril, pendant le confinement, le gouvernement a détourné ce fichier pour y inscrire des informations relatives au non-respect du confinement. La police et la gendarmerie l’ont ainsi utilisé pour repérer les récidivistes, afin tout simplement, de les mettre en prison1Le non-respect des règles de confinement, aujourd’hui encore, vous expose à une amende de 135€, mais la récidive peut en effet vous conduire en prison..
Ce fichier ne permettant pas, à l’époque, de conserver des informations autres que sur les délits routiers, les procédures judiciaires ont depuis été annulées et les personnes relaxées.
Qu’à cela ne tienne. Puisque les tribunaux reprochaient à la police d’utiliser un fichier sans en avoir le droit, la police — par le biais du ministre de l’intérieur — a changé les règles du jeu. Et voilà que, depuis mi-avril 2020, toute infraction réprimée par une amende forfaitaire sera inscrite dans ce fichier, et cela pour une durée de 5 ans (pour les contraventions) à 10 ans (pour les délits).
Outre la méthode infâme et indigne d’un État de droit, cette manœuvre accentue de manière inquiétante le fichage de la population. Non seulement les infractions visées sont peu graves2C’est justement parce que ces infractions sont « peu graves » que l’on peut décider de de payer une amende forfaitaire au lieu de passer devant un tribunal., mais elles sont aussi très nombreuses. Vous pourrez donc vous retrouver dans ce fichier de police pour avoir vendu une Tour Eiffel à la sauvette, pour avoir du cannabis sur vous, pour le dépôt d’ordures3Notons à ce propos que la police sanctionne l’affichage militant sauvage par une amende pour dépôt d’ordures sauvage., pour avoir participé à une manifestation interdite sur la voie publique, ou encore, depuis fin octobre, pour ne pas avoir respecté les obligations de confinement. Et cette liste est très loin d’être exhaustive : nous avons relevé dix délits et une trentaine de contraventions qui, seulement parce qu’ils et elles font l’objet du paiement d’une amende, vous inscrira dans un énième fichier de police. Et ce pour une période relativement longue.
À travers ce fichier, c’est encore une fois l’impunité policière qui doit être dénoncée. Le gouvernement fait fi des règles d’un l’État de droit pour arriver à ses fins : mettre les gens sous surveillance, les envoyer en prison et réprimer toujours plus durement. Il est pourtant établi qu’un fichage policier conduit toujours à des abus — le TAJ ou les drones ne sont que deux exemples dans un océan d’arbitraire.
Le non-respect des règles de confinement, aujourd’hui encore, vous expose à une amende de 135€, mais la récidive peut en effet vous conduire en prison.
C’est justement parce que ces infractions sont « peu graves » que l’on peut décider de de payer une amende forfaitaire au lieu de passer devant un tribunal.
Notons à ce propos que la police sanctionne l’affichage militant sauvage par une amende pour dépôt d’ordures sauvage.
";s:7:"dateiso";s:15:"20201109_174759";}s:15:"20201106_192204";a:7:{s:5:"title";s:43:"Sécurité globale : la police fait la loi";s:4:"link";s:79:"https://www.laquadrature.net/2020/11/06/securite-globale-la-police-fait-la-loi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16344";s:7:"pubDate";s:31:"Fri, 06 Nov 2020 18:22:04 +0000";s:11:"description";s:266:"La loi « sécurité globale » a été adoptée hier en commission des lois de l’Assemblée nationale (relire notre première analyse de la loi). Un premier constat s’impose aux personnes qui ont suivi l’examen du texte : une…";s:7:"content";s:9529:"
La loi « sécurité globale » a été adoptée hier en commission des lois de l’Assemblée nationale (relire notre première analyse de la loi). Un premier constat s’impose aux personnes qui ont suivi l’examen du texte : une ambiance singulière, lugubre et fuyante. Un silence de plomb rompu seulement par divers éclats de rires du groupe LREM, incongrus et parfaitement indécents compte tenu de la gravité du texte examiné. Certains diront qu’il faut écrire la loi d’une main tremblante. Alors tremblons.
Le RAID dans l’Assemblée
Cette loi illustre la méthode législative propre aux États policiers : la police écrit elle-même les règles qui définissent ses pouvoirs.
D’abord, littéralement, l’auteur principal du texte, Jean‑Michel Fauvergue (LREM), est l’ancien chef du RAID, de 2013 à 2017. Il est l’un des deux rapporteurs du texte. À travers lui et, depuis son pupitre en commission des lois, la police a pu imposer son autorité.
Quand la députée Danièle Obono (LFI) s’inquiète pour nos libertés fondamentales, Fauvergue lui reproche de « déverser [son] fiel sur la société française » – car, comprenez-vous, critiquer la police, c’est critiquer « la France ». Voyant Obono insister, il lui intime même : « Allez prendre vos gouttes ! ». Sans doute voit-il le « débat parlementaire » comme un champ de bataille où il est exclu de négocier avec l’ennemi, tout en se permettant de reprocher à Obono de « voir la société de façon binaire entre les « gentils » et les « méchants »».
Pensées interdites
Cette négociation impossible s’est aussi traduite dans l’attitude de l’autre rapporteure du texte, Alice Thourot. Chaque fois qu’un amendement proposait de limiter ne serait-ce qu’un tant soit peu les nouveaux pouvoirs de la police, elle restait cloîtrée dans une unique et lancinante réponse, se résumant à : « Cette disposition a été demandée par la police, il faut l’adopter telle quelle ».
Elle n’est sortie de ce mutisme intellectuel que pour demander aux députés d’arrêter d’envisager des hypothèses où la police abuserait de ses nouveaux pouvoirs, car de telles pensées seraient insultantes pour la police. Entre ces « crimepensées » et le slogan choisi par Thourot pour cette loi, « protéger ceux qui nous protègent », 1984 est à l’honneur.
Trois député·es
Ne laissons ici aucun doute : le rôle historique du Parlement et du droit est précisément d’envisager des hypothèses où les institutions abuseraient de leur pouvoir afin d’en limiter les risques. Mais il n’y avait plus hier qu’une poignée de députés pour s’en souvenir. Saluons-les pour leur étrange baroud d’honneur. Danièle Obono, déjà citée, l’ancien marcheur Paul Molac et le centriste Philippe Latombe qui, devant les barrières dressées par la police au sein même de l’Assemblée nationale, a fait tomber les masques, rempli d’amertume, avouant que « les députés ne servent à rien ». Et en effet, ils n’auront servi à rien.
Alors que le sujet de cette loi, dont le processus d’adoption est – rappelons le – d’une rapidité exceptionnelle, touche à nos libertés publiques et nécessiterait une discussion solennelle et sérieuse de la part des parlementaires, nous avons à l’inverse pu observer une absence criante de la mesure de la gravité des enjeux, chaque augmentation de pouvoir de la police étant votée comme une simple formalité administrative.
La police autonome
Ce débat, tant sur sa forme que sur son fond, aura démontré que la police est une institution politique autonome, avec son agenda et ses idéologies propres qu’elle entend défendre elle-même. Les discussions sur l’article 21 sur les « caméras-piétons » l’ont parfaitement illustré.
Les députés de droite ont martelé qu’il fallait que cet article 21 permette aux policiers de publier les vidéos prises par leur caméra portative afin de « rétablir la vérité », ou plus exactement d’établir « leur vérité » dans la « guerre des images », et de justifier les violences policières filmées par les journalistes et la population. La police n’est donc plus uniquement chargée de protéger la population contre les infractions. Elle est aussi destinée à faire de la communication politique au même titre qu’un parti politique ou qu’un journal militant – les armes et les hélicoptères en plus.
Un chien-fou en liberté
Le gouvernement et sa majorité parlementaire ont toujours dû laisser à la police certaines libertés en contrepartie de la protection armée offerte contre les débordements populaires. Mais ce rapport de force semble largement déraper. Sur la forme, on pourrait se demander ce qu’il reste de l’indépendance du pouvoir législatif, soumis de fait à la police et à ses lobbyistes élus.
Sur le fond du texte aussi, le rapport de force semble basculer brutalement en faveur de la police. L’article 24 de la loi, qui conduira en pratique à empêcher la population et les journalistes de filmer et de diffuser les images de violences policières, fera disparaître un contre-pouvoir fondamental dans l’équilibre des institutions. Car la documentation des abus policier dans les médias, par la presse et la population, permettait de les contenir un minimum, ce qui arrangeait bien les autres pouvoirs. Si le contre-pouvoir de la presse devait sauter, plus grand-chose n’empêcherait la police de verser dans l’arbitraire le plus total.
Les amendements de la police
Hier, l’agenda a bel et bien été dicté par la police. Les seuls amendements sérieux à avoir été adoptés sont ceux qui accroissent les pouvoirs de la police.
Sur les articles qui nous intéressent, un premier amendement « vise à étendre aux polices municipales les avancées permises par le présent article en matière de caméras individuelles » (notamment la transmission en temps réel au centre de commandement, où les images pourront être analysées automatiquement). Un deuxième ensemble d’amendements allonge la liste des finalités permettant la surveillance par drones (lutte contre les rodéos urbains et les petits dealers notamment).
Enfin, la seule modification apportée à l’article 24 sur la diffusion d’images policières sonne comme une provocation : l’article 24, qui interdit toujours la diffusion du visage et d’autres éléments d’identification des policiers, permet désormais de diffuser des images illustrant leur matricule – ce fameux RIO dont l’absence est justement si souvent déplorée… Réagissant aux vives oppositions, notamment celle de la défenseure des droits, contre l’atteinte à la liberté d’informer constituée par cet article, l’ancien chef du RAID a été définitif : « nous voulons que les agents ne soient plus identifiables du grand public ».
La suite
Le texte sera examiné par l’ensemble des députés à partir du 17 novembre. Vous pouvez appeler ou écrire aux élus d’ici là via l’outil ci-dessous.
Nos espoirs principaux seront peut-être à placer dans le Sénat et le Conseil constitutionnel, qui ont une place singulière dans les rapports de force entre les institutions et sont récemment parvenus à réduire à néant les initiatives du gouvernement, notamment en s’opposant à la loi Avia.
Au hasard parmi les députés de
et de
( – )
Député suivant >
";s:7:"dateiso";s:15:"20201106_192204";}s:15:"20201106_134409";a:7:{s:5:"title";s:101:"Identité numérique et reconnaissance faciale : défaite au Conseil d’Etat, le combat continue !";s:4:"link";s:129:"https://www.laquadrature.net/2020/11/06/identite-numerique-et-reconnaissance-faciale-defaite-au-conseil-detat-le-combat-continue/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16337";s:7:"pubDate";s:31:"Fri, 06 Nov 2020 12:44:09 +0000";s:11:"description";s:337:"En juillet 2019, nous avions attaqué l’application pour smartphone « ALICEM » devant le Conseil d’Etat. Cette application, développée par l’Agence des Titres Sécurisés (ANTS), visait à développer une identité numérique gouvernementale, soi-disant « sécurisée », conditionnée à un…";s:7:"content";s:5139:"
En juillet 2019, nous avions attaqué l’application pour smartphone « ALICEM » devant le Conseil d’Etat. Cette application, développée par l’Agence des Titres Sécurisés (ANTS), visait à développer une identité numérique gouvernementale, soi-disant « sécurisée », conditionnée à un traitement de reconnaissance faciale obligatoire. Soit une manière détournée de commencer à imposer à l’ensemble de la société française la reconnaissance faciale à des fins d’identification. La CNIL s’était, pour une fois, autorisée à contredire frontalement le gouvernement en soulignant dans son avis qu’un tel dispositif était contraire au droit européen. Le gouvernement n’avait pas suivi son avis et avait publié, sans le modifier, le décret permettant la création de cette application.
Outre cette violation du droit européen sur la protection des données, nous avions souligné de notre côté le risque de normalisation de la reconnaissance faciale : à force de l’utiliser volontairement comme outil d’authentification, nous risquerions de nous y accoutumer, au point de ne plus nous indigner de ce mode de contrôle social particulièrement insidieux et dangereux pour les libertés publiques. Notre recours était également concomitant à un rapport signé par l’ancien ministre de l’Intérieur, Christophe Castaner, où ce dernier faisait d’inquiétants liens entre Alicem, la haine en ligne et son désir de mettre fin à l’anonymat. Enfin, nous avions attaqué la disproportion des données traitées pour l’application Alicem : pour créer cette identité, l’application traite en effet 32 données différentes (nom, prénom, taille, date de délivrance du passeport…).
Hier, le Conseil d’Etat a rendu sa décision. Elle est choquante : plus d’un an après le dépôt de notre recours. Il rejette ce dernier en trois paragraphes. Il reprend notamment l’argumentation du ministère de l’Intérieur en considérant que la CNIL s’est trompée : le droit européen serait selon lui respecté car les personnes ne voulant pas utiliser l’application (du fait de la reconnaissance faciale) ne subiraient pas de préjudice. Elles pourraient en effet utiliser d’autres moyens d’identification pour accéder aux services publics en ligne (par exemple via un identifiant et un mot de passe via France Connect). Cette interprétation de la notion de « consentement libre et éclairé » méconnaît non seulement celle de la CNIL mais aussi celle du comité européen de la protection des données. Sur la question de l’étendue des données, il considère tout simplement que le traitement est « adéquat et proportionné ». Sans plus de détails. Une conclusion aucunement argumentée, qui résume à elle seule tout l’arbitraire de cette décision. Un seul lot de consolation : le Conseil d’État y reconnaît donc que conditionner l’accès à un service public en ligne à la reconnaissance faciale ne respecte pas le droit des données personnelles (il faut toujours qu’une alternative soit proposée, et Alicem risque donc de ne jamais sortir de sa phase d’expérimentation).
Cette décision marque une bataille perdue contre la surveillance biométrique, contre son utilisation dans le cadre d’une identité numérique, et surtout contre sa normalisation. Notre recours aura néanmoins rempli un de ses objectifs : celui de mettre la lumière sur ce projet du gouvernement et de lancer le débat sur la reconnaissance faciale en France. De montrer aussi à ses promoteurs que chaque initiative, chaque tentative de leur part de nous imposer cette surveillance sera combattue. C’est dans cette même idée que nous avons déposé il y a quelques mois un recours contre la reconnaissance faciale dans le TAJ. C’est aussi dans cette idée que nous suivrons de près le prochain sujet de la carte d’identité numérique, où la biométrie sera, encore une fois, au cœur des débats.
";s:7:"dateiso";s:15:"20201106_134409";}s:15:"20201101_100013";a:7:{s:5:"title";s:34:"Faut-il réguler Internet ? (1/2)";s:4:"link";s:67:"https://www.laquadrature.net/2020/11/01/faut-il-reguler-internet-1/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16242";s:7:"pubDate";s:31:"Sun, 01 Nov 2020 09:00:13 +0000";s:11:"description";s:244:"Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Le modèle de l’économie de l’attention
Si le rêve…";s:7:"content";s:15549:"
Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.
Le modèle de l’économie de l’attention
Si le rêve initial d’Internet était celui du partage, force est de constater qu’aujourd’hui les « Géants du Web » ont acquis un quasi-monopole sur de très nombreux aspects de nos activités en ligne : nos recherches sur le Net (Google Search possède par exemple 91 % des parts de marché en France), nos téléphones mobiles (le système Android est installé sur la plupart des portables, près de 8 sur 10 en France, et si l’on ajoute Apple et son système iOS, on couvre la quasi-totalité des portables), nos communications via les réseaux sociaux (qui passent en grande majorité par Facebook et Twitter) et les liens sociaux tissés par la même occasion…
Et ces entreprises n’ont pas développé ces activités dans un but philanthropique : elles sont là pour faire de l’argent, et leur modèle économique est essentiellement basé sur l’affichage publicitaire (cela représente par exemple 85 % du chiffre d’affaires de Google et même 98 % de celui de Facebook). Pour augmenter leur chiffre d’affaires et leurs bénéfices, ils font donc tout ce qu’ils peuvent pour mieux nous cibler et nous garder le plus longtemps possible sur leurs sites ou leurs applications. C’est ce qu’on appelle « l’économie de l’attention » : l’idée est de nous garder le plus longtemps possible « captif·ves », à la fois pour récupérer un maximum de données nous concernant, mais surtout pour bénéficier de plus de « temps de cerveau disponible » et mieux vendre leurs espaces publicitaires aux annonceurs.
Prenons l’exemple du réseau social Facebook. L’entreprise explique sans pudeur son fonctionnement : des personnes qui souhaitent diffuser un message (une publicité, un article, un événement, etc.) désignent à Facebook un public cible, selon certains critères sociaux, économiques ou de comportement, et paient l’entreprise pour qu’elle diffuse ce message à ce public, dans les meilleures conditions.
Afin de cibler correctement ces publics, Facebook analyse donc les contenus produits par ses utilisat·rices : contenus publics, messages privés, interactions diverses, contenus consultés, appareils utilisés pour se connecter, temps de visionnage d’un message, etc. Ces contenus ne se résument pas à ce qu’on publie consciemment, mais à l’ensemble nos activités, qui dévoilent nos caractéristiques sociales, économiques… Pour voir à quel point cette analyse peut s’avérer redoutable, on peut évoquer une étude conduite par l’université de Cambridge en 2013 : 58 000 personnes ont répondu à un test de personnalité, puis ce test a été recoupé à tous leurs « j’aime » laissés sur Facebook. En repartant de leurs seuls « j’aime », l’université a ensuite pu estimer leur couleur de peau (avec 95 % de certitude), leurs orientations politique (85 %) et sexuelle (80 %), leur confession religieuse (82 %), s’ils fumaient (73 %), buvaient (70 %) ou consommaient de la drogue (65 %).
Ces données récoltées et traitées (sans forcément que les utilisateur·rices en soient averti·es ou conscient·es) permettent ensuite à Facebook de proposer des messages publicitaires « adaptés », aux moments et aux formats les plus opportuns pour fonctionner sur les personnes ciblées et les influencer dans leurs choix. Mais cela ne s’arrête pas là, Facebook collabore aussi avec des tiers pour pister des personnes n’ayant même pas de compte chez eux, via les cookies (petits fichiers stockés sur nos appareils, initialement faits pour faciliter la navigation, mais qui sont susceptibles d’être utilisés pour traquer les personnes), les boutons « j’aime » sur des pages de sites Internet (si une personne voit un de ces boutons s’afficher sur la page qu’elle consulte, des données la concernant – telle que son adresse IP par exemple – sont envoyées à Facebook et ce même si elle n’a pas de compte auprès de ce service), le Facebook login (bouton qui permet de se connecter sur un site via son compte Facebook, et qui renvoie lui aussi un certain nombre d’informations à Facebook)…
Mais il est aussi nécessaire de capter le plus longtemps possible l’attention des utilisat·rices dans le cadre de cette « économie de l’attention ». Prenons cette fois l’exemple de Youtube, la plus grosse plateforme vidéo d’Internet, propriété de Google et l’un des sites les plus visités au monde. Youtube ne se contente pas seulement d’héberger des vidéos : il s’agit d’un véritable média social de contenus multimédias, qui met en relation des individus et régule ces relations : lorsqu’une vidéo est visionnée sur Youtube, dans 70 % des cas l’utilisateur·rice a été amené·e à cliquer sur cette vidéo via l’algorithme de recommandation de Youtube. Et le but de cet algorithme n’est pas de servir l’utilisat·rice mais de faire en sorte que l’on reste le plus longtemps possible sur la plateforme, devant les publicités. Cet algorithme ne se pose certes pas la question du contenu, mais en pratique l’ancien employé de Google Guillaume Chaslot [dans un entretien dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018] constate que les contenus les plus mis en avant se trouvent être les contenus agressifs, diffamants, choquants ou complotistes. Il compare : « C’est comme une bagarre dans la rue, les gens s’arrêtent pour regarder ».
Youtube, désirant ne pas perdre une seconde de visionnage de ses utilisat·rices, ne prend pas le risque de leur recommander des contenus trop extravagants. L’ancien employé déclare qu’ils ont refusé plusieurs fois de modifier l’algorithme de façon à ce que celui-ci ouvre l’utilisat·rice à des contenus inhabituels. Dans ces conditions, le débat public est entièrement déformé, les discussions les plus subtiles ou précises, jugées peu rentables, s’exposent à une censure par enterrement.
En tant qu’hébergeur de contenu, Youtube est tenu de retirer un contenu « manifestement illicite » si celui-ci lui a été notifié. Compte tenu de la quantité de contenus que brasse la plateforme, elle a décidé d’automatiser la censure des contenus « potentiellement illicites », portant atteinte au droit de certains auteurs, au moyen de son RobotCopyright appelé « ContentID » (système d’empreinte numérique qui permet de comparer tout nouveau contenu déposé sur la plateforme à une base de données préexistante, alimentée par les titulaires de droit d’auteur). Pour être reconnu auteur·e sur la plateforme, il faut répondre à des critères fixés par Youtube. Une fois qu’un contenu est protégé par ce droit attribué par Youtube (en pratique, il s’agit en majorité de contenus issus de grosses chaînes de télévision ou de grands labels), la plateforme se permet de démonétiser1Nombreux sont les Youtubeur·ses qui vivent en partie des revenus publicitaires liés à leurs vidéos. Démonétiser une vidéo revient à supprimer les revenus publicitaires liés à cette vidéo et donc la rémunération de son auteur·rice, en cessant de mettre cette vidéo en avant ou en cessant de l’associer à des publicités. ou supprimer les vidéos réutilisant le contenu protégé à la demande des titulaires de droit. Ce ContentID est un moyen de censure de plus qui démontre que Youtube ne souhaite pas permettre à chacun·e de s’exprimer (contrairement à son slogan « Broadcast yourself ») mais cherche simplement à administrer l’espace de débat public avec pour but de favoriser la centralisation et le contrôle de l’information. Et pour cause, cette censure et cet enfermement dans un espace de confort est le meilleur moyen d’emprisonner les utilisat·rices dans son écosystème au service de la publicité.
De la nécessité de réguler
Nous avons donc des entreprises qui récoltent nos données personnelles et en font la base de leur modèle économique, le plus souvent de manière illégale : en effet, depuis mai 2018, le RGPD prévoit que notre consentement à la collecte et au traitement de nos données personnelles n’est pas considéré comme valide s’il n’est pas librement donné, et notamment si l’on n’a pas d’autre choix que d’accepter pour pouvoir accéder au service (article 7, §4, et considérant 43 du RGPD, interprétés par le groupe de l’article 292https://www.cnil.fr/fr/le-g29-groupe-des-cnil-europeennes et https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=623051 – référence en anglais). Or pour avoir un compte Facebook ou pour consulter des vidéos sur Youtube nous n’avons actuellement pas d’autre choix que d’accepter que nos données soient collectées par leurs outils de pistage/ciblage.
Et ces mêmes entreprises sont aussi celles qui mettent en avant des contenus polémiques, violents, racistes ou discriminatoires en partant de l’idée que ce sont ceux qui nous feront rester sur leur plateforme. Le rapport visant à « renforcer la lutte contre le racisme et l’antisémitisme sur Internet », commandé par le Premier ministre français et publié en septembre 2018, l’explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible ». Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de « buzz » qu’un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ».
Nombreux sont les Youtubeur·ses qui vivent en partie des revenus publicitaires liés à leurs vidéos. Démonétiser une vidéo revient à supprimer les revenus publicitaires liés à cette vidéo et donc la rémunération de son auteur·rice, en cessant de mettre cette vidéo en avant ou en cessant de l’associer à des publicités.
https://www.cnil.fr/fr/le-g29-groupe-des-cnil-europeennes et https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=623051 – référence en anglais
";s:7:"dateiso";s:15:"20201101_100013";}s:15:"20201030_161428";a:7:{s:5:"title";s:90:"Lettre aux parlementaires : Supprimez les boites noires, ne violez pas le droit européen";s:4:"link";s:126:"https://www.laquadrature.net/2020/10/30/lettre-aux-parlementaires-supprimez-les-boites-noires-ne-violez-pas-le-droit-europeen/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16321";s:7:"pubDate";s:31:"Fri, 30 Oct 2020 15:14:28 +0000";s:11:"description";s:263:"Mercredi 4 novembre, l’Assemblée nationale examinera pour la seconde fois le projet de loi visant à prolonger encore une fois les « boites noires ». Introduites par la loi de renseignement de 2015, les « boites noires » sont…";s:7:"content";s:4337:"
Mercredi 4 novembre, l’Assemblée nationale examinera pour la seconde fois le projet de loi visant à prolonger encore une fois les « boites noires ». Introduites par la loi de renseignement de 2015, les « boites noires » sont des dispositifs analysant de façon automatisée l’ensemble des communications circulant sur un point du réseau de télécommunications afin, soi-disant, de « révéler des menaces terroristes ». Une de nos plus importantes affaires, récemment tranchée par la Cour de justice de l’Union européenne, vient de déclarer ces « boites noires » contraires au droit de l’Union.
Nous venons d’écrire aux députés pour qu’ils rejettent la tentative du gouvernement de violer le droit européen.
Objet : Supprimez les boites noires, ne violez pas le droit européen
Mesdames, Messieurs les membres de la commission des lois,
Le 4 novembre, vous examinerez le projet de loi relatif à la prorogation de diverses dispositions du code de la sécurité intérieure.
Le 8 juillet, vous aviez rendu un avis favorable à ces prorogations, notamment à celle de la mesure prévue à l’article L851-3 de ce code, jusqu’au 31 juillet 2021. Toutefois, depuis cet examen, un événement majeur est survenu et devrait vous convaincre d’adopter une position diamétralement opposée.
Le 6 octobre, au terme de cinq années de procédure, la Cour de justice de l’Union européenne a rendu un arrêt « La Quadrature du Net » dont les conséquences sur les activités de renseignement françaises seront d’une importance sans précédent. Cet arrêt dense et complexe affecte de très nombreux aspects du droit. Néanmoins, il y a un point sur lequel le Cour est limpide : la mesure décrite à l’article L851-3 du code de la sécurité intérieur, telle qu’elle est actuellement autorisée en droit français, est contraire au droit de l’Union et à ses traités.
La Cour considère que cette mesure est une « analyse automatisée [qui] s’applique de manière globale à l’ensemble des personnes faisant usage des moyens de communications électroniques » et que « les données faisant l’objet de l’analyse automatisée sont susceptibles de révéler la nature des informations consultées en ligne ». La Cour exige ainsi que cette « ingérence particulièrement grave » ne puisse être admise qu’à titre exceptionnel « face à une menace grave pour la sécurité nationale qui s’avère réelle et actuelle ou prévisible » et ce « pendant une période strictement limitée ». Enfin, la mise en œuvre d’une telle mesure doit faire « l’objet d’un contrôle effectif soit par une juridiction, soit par une entité administrative indépendante, dont la décision est dotée d’un effet contraignant ».
Le droit français ne respecte aucune de ces garanties. L’article L851-3 du code de la sécurité intérieure autorise cette mesure de façon générale et par principe, sans être conditionnée à la moindre « menace réelle et actuelle ». Le droit français n’encadre cette mesure dans aucune « période strictement limitée », mais autorise au contraire ces boites noires depuis cinq ans de façon ininterrompue. Enfin, le contrôle de cette mesure a été confié à la CNCTR qui, en droit, n’a aucun pouvoir contraignant.
Le gouvernement a annoncé qu’il corrigerait ces graves manquements dans une prochaine loi sur le renseignement, sans aucune garantie quant au délai ou à la pertinence des ces corrections. Pourtant, les services de renseignement ne cachent pas l’intérêt stratégique particulièrement limité de cette mesure. Dès lors, proroger l’autorisation de cette mesure ne pourrait être compris et décrit que d’une seule façon : la volonté active du législateur de renoncer aux princes de hiérarchie des normes et d’État de droit en matière de surveillance.
";s:7:"dateiso";s:15:"20201030_161428";}s:15:"20201029_164322";a:7:{s:5:"title";s:72:"Loi sécurité globale : surveillance généralisée des manifestations";s:4:"link";s:105:"https://www.laquadrature.net/2020/10/29/loi-securite-globale-surveillance-generalisee-des-manifestations/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16315";s:7:"pubDate";s:31:"Thu, 29 Oct 2020 15:43:22 +0000";s:11:"description";s:246:"Le 20 octobre, les députés de la majorité LREM ont déposé une proposition de loi de « sécurité globale ». Elle sera débattue par l’Assemblée nationale le 4 novembre, dans une urgence inouïe que rien ne justifie.…";s:7:"content";s:13144:"
Le 20 octobre, les députés de la majorité LREM ont déposé une proposition de loi de « sécurité globale ». Elle sera débattue par l’Assemblée nationale le 4 novembre, dans une urgence inouïe que rien ne justifie. Son article 21 veut déréguler l’utilisation des caméras mobiles portées par les forces de l’ordre. Son article 22 veut légaliser la surveillance par drone. Son article 24 veut interdire au public de diffuser l’image de policiers.
Nous exigeons le rejet de ces trois mesures, ne serait-ce qu’en raison de l’atteinte inadmissible qu’elles portent au droit fondamental d’exprimer nos opinions en manifestation. Ce n’est pas la seule critique à faire contre ce texte, mais c’est la critique que nous développerons dans cette première analyse.
L’approche confrontationnelle du maintien de l’ordre
Pour bien comprendre les dangers posés par cette proposition de loi, il faut la resituer dans la pratique générale du maintien de l’ordre en manifestation. Deux approches s’y opposent.
Une première approche « d’accompagnement », telle qu’elle serait enseignée au centre de formation de la gendarmerie ou telle qu’elle existe en Allemagne, en Suède ou en Suisse, se concentre sur la protection des manifestants, le dialogue et la désescalade de la violence.
Une deuxième approche « confrontationnelle », telle qu’elle s’illustre vivement depuis 2015 et telle qu’elle est fermement dénoncée depuis (voir par exemple le rapport du défenseur des droits de 2018), vise avant tout à dissuader la population de participer à des manifestations, que ce soit par épuisement psychologique des participants (pratique de la nasse, blocage ou filtrage des entrées et sorties du parcours, gazage, fouilles au corps, comportements injurieux) ou par des violences physiques (LBD, grenades, charges). Cette seconde approche ne traite plus les manifestantes et les manifestants comme des individus à protéger mais comme des « flux » déshumanisés qu’il s’agit uniquement de canaliser, de dévier, de retenir ou d’écouler.
L’approche « d’accompagnement » est théoriquement compatible avec notre droit fondamental de manifester. Au contraire, l’approche confrontationnelle est frontalement opposée à ce droit, par essence. C’est cette approche que la loi « sécurité globale » tente de renforcer, en donnant à la police trois moyens technologiques nouveaux pour s’y enfoncer davantage.
Surveillance de masse au sol
Une loi de 2016 a autorisé les policiers et les gendarmes à filmer leurs interventions par des « caméra mobiles ». Une condition était toutefois posée : que l’agent portant la caméra ne puisse pas accéder aux images, celles-ci ne pouvant être exploitées qu’a posteriori, lorsqu’un événement particulier survenu pendant l’intervention le justifiait. Cette condition, d’après l’avis de la CNIL, constituait une des « garanties essentielles » capables de rendre le dispositif acceptable.
L’article 21 de la loi « sécurité globale » propose de supprimer cette garantie. Non seulement l’agent pourra accéder aux images qu’il a enregistrées mais, plus grave, les images ne seront plus seulement exploitées à posteriori : elles pourront aussi être « transmises en temps réel au poste de commandement ». Quel est le but de cette transmission en temps réel ? Il ne s’agit manifestement pas d’informer le centre de commandement du déroulé de l’intervention, puisqu’une communication orale y suffit largement depuis des décennies. À notre sens, un des intérêts principaux serait de permettre l’analyse automatisée et en temps réel des images. Pour rappel, la police est autorisée depuis 2012 à utiliser des logiciels de reconnaissance faciale pour identifier une des 8 millions de photos déjà enregistrées dans le fichier de traitement des antécédents judiciaire (TAJ) sur n’importe quelle image dont elle dispose (qu’elle vienne de caméras fixe ou mobile, de vidéo publiée en ligne, etc.)
En manifestation, la reconnaissance faciale en temps réel permettra au centre de commandement de renseigner en direct les agents de terrain sur l’identité des nombreux militants et militantes qu’ils croiseront, déjà fichées à tort ou à raison dans le TAJ, fichier que la police gère seule sans contrôle indépendant effectif. Ce nouvel outil permettra à la police de multiplier certains abus ciblés contre des personnes déjà identifiées : gardes à vue « préventives », accès au cortège empêché, interpellations non-suivies de poursuite, fouilles au corps, confiscation de matériel, comportement injurieux…
Il ne s’agirait pas d’une simple accentuation mais d’un véritable changement de paradigme : actuellement, la police ne peut malmener qu’une poignée de personnes, plutôt célèbres, dont le visage peut être effectivement retenu par les policiers humains. Cette limite cognitive disparaît entièrement avec la reconnaissance faciale en temps réel, qui pourra toucher n’importe quel militant politique ou presque. Cette évolution est parfaitement étrangère à l’approche protectrice du maintien de l’ordre, mais s’inscrit parfaitement dans l’approche confrontationnelle.
Surveillance de masse aérienne
L’article 22 de la loi « sécurité globale » propose d’autoriser une pratique qui s’est répandue en violation de la loi au cours des derniers mois : le déploiement de drones pour surveiller les manifestations (pratique que nous venons d’attaquer à Paris).
Une telle surveillance aérienne est parfaitement inutile dans l’approche non-confrontationnelle du maintien de l’ordre : les drones ne sont pas des outils de dialogue ou d’apaisement mais, au contraire, distancient certains policiers et gendarmes des manifestants, qui ne peuvent même plus les voir. À l’inverse, la surveillance de masse par drones s’inscrit parfaitement dans l’approche confrontationnelle, et ce de deux façons.
En premier lieu, tout comme pour les caméras mobiles, les images captées par drones peuvent être analysées par reconnaissance faciale en temps réel, facilitant les actions ciblées de la police contre des militants préalablement identifiés. La surveillance par drones permet aussi, plus simplement, de suivre à la trace n’importe quel individu « dérangeant » repéré au cours d’une manifestation, afin de diriger les forces aux sols pour le malmener. Mediapart en a récemment donné un exemple saisissant : le témoignage de militantes qui, pour défendre l’hopital public, ont lâché une banderole flottante pendant un discours d’Emmanuel Macron et que la police a interpellées dans un domicile privé en expliquant avoir suivi leur trace par drone – avant de les relâcher après quatre heures, sans qu’elles ne soient poursuivies. Gérard Darmanin l’explique sans gêne dans le nouveau « schéma national du maintien de l’ordre » : les drones « sont utiles tant dans la conduite des opérations que dans la capacité d’identification des fauteurs de troubles ».
En second lieu, à ces attaques ciblées s’ajoute une approche plus collective. Le drone est l’outil idéal pour la gestion de flux déshumanisés propre à l’approche confrontationnelle. La position aérienne donne à voir concrètement ces « flux » et « liquides » que nous sommes devenus. Elle fait clairement apparaître les robinets et les écluses que la police peut actionner pour retenir, dévier ou faire écouler les flux humains : nasses, barricades, filtres, grenades, gaz. La stratégie d’épuisement des foules est bien délicate à mener sans vision d’ensemble, et c’est l’intérêt principal des drones que d’offrir cette vision.
Pire, avec une vision si haute et lointaine, les ordres du centre de commandement ne peuvent qu’être déconnectés des considérations humaines les plus élémentaires : bien souvent, les manifestants et les manifestantes ne sont plus que des points vus du dessus, dont la souffrance et la peur sont imperceptibles. Les conditions idéales sont réunies pour éviter que les donneurs d’ordre ne soient distraits par quelque empathie ou considération morale, pour que plus rien ne retienne la violence illégitime qui dissuadera les manifestants de revenir exercer leurs droits.
Interdiction de documenter l’action de la police
L’article 24 de la loi « sécurité globale » propose d’interdire au public de diffuser « l’image du visage ou tout autre élément d’identification d’un fonctionnaire de la police nationale ou d’un militaire de la gendarmerie nationale lorsqu’il agit dans le cadre d’une opération de police » et lorsque cette diffusion est faite « dans le but qu’il soit porté atteinte à son intégrité physique ou psychique ». Cette dernière précision vise à rassurer, mais ne soyons pas dupes : la police empêche déjà très régulièrement des personnes de la filmer alors qu’elles en ont parfaitement le droit. Cette nouvelle disposition ne pourra que rendre l’opposition de la police encore plus systématique et violente, peu importe le sens exact de la loi. De même, cette disposition sera à coup sûr instrumentalisée par la police pour exiger que les réseaux sociaux, petits ou grands, censurent toute image d’abus policiers, d’autant que le droit français rend ces plateformes responsables des images « manifestement illicites » qu’elles ne censureraient pas après signalement.
Il faut bien comprendre, ici encore, que si le maintien de l’ordre se faisait dans une approche de protection et d’apaisement, cette mesure serait parfaitement inutile. La population ne dénoncerait pas de policiers et n’en diffuserait pas l’image si la stratégie de maintien de l’ordre ne reposait pas sur la violence. Le seul objectif de cette disposition est de permettre à cette violence de perdurer tout en la rendant pratiquement incontestable.
Conclusion
Aucune de ces trois mesures ne serait utile dans une approche non-violente du maintien de l’ordre, dont l’objectif ne consisterait pas à combattre l’exercice légitime d’une liberté fondamentale mais bien de l’accompagner. A fortiori, ces mesures donneraient un pouvoir nouveau, dans un contexte où la contestation contre les violences policières grandit et où se fait criant le besoin de mécanismes démocratiques de contre-pouvoirs et de régulation du maintien de l’ordre.
Ce fourvoiement des députés LREM, avec la complicité du gouvernement et de leurs alliés de circonstance du centre traduit une déconnexion de certain·es parlementaires. Nous demandons à l’Assemblée nationale de supprimer ces articles et d’exiger — c’est aussi son rôle — du ministère de l’intérieur un changement radical de modèle dans le maintien de l’ordre.
";s:7:"dateiso";s:15:"20201029_164322";}s:15:"20201026_120640";a:7:{s:5:"title";s:55:"Drones en manifestation : La Quadrature contre-attaque";s:4:"link";s:93:"https://www.laquadrature.net/2020/10/26/drones-en-manifestation-la-quadrature-contre-attaque/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16307";s:7:"pubDate";s:31:"Mon, 26 Oct 2020 11:06:40 +0000";s:11:"description";s:239:"Nous venons de déposer un nouveau recours devant le tribunal administratif de Paris, en urgence, pour que la préfecture de police cesse sa surveillance par drones des manifestations. Alors que le Conseil d’État était clair…";s:7:"content";s:5336:"
Nous venons de déposer un nouveau recours devant le tribunal administratif de Paris, en urgence, pour que la préfecture de police cesse sa surveillance par drones des manifestations. Alors que le Conseil d’État était clair en mai dernier et déclarait illégale l’utilisation des drones par la police parisienne, celle-ci fait depuis mine de ne rien voir et continue aujourd’hui de déployer, à chaque manifestation, son arsenal de surveillance par drones. Il est temps d’y mettre fin, à nouveau.
En mai dernier, le Conseil d’État donnait raison à La Quadrature du Net en estimant que la surveillance par drones est interdite pour faire respecter les mesures restrictives du confinement. Bien au-delà de cas particuliers, ce sont des principes forts, s’appuyant sur un raisonnement général en matière de droit à la vie privée et de droit à la protection des données personnelles, qui ont été dégagés. Le Conseil d’État a ainsi estimé que l’usage de drones porte une atteinte particulière aux droits et libertés et que, en l’absence d’encadrement réglementaire, leur usage reste interdit.
Cette décision de justice n’a nullement gêné la préfecture de police. Grâce à votre aide précieuse, nous avons pu documenter l’usage policier actuel des drones pour surveiller les manifestations parisiennes tout au long de ces derniers mois et présenter photos et vidéos qui attestent que la police nationale et la gendarmerie utilisent de manière systématique les drones pour surveiller les manifestations.
Pourtant, la surveillance des manifestations est d’autant plus grave qu’il s’agit de moments d’expressions politiques. Comme nous l’analysions en 2019, la surveillance des manifestant·es à l’aide de technologies de reconnaissance faciale est également aujourd’hui déjà possible, depuis 2012. Le gouvernement, par la voix du ministre de l’intérieur Gérald Darmanin, ne se cache d’ailleurs pas que l’objectif de ces drones n’est pas seulement le maintien de l’ordre, mais bel et bien, in fine, d’identifier les personnes qui manifestent. Et le récent « Schéma national du maintien de l’ordre » ne fait que le confirmer.
Notre premier recours contre les drones avait été rendu possible grâce à un article de Mediapart dans lequel la préfecture de police détaillait fièrement son usage des drones. Depuis, cette dernière refuse systématiquement de répondre aux journalistes. Ce silence en dit long sur le malaise du côté de la police qui sait que son activité de surveillance est aujourd’hui purement illégale.
Il est important de relever un autre silence : celui de la CNIL. L’autorité affirmait pourtant en mai, pour sauver les apparences, s’intéresser à la question des drones alors que le Conseil d’État constatait déjà leur illégalité. Aujourd’hui, plus de cinq mois après ce commentaire, rien ne semble bouger du côté de l’autorité chargée de faire respecter le droit en matière de vie privée…
En parallèle, la détermination politique de renforcer le pouvoir de la police est plus que jamais présente : la récente proposition de loi « relative à la sécurité globale » prévoit déjà d’autoriser, de façon extrêmement large, les drones pour surveiller les manifestations et identifier les manifestant·es. Nous reviendrons dessus bientôt, mais espérons déjà qu’une nouvelle victoire devant les juges permettra de freiner le blanc-seing que le groupe LREM à l’Assemblée nationale veut donner à la police, et mettra fin à l’utilisation de ce dispositif de surveillance de masse.
";s:7:"dateiso";s:15:"20201026_120640";}s:15:"20201021_120518";a:7:{s:5:"title";s:116:"Menace de dissolution du CCIF : une inacceptable atteinte aux libertés associatives et à l’égalité des droits";s:4:"link";s:147:"https://www.laquadrature.net/2020/10/21/menace-de-dissolution-du-ccif-une-inacceptable-atteinte-aux-libertes-associatives-et-a-legalite-des-droits/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16286";s:7:"pubDate";s:31:"Wed, 21 Oct 2020 10:05:18 +0000";s:11:"description";s:114:"Associations, collectifs, avocat·es, universitaires et membres de la société civile, signataires de ce texte...";s:7:"content";s:4938:"
Dès 2015, La Quadrature du Net a eu l’occasion de travailler avec une poignée d’associations militantes, dont le CCIF, contre l’État d’urgence et ses nombreuses dérives. Elle signe aujourd’hui cet appel, rappelant le danger que fait peser sur les libertés – dans l’espace numériques et au-delà – la dissolution arbitraire d’organisations de la société civile.
Associations, collectifs, avocat·es, universitaires et membres de la société civile, signataires de ce texte, bouleversé.e.s et choqué.e.s par l’assassinat de Samuel Paty, expriment leur consternation et leur colère à la suite des déclarations du ministre de l’Intérieur, M. Gérald Darmanin, annonçant la volonté du gouvernement de dissoudre plusieurs associations, dont le Collectif Contre l’Islamophobie en France – CCIF, une structure avec laquelle nous collaborons régulièrement.
La contribution du CCIF au débat public sur la question des discriminations est incontestable. Le racisme et la stigmatisation des personnes musulmanes, ou considérées comme telles, est une réalité en France depuis des décennies. S’attaquer à une association de défense des droits de la minorité musulmane met en péril un combat plus que jamais nécessaire dans une société à la cohésion sociale fragilisée.
Le CCIF participe aux démarches inter-associatives de défense et de promotion des libertés et droit fondamentaux, comme c’est le cas dans le cadre du réseau « Anti-terrorisme, droits et libertés » dont il est membre ainsi que plusieurs signataires de ce texte. Le CCIF s’est également associé à plusieurs initiatives de la société civile mettant en garde contre les dérives de la mise en œuvre de l’état d’urgence sanitaire. Tout aussi légitime et essentielle est l’action que ce collectif mène au plan judiciaire pour lutter contre la banalisation des discours d’incitation à la haine raciale dans le débat public.
La dissolution administrative des associations par décret en Conseil des ministres, mesure qui existe en droit français depuis 1936, ne peut intervenir que lorsque de strictes conditions sont remplies, des conditions que le CCIF ne remplit pas. Sa dissolution s’apparenterait à une attaque politique contre une association dont l’action est essentiellement centrée autour de la lutte contre le racisme subi au quotidien par les musulman-es. L’action du CCIF dérange parce qu’elle révèle, ici et là, la manière dont notre société discrimine les personnes musulmanes. En cela, l’action du CCIF rejoint celle de toutes les associations de lutte contre les discriminations (origine, handicap, genre, orientation sexuelle, pauvreté…) dont l’action tend fatalement à remettre en cause les structures, règles et dispositifs majoritaires à raison des inégalités qu’ils créent.
La stratégie de stigmatisation choisie par le ministre de l’Intérieur est dangereuse puisqu’elle vise des personnes et des associations en raison de leur appartenance religieuse, réelle ou supposée, alors qu’elles n’ont aucun lien avec le terrorisme ou les discours haineux. Cette posture autoritaire bat en brèche des principes essentiels de l’État de droit, qui protègent contre les accusations collectives, les procédures abusives et non fondées sur des faits précis.
La dissolution arbitraire d’associations n’est une manière ni juste, ni efficace de défendre la liberté d’expression ou la sécurité collective. Seuls les fanatiques religieux et l’extrême droite ont quelque chose à gagner à cette dissolution ; l’État de droit a tout à y perdre.
Nous demandons au gouvernement de renoncer à la dissolution du CCIF, de respecter la liberté d’association et la liberté d’expression, inscrites dans la Constitution de notre République.
Signataires :
Associations : Action Droits des musulmans*, APPUII, Collectif « Les citoyens en alerte », La Quadrature du Net*, REAJI, Tous Migrants, VoxPublic*
Avocat.es : Me Asif Arif, Me Nabil Boudi*, Me Emmanuel Daoud*, Me Adelaïde Jacquin*, Me Jérôme Karsenti*, Me Raphaël Kempf*, Me Myriame Matari, Me Lucie Simon*, Me Stephen Suffern, Me Flor Tercero*
Universitaires : Marie-Laure Basilien-Gainche (Univ. Jean Moulin Lyon 3, membre honoraire de l’Institut Universitaire de France)*, Vanessa Codaccioni (Univ. Paris 8)*, Stéphanie Hennette-Vauchez (Univ. Paris Nanterre)*, Olga Mamoudy (Univ. Valenciennes)*, Sébastien Milleville (Univ. Grenoble-Alpes) Stéphanie Renard (Univ. Bretagne Sud), Julien Talpin (CNRS)
* = membres du Réseau antiterrorisme, droits et libertés.
";s:7:"dateiso";s:15:"20201021_120518";}s:15:"20201018_100014";a:7:{s:5:"title";s:47:"Dossier : Faire d’Internet un monde meilleur";s:4:"link";s:82:"https://www.laquadrature.net/2020/10/18/dossier-faire-dinternet-un-monde-meilleur/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16240";s:7:"pubDate";s:31:"Sun, 18 Oct 2020 08:00:14 +0000";s:11:"description";s:215:"L’an dernier, l’association Ritimo a proposé à La Quadrature du Net de rédiger un dossier de fond sur un sujet de notre choix. Le dossier complet est déjà disponible sur le site de Ritimo. De…";s:7:"content";s:4044:"
L’an dernier, l’association Ritimo a proposé à La Quadrature du Net de rédiger un dossier de fond sur un sujet de notre choix. Le dossier complet est déjà disponible sur le site de Ritimo. De notre côté, nous allons publier progressivement chacun des articles du dossier dans les semaines à venir. On commence ici avec l’introduction.
Au commencement, Internet était un espace d’expérimentation sans chef, nous étions libres de nous déplacer, de nous exprimer, d’inventer et de créer. Dans les années 2000, la sphère marchande s’est mise à y prendre de plus en plus de place. La publicité s’y est développée et s’est présentée comme un moyen de financer des services en ligne. Grâce aux données sur les utilisateurs de ces services, les méthodes de ciblage publicitaire ont évolué et ont séduit de plus en plus d’annonceurs. Ce nouveau marché de la publicité en ligne était bien trop obnubilé par sa rentabilité pour se préoccuper des droits des personnes vivant derrière ces données.
Dans le même temps, Internet restait un espace d’expression et prenait de plus en plus de place dans la société. Les États se sont inquiétés de cet espace grandissant sur lequel ils n’exerçaient pas un contrôle assez fort et ont commencé à chercher à mettre en place des mesures pour surveiller et réguler Internet. Lutte contre le partage d’œuvres couvertes par le droit d’auteur, lutte contre le terrorisme, la pédopornographie, les fausses informations, la « haine »… Tout est devenu prétexte à surveiller et à censurer ce qui circule sur Internet. Finalement, les technologies qui semblaient si émancipatrices à leurs débuts se sont trouvées être un parfait allié de la surveillance d’État. L’apprentissage statistique, cette méthode utilisée par l’industrie publicitaire consistant à rassembler de très grandes quantités de données pour établir des corrélations et cibler les personnes susceptibles d’être réceptives à une publicité, devient un outil fabuleux pour repérer des comportements inhabituels dans une foule, par exemple.
C’est ainsi que pour des motivations bien différentes, les États et les grosses entreprises du numérique ont trouvé dans les technologies développées ces vingt dernières années les leviers nécessaires pour augmenter leur emprise sur leurs citoyens ou leurs clients.
Le présent dossier proposé par La Quadrature du Net s’intéresse dans un premier temps aux mécanismes qui motivent les États et les entreprises à surveiller, censurer, voire manipuler la population. Les premiers articles détaillent l’impact de ces réductions de libertés, sur la société et sur les personnes, d’un point de vue politique et philosophique. Ils décrivent la mise en silo de la société à différents niveaux : de l’enfermement imposé par les géants du numérique à la stérilisation de nos rues et espaces publics imposée par l’accroissement de la surveillance.
Pour lutter contre cette mise sous surveillance de nos vies, La Quadrature entend remettre en question les réflexes de solutionnisme technologique vers lesquels les décideurs politiques tendent de plus en plus sans réflexions préalables. Pour construire un Internet plus respectueux des libertés, La Quadrature développe des alternatives politiques et présente les initiatives existantes. Construire cet Internet libre et émancipateur demande de remettre en question certains principes qui ont été imposés par les géants du web : des espaces clos, des règles pour limiter et contrôler le partage de la connaissance et de la création, etc.
C’est à ces perspectives optimistes qu’est consacrée la deuxième partie de ce dossier. Elle se veut aussi être un appel à imaginer cet « autre monde »…
";s:7:"dateiso";s:15:"20201018_100014";}s:15:"20201015_122803";a:7:{s:5:"title";s:78:"Le Sénat autorise Darmanin à nous surveiller en violation du droit européen";s:4:"link";s:116:"https://www.laquadrature.net/2020/10/15/le-senat-autorise-darmanin-a-nous-surveiller-en-violation-du-droit-europeen/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16262";s:7:"pubDate";s:31:"Thu, 15 Oct 2020 10:28:03 +0000";s:11:"description";s:269:"Hier, sur demande du ministère de l’Intérieur, le Sénat a autorisé les services de renseignement à conserver leurs « boites noires », alors même que ces dispositifs venaient d’être dénoncés par la Cour de justice de l’Union…";s:7:"content";s:5855:"
Hier, sur demande du ministère de l’Intérieur, le Sénat a autorisé les services de renseignement à conserver leurs « boites noires », alors même que ces dispositifs venaient d’être dénoncés par la Cour de justice de l’Union européenne.
Introduites par la loi de renseignement de 2015, les « boites noires » sont des dispositifs analysant de façon automatisée l’ensemble des communications circulant sur un point du réseau de télécommunications afin, soi-disant, de « révéler des menaces terroristes ». Cette surveillance de masse n’avait été initialement permisequ’à titre expérimental jusqu’à la fin de l’année 2018. Cette expérimentation avait été prolongée jusqu’à la fin de l’année 2020 par la loi antiterroriste de 2017.
Voyant la fin d’année arriver, le ministère de l’Intérieur a souhaité prolonger ses pouvoirs d’encore un an, par un projet de loi déposé le 17 juin dernier et que nous dénoncions déjà (le texte prolonge aussi les mesures de l’état d’urgence intégrées dans le droit commun par la loi SILT de 2017). Le 21 juillet, l’Assemblée nationale a adopté le projet de loi, et c’était au tour du Sénat de se prononcer.
Le 6 octobre, entre temps, un évènement majeur est intervenu et aurait dû entrainer la disparition immédiate de ce texte. La Cour de justice de l’Union européenne s’est prononcée sur la loi renseignement et nous a donné raison sur de nombreux points, notamment sur les boites noires.
La Cour a constaté que, en droit français, une « telle analyse automatisée s’applique de manière globale à l’ensemble des personnes faisant usage des moyens de communications électroniques » et que « les données faisant l’objet de l’analyse automatisée sont susceptibles de révéler la nature des informations consultées en ligne » (le gouvernement ayant avoué au cours de l’instruction que les boites noires analysent l’URL des sites visités). D’après la Cour, cette « ingérence particulièrement grave » ne saurait être admise qu’à titre exceptionnel « face à une menace grave pour la sécurité nationale qui s’avère réelle et actuelle ou prévisible », « pendant une période strictement limitée ». Enfin, les boites noires doivent faire « l’objet d’un contrôle effectif soit par une juridiction, soit par une entité administrative indépendante, dont la décision est dotée d’un effet contraignant ».
Les exigences de la Cour sont beaucoup moins strictes que celles que nous espérions obtenir en allant devant elle – nous voulions l’interdiction pure et simple de toute surveillance de masse. Il n’empêche que ses exigences sont bien plus strictes que celles du droit français. L’article L851-3 du code de la sécurité intérieure autorise les boites noires de façon générale et par principe, sans être conditionnée à la moindre « menace réelle et actuelle » – menace qu’on ne saurait identifier aujourd’hui, d’ailleurs. Le droit français n’encadre ces mesures dans aucune « période strictement limitée » mais les autorise au contraire depuis cinq ans de façon ininterrompue. Enfin, le contrôle des boites noires a été confié à la CNCTR qui, en droit, n’a aucun pouvoir contraignant.
Le droit français viole clairement le droit européen. La Cour de justice l’a déclaré sans ambigüité. En réaction, les sénateurs auraient dû refuser immédiatement et automatiquement la prolongation demandée par le ministère de l’intérieur. Ses boites noires sont illégales et, s’il tient vraiment à les maintenir, il n’a qu’à corriger sa loi.
Qu’ont fait les sénateurs ? Ils ont prolongé les boites noires pour une année entière au lieu des sept mois votés par l’Assemblée (sur les dispositifs de la loi SILT, les sénateurs ont carrément décidé de les pérenniser sans débat). Sinon, rien. Les pleins pouvoirs ont été reconduits dans les mains de Darmanin. Tant pis pour l’État de droit.
Le texte, examiné en lecture accélérée, va maintenant passer en commission mixte paritaire où l’Assemblée et le Sénat chercheront un compromis – qui ne s’annonce pas vraiment en faveur de nos libertés. Ensuite, tel que le ministre de l’intérieur l’a rappelé au Sénat, il proposera bientôt une nouvelle loi renseignement qui, entre autres choses, entend bien autoriser de façon pérenne les boites noires. La bataille sera ardue : commençons-la dès maintenant.
";s:7:"dateiso";s:15:"20201015_122803";}s:15:"20201010_110010";a:7:{s:5:"title";s:80:"« S’opposer à la 5G pour dire notre refus de l’informatique dominante »";s:4:"link";s:106:"https://www.laquadrature.net/2020/10/10/sopposer-a-la-5g-pour-dire-notre-refus-de-linformatique-dominante/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16199";s:7:"pubDate";s:31:"Sat, 10 Oct 2020 09:00:10 +0000";s:11:"description";s:225:"Tandis que La Quadrature du Net vient de publier sa position commune sur la 5G, nous entamons la publication d’une série de points de vue plus personnels. Suite à sa participation à une journée d’action…";s:7:"content";s:19224:"
Tandis que La Quadrature du Net vient de publier sa position commune sur la 5G, nous entamons la publication d’une série de points de vue plus personnels. Suite à sa participation à une journée d’action anti-5G le 19 septembre dernier, Félix Tréguer, membre du collectif, a réagi aux critiques qui s’étaient fait jour sur notre liste de discussion. Nous publions ici une version légèrement remaniée de ce texte partagé le le 24 septembre dernier.
Ma participation comme représentant de La Quadrature du Net à une journée de mobilisation contre la 5G à Lyon, samedi 19 septembre, a suscité des réactions nombreuses et pour le moins contrastées.
Parmi elles, des réactions assez hostiles, rageuses ou moqueuses, qui ont fait suite aux quelques éléments partagés sur les réseaux sociaux pour expliquer le sens ma participation. En prenant part à une table ronde et à un atelier organisés dans le cadre de cette journée, j’aurais donné – et La Quadrature du Net à travers moi – du crédit aux « obscurantistes », « dingos anti-ondes » et autres adeptes de la « fake science ». Or, s’il est vrai qu’on trouvait des textes relevant clairement de la désinformation scientifique sur certains des sites associés à cette journée, il serait trompeur et dangereux de la réduire à cela.
L’événement était organisé par plusieurs collectifs locaux (anti-5G, anti-Linky, anti-surinformatisation, écologistes) et couvrait les trois grandes catégories de critiques adressées à la 5G : aspects sanitaires, coût écologique et celle dont on parle beaucoup moins et pour laquelle nous étions justement invités, à savoir l’accentuation de la surveillance numérique. L’invitation à y intervenir m’a été faite par des gens du collectif stéphanois « Halte au contrôle numérique » qui ont pris une part active dans l’organisation de cette journée.
Nous nous sommes rencontrés l’hiver dernier dans le cadre d’une conférence organisée à Saint Étienne où j’étais venu parler de notre campagne Technopolice. Au sein de La Quadrature, on était plusieurs à avoir auparavant pu échanger avec des membres du collectif, et nous étions vraiment enthousiastes quant à leurs actions de terrain : chiffro-fêtes, projections et débats publics autours de documentaires, déambulations festives contre l’« atelier Google », travail d’information et de résistance au projet de capteurs sonores « intelligents » dans un quartier populaire du centre-ville de Saint Étienne, happening contre la réunion organisée (finalement annulée) par le député Jean-Michel Mis sur la reconnaissance faciale (où les participants étaient venus affublés d’un masque à son effigie). Bref, des militants aux parcours divers qui inventent des choses ensemble et obtiennent de belles victoires, et en qui l’on a spontanément confiance.
Alors certes, il y a dans la mouvance anti-Linky/anti-5G, des gens peu crédibles, en particulier parmi celles et ceux qui se mobilisent autour des risques associés aux champs électro-magnétiques (les « anti-ondes »). C’est regrettable, mais c’est un peu le problème inhérents aux espaces horizontaux dans des collectifs militants qui tâchent de s’ouvrir – un point de faiblesse classique des mouvements décentralisés comme l’est la mouvance anti-Linky (un autre exemple serait celui des Gilets Jaunes). Peut-on pour autant caricaturer l’ensemble du mouvement, voire même sa seule composante « anti-ondes », en le réduisant à ces gens-là ? Je ne crois pas.
Quand j’ai discuté de ma participation avec les autres membres de La Quadrature, le risque de s’associer à des groupes récusant les règles de la controverse scientifique et du débat de société a tout de suite été identifié. Mon avis, c’était qu’il fallait refuser cette caricature du mouvement dans son ensemble. Je trouvais vraiment dommage que, à quelques jours du lancement de la vente aux enchères des fréquences 5G, on s’interdise – au nom de la pureté militante et par peur des raccourcis, au prétexte qu’une des franges du mouvement serait « infréquentable » – d’exprimer notre solidarité. Alors même qu’on tombait d’accord au sein de La Quadrature sur la nécessité de nourrir nous aussi une critique de la 5G, je pensais qu’à partir de notre point de vue spécifique, nous pouvions revendiquer un objectif commun au sein d’une coalition ouverte et par nature hétérogène.
D’ailleurs, des alliances hétérogènes, La Quadrature en fait très régulièrement avec d’autres ONG inscrites dans notre champ, des partis politiques, des entreprises : on signe des lettres ouvertes écrites par d’autres malgré des nuances qui nous semblent parfois manquer, on assiste à des événements organisés par des gens que l’on n’apprécie guère, en rappelant souvent que notre participation ne vaut pas soutien (et avec comme ligne rouge de ne jamais laisser le moindre doute quant au fait que nous sommes un collectif anti-raciste, anti-sexiste, anti-homophobie, anti-transphobie, anti-fasciste…). Après tout, les âneries pseudo-scientifiques et les mensonges, on en entend également plein dans la bouche des promoteurs très en vue de la 5G sans que ça n’émeuve grand monde, et il y a là un regrettable deux poids, deux mesures.
Je ne veux vraiment pas m’attarder sur ce sujet, mais je trouve aussi qu’il y a quelque chose d’assez malsain dans l’agressivité opposée aux « anti-ondes ». Quand l’ANSES estime à 5% la part de personnes électro-sensibles, et quand bien même les scientifiques n’arrivent pas à établir de lien probant entre les ondes présentes dans notre environnement quotidien et ces symptômes, on ne peut pas, à mon sens, se moquer de la posture anti-ondes comme si « La Science » avait tranché ce débat une fois pour toutes. Certes, on ne doit pas nécessairement donner le bénéfice du doute aux anti-ondes, mais on sait aussi que la science n’est pour une grande part qu’une série de postulats que l’on n’a pas encore réussi à infirmer. On ne sait pas tout, et dès lors qu’il y a des choses non-élucidées sur des pathologies très largement observées, le doute scientifique et un sens élémentaire de l’empathie devraient nous inviter à une humilité compréhensive vis-à-vis de la souffrance de ces personnes, et à une écoute attentive lorsqu’elles expriment leur défiance vis-à-vis du fonctionnement des agences sanitaires et qu’elles documentent les conflits d’intérêt qui les entourent.
Mais bref. Je n’étais pas à Lyon pour ça. J’étais à Lyon pour dire que, depuis son positionnement spécifique, sans être d’accord sur tout ce qui s’était dit dans la journée, La Quadrature était solidaire de l’objectif affiché, à savoir faire obstacle au déploiement de la 5G. Avec nos raisons à nous, que j’ai personnellement résumé en ces termes sur les réseaux sociaux (ce qui, j’en conviens, n’était pas l’endroit adapté) :
Parce que, tout en constatant les affres de l’informatisation et l’échec global de nos luttes pour un Internet libre, on peut continuer à penser que le numérique pourrait avoir un visage bien différent, et que
manifestement la #5G nous éloigne toujours plus de cet horizon …
Parce que, à les lire, le futur que les promoteurs zélés de la #5G nous préparent, c’est l’accélération de presque tout ce qui déraille déjà dans la société numérique : société « sans contact », automatisation, déshumanisation.
Parce que la #5G, toujours à lire les industriels qui planchent dessus, c’est notamment la fuite en avant programmée de la société de surveillance : vidéosurveillance et autre gadgets de la #Technopolice, #IoT spywares, etc.
Parce que les discours des défenseurs de la #5G contribuent dores et déjà à instituer le monde-machine qu’ils fantasment, à le banaliser, à le rendre incontournable et désirable, à orienter les investissements et la R&D. Que, hélas, leur science fiction transforme notre réalité.
Parce que la #5G est une technologie technocratique et coûteuse, qu’elle est imposée par « en haut » en raison d’intérêts économiques et politiques dans lesquels nous ne nous retrouvons pas. Et qu’en dépit de tout cela, le pouvoir a l’audace de la présenter comme incontestable.
Je voudrais revenir un instant sur « l’échec global de nos luttes » que j’évoquais. Je crois en effet que l’activisme numérique – celui des logiciels libres, des réseaux libres, de la lutte contre la surveillance et la censure d’Internet – doit, tout en gardant l’expertise technique et juridique qui a fait sa force, se renouveler et s’ouvrir. Cela passe notamment par le fait de sortir de notre zone de confort pour nous ouvrir aux questionnements technocritiques et écologistes, de nous livrer à des alliances nouvelles capables de faire grossir nos luttes, de les rendre plus populaires, plus disséminées, en expérimentant de nouveaux modes d’action. C’est en substance ce qu’on expliquait il y a trois ans dans notre « revue stratégique » et c’est bien ce qu’on essaie de faire à notre petite échelle, par exemple avec la campagne Technopolice. Or, c’est aussi cela que permet l’opposition à la 5G.
Alors oui, on est d’accord : il n’y a rien d’intrinsèque ni même de très spécifique à la 5G dans les arguments évoqués ci-dessus. Ces problèmes, ce sont pour l’essentiel ceux du processus d’informatisation dans son ensemble, et ceux des technosciences en général. La 5G n’est qu’une couche de plus sur un substrat déjà bien moisi. Mais – et c’est là que je veux en venir – s’opposer à son déploiement, c’est aussi une manière de tenter de se ménager des marges de manœuvre dans nos luttes, en tâchant d’éviter que la situation ne s’empire. En conclusion de la contre-histoire d’Internet que j’ai publié l’an dernier, j’avais résumé les choses comme ça :
Près de quarante ans [après le début du processus d’informatisation], tandis que la « gouvernance par les données » sert de nouveau mode de gouvernement, que les protections juridiques associées à l’État de droit sont tendanciellement dépassées, la technologie informatique continue sa « marche en avant » au service du pouvoir. Un tel constat doit nous interroger : et si, en nous en tenant aujourd’hui à des approches éthiques, juridiques, technologiques ou organisationnelles pour tenter de corriger les pires aspects des technologies modernes, nous ne faisions qu’acter notre propre impuissance ? Cette interrogation fait directement écho à Foucault, et à la question stratégique centrale évoquée dans ses écrits sur les liens entre pouvoir et « capacités » (où il mentionne expressément les capacités [technologiques] associées aux « techniques de communication ») : « Comment déconnecter la croissance des capacités et l’intensification des relations de pouvoir ? » (…).
Malgré les espoirs des premiers hackers et autres pionniers quant aux possibilités ouvertes par la micro-informatique, ce découplage entre pouvoir et technologie se fait toujours grandement désirer. L’informatique prolifère désormais dans nos foyers, sur nos corps, et dans l’espace public urbain où notre capacité à nous rassembler a historiquement constitué une des modalités de contestation les plus efficaces. À l’heure où le Big Data et l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, un tel découplage entre pouvoir et informatique paraît moins probable que jamais. Et si l’on admet qu’il n’adviendra pas dans un futur proche, alors il est urgent d’articuler les stratégies classiques à un refus plus radical opposé à l’informatisation du monde.
Il se trouve que, dans notre société, le refus collectif d’une technologie, c’est presque de l’ordre du blasphème. Sébastien Soriano, le président de l’Arcep, a beau dire « #Parlons5G », il est lui aussi très clair sur le fait que la 5G se fera (ou, pour le citer, que « la France ouvrira pourtant la voie à la 5G »). Ou l’art de la concision pour illustrer la profonde inanité de la « démocratie technique » que les institutions prétendent mettre en œuvre, que ce soit d’ailleurs sur la 5G, la reconnaissance faciale ou l’intelligence artificielle : des pseudo-consultations où le principal objectif pour le pouvoir est d’assurer « l’acceptabilité sociale » de ces technologies.
Cela fait plus de dix ans que je participe à La Quadrature du Net et je peux vous dire qu’on en a fait des débats, des rapports, des réponses à des consultations, des communiqués pour dénoncer ou proposer. On en a déposé beaucoup, des amendements et des recours pour tenter de promouvoir une informatique à échelle humaine, qui ne soit pas toute entière construite contre nos droits. Et même si je continue de penser que le travail que nous faisons est utile et nécessaire, nos quelques victoires ne changent rien au fait que l’on perd chaque jour du terrain ; que l’informatique dominante surveille, domine, automatise, déshumanise ; qu’elle est très coûteuse en ressources. Quant aux artisans de l’Internet décentralisé et émancipateur, ils tiennent bon, mais les politiques publiques les relèguent toujours plus loin aux marges de l’économie numérique.
La Quadrature est d’autant plus fondée à s’opposer aujourd’hui à la 5G que, depuis dix ans, une partie de notre action – souvent restée inaperçue il faut bien le dire – a porté sur les politiques du secteur télécom, notamment s’agissant du spectre radio-électrique. En mai 2011, nous revendiquions la libération de l’accès aux fréquences pour favoriser le développement de réseaux télécoms suivant la logique des biens communs – soit l’exact inverse des mises aux enchères prisées dans le secteur depuis les années 1990. L’année suivante, nous avions dénoncé la vente par l’État des fréquences dévolues à la 4G. Plus récemment, en lien avec le projet de recherche européen netCommons, La Quadrature s’est aussi battue aux côtés des opérateurs télécoms associatifs de la Fédération FDN et de nombreux autres réseaux communautaires à travers le monde pour porter une revendication simple : démocratiser les télécoms. Nous avons même obtenu quelques avancées, à la fois modestes et historiques. Inscrites dans le code européen des télécommunications adopté fin 2018, elles se heurtent aujourd’hui à l’indifférence totale des responsables publics.
Convenons au moins de ça : le déploiement de la 5G ne nous rapprochera pas d’un iota de nos objectifs. Les gains en puissance de calcul, en capacités de stockage, ou comme en l’espèce en vitesses de transmission et de latence, ont essentiellement pour effet de renforcer l’informatique de contrôle que l’on est censés combattre. La 5G présente des risques importants pour la neutralité du Net. Il est très clair qu’elle ne bénéficiera nullement aux hébergeurs alternatifs comme Framasoft et ses CHATONS, ni aux opérateurs de la Fédération FDN. Tout porte à croire qu’elle fera en revanche les choux gras des multinationales qui dominent déjà le secteur – de Google à Netflix en passant par Thales – et des alliances public-privé formées pour nous surveiller et nous administrer.
Affirmer collectivement notre refus de l’informatique dominante, c’est aussi ça le sens de l’opposition à la 5G. Alors soit : notre opposition ne porte pas tant sur un protocole que sur la logique qui le produit et qu’il reproduit, à savoir l’informatisation de tout au travers de choix arbitrés technocratiquement, au mépris des droits et de la démocratie. La 5G n’est qu’un des symptômes d’un problème bien plus large. Mais en attendant que le monde change, en attendant qu’il produise des techniques en accord avec nos valeurs politiques, elle est un très bon moyen de contester l’innovation technologique en revendiquant le droit d’appuyer sur la touche « STOP ».
Tout ça pour vous dire que je n’ai aucun regret à être allé à cette journée.
";s:7:"dateiso";s:15:"20201010_110010";}s:15:"20201009_170537";a:7:{s:5:"title";s:25:"Brisons le totem de la 5G";s:4:"link";s:66:"https://www.laquadrature.net/2020/10/09/brisons-le-totem-de-la-5g/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16188";s:7:"pubDate";s:31:"Fri, 09 Oct 2020 15:05:37 +0000";s:11:"description";s:233:"La Quadrature du Net refuse le futur promis par les promoteurs de la 5G.
Nous refusons le rêve d’Ericsson pour qui la 5G ouvrira à la « smart surveillance » un marché de 47 milliards de dollars d’ici…";s:7:"content";s:3156:"
La Quadrature du Net refuse le futur promis par les promoteurs de la 5G.
Nous refusons le rêve d’Ericsson pour qui la 5G ouvrira à la « smart surveillance » un marché de 47 milliards de dollars d’ici 2026. Nous refusons que la vidéosurveillance puisse représenter le marché le plus important des objets connectés permis par la 5G, estimé à 70% en 2020, puis 32% en 2023. Nous refusons le fantasme sécuritaire dans lequel « l’obtention d’image d’une très haute qualité ouvre la voie à l’analyse intelligente de la vidéo via l’IA ». Nous refusons l’ambition de l’ancien employé de Safran, Cédric O, de procéder au déploiement de la 5G quoi qu’il en coûte.
Peu importe que ces promesses soient crédibles ou non, nous mettons en garde contre ce qu’elles représentent. Elles sont le rappel, fait par une industrie techno-sécuritaire qui n’existe que pour elle-même et impose partout son agenda, que nous n’avons jamais eu notre mot à dire sur ces grands programmes industriels ; que cette industrie et ses relais au sein de l’État s’arrogent le droit de nous contrôler au travers de leurs innombrables gadgets, quitte à participer à la ruine de ce monde ; quitte à risquer ce qu’il nous reste d’humanité.
Si l’industrie de la surveillance a fait de la 5G le totem de son monde fantasmé, il nous faut briser ce totem. Nous l’affirmons avec d’autant plus de détermination que nous savons que les politiques en matière de télécoms pourraient avoir un visage bien différent, que les réseaux télécoms pourraient être faits pour les gens et par les gens. Partout en Europe et dans le monde, des alternatives existent. Elles se heurtent malheureusement à l’indifférence coupable et intéressée des gouvernants.
À La Quadrature, les débats sur la 5G ont commencé il y a déjà quelques temps et sont parfois très animés. Au delà de la position commune affichée ici, nous prévoyons de publier différentes tribunes qui seront recensées ci-dessous afin de donner à voir les nuances dans nos positionnements.
";s:7:"dateiso";s:15:"20201009_170537";}s:15:"20201008_185003";a:7:{s:5:"title";s:52:"La censure de l’art pour banaliser la surveillance";s:4:"link";s:90:"https://www.laquadrature.net/2020/10/08/la-censure-de-lart-pour-banaliser-la-surveillance/";s:4:"guid";s:0:"";s:7:"pubDate";s:31:"Thu, 08 Oct 2020 16:50:03 +0000";s:11:"description";s:261:"La Quadrature du Net s’inquiète de la censure par le Studio national d’arts contemporains Le Fresnoy, à Tourcoing, de l’artiste Paolo Cirio, suite à une intervention du ministre de l’intérieur Gérald Darmanin, et de syndicats…";s:7:"content";s:4046:"
La Quadrature du Net s’inquiète de la censure par le Studio national d’arts contemporains Le Fresnoy, à Tourcoing, de l’artiste Paolo Cirio, suite à une intervention du ministre de l’intérieur Gérald Darmanin, et de syndicats de policiers, qui demandait dans un tweet la déprogrammation de son exposition « Capture », au motif que celle-ci serait une « mise au pilori » des policiers. En France, l’expression est libre, et le fait que l’art questionne de manière tout à fait légale l’arrivée de la reconnaissance faciale dans la société européenne ne devrait en aucun cas devenir une raison de censurer une telle exposition.
Le 1er octobre, Paolo Cirio, artiste contemporain, lançait un site web, capture-police.com pour annoncer une une exposition au Fresnoy à partir du 15 octobre, portant sur l’importance du débat européen sur la reconnaissance faciale. « L’exposition Capture est constituée de visages d’officiers de police français. L’artiste a collecté 1000 images publiques de policiers prises durant des manifestations en France. Capture commente l’usage et le mésusage potentiel de technologies d’intelligence artificielle et de reconnaissance faciale en questionnant les jeux d’asymétrie du pouvoir. Le manque de règles de respect de la vie privée de ce type de technologie finit par se retourner contre les mêmes autorités qui invitaient à son utilisation » L’exposition ainsi que le site web sont donc tout à fait licites de notre point de vue, la zone de saisie d’un nom sous chacun image de policier étant en réalité inactive, et ne collectant donc aucune données. L’exposition pose pourtant de manière originale et forte la question de l’arrivée de technologies de reconnaissance faciale dans la société.
Le même jour, le ministre de l’intérieur s’offusquait publiquement et menaçait l’artiste de poursuites. Le lendemain, le syndicat de police Synergie publiait une lettre du studio d’arts contemporain Le Fresnoy annonçant l’annulation de l’exposition, annulation dont l’artiste n’était à cette heure pas encore prévenu ! La pression à la fois du ministre de l’intérieur et d’un syndicat de police sur une exposition d’art contemporain démontre l’asymétrie des pouvoirs que l’exposition comptait précisément mettre en lumière : le gouvernement ne défend la vie privée que de la police, tandis que cette même police a déjà enregistré la photo de 8 millions de personnes dans le fichier de traitement des antécédents judiciaires (voir notre analyse) et se permet d’analyser illégalement ces images par reconnaissance faciale (nous avons contesté ce pouvoir en justice).
« Nous demandons depuis longtemps l’interdiction des technologies de reconnaissance faciale dans l’espace public tant au niveau du droit français que du droit européen. Gérald Darmanin montre à nouveau ses ambitions autoritaires et son mépris des principes démocratiques, faisant pression sur un artiste, qui ne souhaitait qu’apporter dans l’espace public un débat légitime : faut-il autoriser des technologies liberticides dans l’espace public ? » réagit Benjamin Sonntag, membre de la Quadrature du Net.
";s:7:"dateiso";s:15:"20201008_185003";}s:15:"20201006_153420";a:7:{s:5:"title";s:40:"Surveillance : une défaite victorieuse";s:4:"link";s:77:"https://www.laquadrature.net/2020/10/06/surveillance-une-defaite-victorieuse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16157";s:7:"pubDate";s:31:"Tue, 06 Oct 2020 13:34:20 +0000";s:11:"description";s:267:"Premier communiqué de presse à chaud
La Cour de justice de l’Union européenne (CJUE) vient de rendre une décision très attendue en matière de surveillance. Depuis près de quinze ans, l’État français imposait aux fournisseurs d’accès…";s:7:"content";s:2810:"
Premier communiqué de presse à chaud
La Cour de justice de l’Union européenne (CJUE) vient de rendre une décision très attendue en matière de surveillance. Depuis près de quinze ans, l’État français imposait aux fournisseurs d’accès à Internet et de téléphonie de conserver les données de connexion de l’ensemble de la population (qui parle à qui, quand, d’où). La Quadrature du Net, aux côtés de FDN, FFDN et Igwan.net, contestait devant les juridictions de l’UE la légalité du droit français en la matière.
Une première lecture rapide nous laisse penser qu’il s’agit d’une défaite victorieuse. En effet, si la Cour affirme que la France ne peut plus imposer cette conservation généralisée des données de connexion, elle fait apparaître un certain nombre de régimes d’exception importants. Cette décision est une défaite au sens où ces exceptions réduisent la protection de la vie privée et conduiront inévitablement à des abus, que nous détaillerons plus tard.
Cependant, aussi décevant soit-il, l’arrêt de ce matin dessine un cadre juridique qui est beaucoup plus protecteur des libertés et de la vie privée que l’état actuel du droit français. Par exemple, si l’État peut toujours obliger les fournisseurs d’accès à Internet à conserver les adresses IP de toute la population, ces adresses ne peuvent plus être utilisées que dans le cadre des enquêtes sur la criminalité grave ou dans les affaires de sécurité nationale (notamment, de terrorisme). Autre victoire importante, les hébergeurs de sites web ne peuvent plus être contraints par la loi à surveiller pour le compte de l’État l’ensemble de leurs utilisateurs, en gardant en mémoire qui publie quoi, avec quelle adresse IP, quand, etc.
Le droit français se retrouve ainsi en contradiction flagrante avec la décision de la CJUE : le principe de conservation généralisée est refusé par la Cour alors qu’il est la règle en droit français. La Cour acte que les mécanismes français de contrôle des services de renseignement ne sont pas suffisants, et nous veillerons lors de la réforme annoncée du droit français à ce que les garde-fous nécessaires soient renforcés.
Cet arrêt, de 85 pages, nécessitera une longue et minutieuse analyse dans les semaines et les mois à venir.
";s:7:"dateiso";s:15:"20201006_153420";}s:15:"20201005_093828";a:7:{s:5:"title";s:38:"Le déguisement des trackers par Cname";s:4:"link";s:78:"https://www.laquadrature.net/2020/10/05/le-deguisement-des-trackers-par-cname/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16142";s:7:"pubDate";s:31:"Mon, 05 Oct 2020 07:38:28 +0000";s:11:"description";s:295:"
Aujourd’hui, nous allons vous expliquer comment marche, à quoi sert, et quelles sont les conséquences du « Cname Cloaking » ou « déguisement par Cname », une technique désormais utilisée par les sociétés de publicité, marketing et surveillance ou…";s:7:"content";s:28492:"
Aujourd’hui, nous allons vous expliquer comment marche, à quoi sert, et quelles sont les conséquences du « Cname Cloaking » ou « déguisement par Cname », une technique désormais utilisée par les sociétés de publicité, marketing et surveillance ou suivi des internautes pour outrepasser la protection des systèmes anti pub ou anti tracking comme uBlock origin, Adblock et autres
Le tracking / suivi des internautes, c’est quoi ?
Les sites de media les plus visités (par exemple lemonde.fr, lefigaro.fr, mais aussi des sites comme marmiton.org ou leboncoin.fr) faisant beaucoup de visites, ils veulent pouvoir monétiser le fait que de nombreux internautes viennent sur leur pages web, et en profiter pour afficher de la publicité autour des contenus qu’ils publient, ce qui permet de financer tout ou partie de leur entreprise.
Ces sites ont donc peu à peu ajouté plein de contenus externes à leur page web, des contenus venant d’autres entreprises, soit pour afficher de la publicité, pour collecter des statistiques de visite, ou pour suivre des internautes d’un site à l’autre et ainsi créer des profiles précis, permettant de leur afficher des publicités plus ciblées, donc supposément plus efficaces, donc qui rapporteraient plus.
On appellera donc « tracking » tout contenu d’un site web qui n’est pas géré par la boite produisant ce site, mais qui vient d’un tiers, et dont le but est une de ces 3 finalités : statistiques, affichage publicitaire, création de profil consommateur. Notez que parfois un contenu tiers rentre dans plusieurs de ces catégories en même temps.
Prenons un exemple. Si je vais sur lefigaro.fr, mon navigateur reçoit une page web qui est constituée d’un documentprincipal (la page web), ainsi que des fichiers supplémentaires, fournis par lefigaro (ou parfois par un tiers pour des questions d’optimisation) qui permettent d’afficher des images, des animations, une police de caractère, une jolie mise en page etc.
Ensuite, tout un tas de trackers sont chargés, servis par divers tiers, ici on trouve du criteo, du brightcove, appnexus, taboola. On les voit en rouge dans cette vidéo, car mon bloqueur de pub, uBlock Origin, empêche leur chargement dans la page.
On voit qu’une fois la page chargée, mon navigateur a fait 94 requêtes pour un total de 1.2 méga-octets transférés. Si on charge la même page sans bloqueur de pub, on voit mon navigateur faire pas moins de 650 requêtes pour un total de 10.5 méga-octets ! On comprend donc facilement pourquoi les internautes veulent utiliser un adblocker : cela fait économiser beaucoup de temps, de puissance machine pour télécharger, décoder et afficher ces éléments inutiles, ainsi que de bande passante (Dans la consommation de ressource du numérique, je n’ai jamais vu d’étude sérieuse prenant en compte cette surcharge du fait de la surveillance, du suivi, de la pub, des statistiques… alors qu’on le voit, cela pèse parfois très lourd !)
Ce que l’on a donc appris, c’est qu’il y a de nombreuses entreprises tierces chargées d’afficher de la publicité, fournir des statistiques ou suivre les internautes d’un site à l’autre pour tenter de les profiler et vendre la publicité plus cher. Ce que l’on voit aussi, c’est que ces éléments de pages sont sur des noms de domaine distincts, les rendant facilement identifiable par un bloqueur de pub, ce qui permet leur blocage.
Le Cname Cloaking, c’est quoi ?
Afin de contrer la présence de plus en plus importante de logiciel de blocage de publicité, les entreprises de tracking ont trouvé une manière détournée de pouvoir nous suivre quand même : le Cname Cloaking. Le principe technique est assez simple : au lieu de fournir les outils de tracking via une adresse située sur un nom de domaine identifiable (comme criteo.com ou eulerian.com), le site web souhaitant surveiller l’utilisateur crée un sous-domaine de son domaine principal, qui pointe chez le fournisseur de tracking.
Petit point technique : sur Internet, on utilise un service, nommé le DNS, qui permet de savoir où est situé sur Internet un nom de domaine donné. Par exemple, utilisant le DNS, je peux savoir que sonntag.fr est à l’adresse IP (qui est l’équivalent sur Internet des adresses postales) 91.194.60.2. Ainsi chaque éditeur de site ou fournisseur a une ou plusieurs Adresses IP où il héberge ses infrastructures.
On va prendre pour notre exemple le domaine 01net.com, qui utilise le Cname Cloaking à ce jour.
Si je me rends sur 01net.com, je constate l’utilisation d’un sous-domaine « 5ijo.01net.com » qui pointe vers l’adresse IP 109.232.197.179 appartenant non pas à 01net, mais à Eulerian !
La méthode proposée est malgré tout peu pratique parce que l’adresse IP du fournisseur de tracking est susceptible de changer, le propriétaire du site web ne crée donc pas un pointage DNS direct depuis son nom (ici 5ijo.01net.com) vers l’adresse IP de son prestataire tracker, mais crée un sous-domaine de type Cname, appelé aussi Alias en français, qui pointe vers un autre domaine, qui lui pourra enfin pointer vers l’adresse IP finale.
Si je regarde en détail où pointe notre exemple sur Internet, je constate que 5ijo.01net.com est un Cname ou alias vers 01net.eulerian.net. Qui est lui-meme un alias vers atc.eulerian.net, qui enfin pointe vers l’adresse IP que notre navigateur devrait joindre.
Ainsi, Eulerian peut choisir de changer l’adresse IP cible en toute autonomie. Et 01net.com trompe les internautes en leur faisant croire qu’ils téléchargent un contenu du site 01net.com, alors que leur navigateur est en train de télécharger un script de tracking chez Eulerian… Cette technique, utilisant un Cname DNS pour cacher le nom du véritable fournisseur de tracking est donc nommée « Cname Cloaking » ou « Déguisement par Cname ».
Ce faisant, et pendant quelques mois, les outils de protection contre le pistage comme uBlock Origin ont été trompé et laissaient passer ces appels à Eulerian qui pouvaient donc nous traquer en toute discrétion. Je vous rassure, c’est corrigé depuis, et uBlock empêche bien ce genre d’usage.
On peut donc déjà affirmer que cette technique est en soi une rupture de confiance entre l’internaute qui vient visiter un site, et le site éditeur. Mais pire, cela peut poser, et pose, un problème grave de sécurité !
Quel problème de sécurité pose le Cname Cloaking ?
Disposer d’un sous-domaine de son domaine pointant chez un tiers est un gros problème de sécurité. Pourquoi ? Parce que les cookies, ces petits blocs de données échangés entre un éditeur de site web et votre navigateur, peuvent être partagés au sein d’un même nom de domaine.
Un cookie est une donnée envoyée par un site web à un navigateur, qui est ensuite renvoyée par le navigateur au site web pour toutes les pages suivantes consultées par le même navigateur sur le même nom de domaine. Cela permet par exemple de rester authentifié dans un espace privé, pour l’abonnementà un site restreint, l’accès à une messagerie etc.
Ainsi, si 01net.com envoie à mon navigateur un cookie, ce dernier sera renvoyé par le navigateur pour toute page située sur www.01net.com, mais aussi sur 5ijo.01net.com !
Or, ces cookies sont souvent liés à des informations personnelles : identifiant unique d’un internaute, accès à son compte dans un espace privé, gestion d’abonnement etc.
Pire : les journalistes de 01net se connectent probablement au site pour en modifier le contenu via le nom de domaine 01net.com lui-même. Dans ce cas, leur cookie, qui les identifie en tant que journaliste autorisé à publier sur le site, est partagé avec Eulerian ! Il faut donc une confiance très forte dans les tiers concernés par les pages utilisant le Cname Cloaking ! Et pire qu’une confiance dans ces tiers, il faut une totale confiance dans la sécurité des sites de ces tiers, ainsi qu’une confiance dans l’ensemble des salariés et prestataires travaillant pour ces tiers et disposant d’accès aux serveurs.
En clair, l’utilisation du Cname Cloaking peut s’avérer devenir une véritable faille de sécurité qui pourrait permettre des fuites de cookie liés à des informations personnelles soit d’internautes connectés au site, soit des propriétaires et éditeurs du site lui-même !
Conclusion ?
On a donc découvert comment le Cname Cloaking permet à des éditeurs de site web de vous traquer sans vous le dire, et de la manière la plus discrète possible, au risque de faire fuiter de nombreuses données personnelles, tant des internautes que des employés ou journalistes du site web concerné ! Cette technologie a été très utilisée il y a quelques années mais semble l’être moins aujourd’hui (par exemple, libération l’utilisait il y a quelques mois, avec le sous-domaine f7ds.liberation.fr, encore visible dans le DNS, mais je n’ai pas trouvé trace sur leur site de l’utilisation de ce sous-domaine à ce jour.)
Cependant, je ne pense pas que l’utilisation d’une telle bidouille soit en soi un problème juridique, c’est plutôt à mon avis le manque flagrant de respect du consentement des internautes obtenu librement, qui devrait donner lieu à de lourdes sanctions. Les sites que nous avions pu voir utiliser ce type de technologie par le passé étant encore, à ce jour, dans une totale illégalité dans leur respect du RGPD, règlement européen censé protéger les internautes contre l’usage abusif et non consenti de leurs données personnelles, règlement pour lequel la CNIL n’a à ce jour, puni personne de manière significative.
En conclusion, je me contenterai de vous préconiser d’installer, si ce n’est pas déjà fait, un bloqueur de publicité et de tracking sur votre navigateur web. Personnellement je recommande uBlock Origin pour Firefox, (ou pour chrome) qui a toujours été de confiance et d’excellente qualité. Mieux : si vous utilisez déjà un bloqueur de pub, invitez vos familles et amis à faire de même, assurez-vous que toutes et tous soient ainsi bien protégés !
De plus, uBlock origin s’installe très bien sur un navigateur Firefox pour mobile. Sur mon Android, j’ai ainsi pu installer Firefox Mobile, et y ai ajouté uBlock origin pour me protéger du gros des publicités et économiser beaucoup de batterie et de bande passante sur mon forfait 4G !Rendez-vous sur https://bloquelapub.net/ pour en savoir plus
";s:7:"dateiso";s:15:"20201005_093828";}s:15:"20201004_192225";a:7:{s:5:"title";s:71:"[Franceinter.Fr] La reconnaissance faciale se met en place à bas bruit";s:4:"link";s:109:"https://www.laquadrature.net/2020/10/04/franceinter-fr-la-reconnaissance-faciale-se-met-en-place-a-bas-bruit/";s:4:"guid";s:109:"https://www.laquadrature.net/2020/10/04/franceinter-fr-la-reconnaissance-faciale-se-met-en-place-a-bas-bruit/";s:7:"pubDate";s:31:"Sun, 04 Oct 2020 17:22:25 +0000";s:11:"description";s:251:"Interdite sur la voie publique en France, la reconnaissance faciale en temps réel fait malgré tout son chemin. Plusieurs municipalités testent des dispositifs qui s’en rapprochent, avant sa possible autorisation pour les Jeux olympiques de…";s:7:"content";s:2124:"
Interdite sur la voie publique en France, la reconnaissance faciale en temps réel fait malgré tout son chemin. Plusieurs municipalités testent des dispositifs qui s’en rapprochent, avant sa possible autorisation pour les Jeux olympiques de Paris en 2024. […]
À Marseille (Bouches-du-Rhône), la Cannebière est équipée d’une cinquantaine de caméras intelligentes. Elles ne reconnaissent pas formellement les gens, mais identifient des situations bien précises. « Ce projet a été mis en place 2019, détaille Felix Treguer, membre fondateur de l’association La Quadrature du net. Un algorithme d’analyse automatisée reconnaît des comportements et des événements suspects, et déclenche automatiquement des alertes et des suivis dans le centre de supervision. »
Concrètement, il s’agit de repérer des objets abandonnés, des individus au sol, des taggeurs ou de la destruction de mobilier urbain. « Une fois que les caméras ont filmé et que les vidéos sont archivées, la police peut utiliser des filtres, complète Martin Drago, juriste pour La Quadrature du net, c’est-à-dire repérer des visages ou des silhouettes, pour identifier les personnes. » […]
NDLRP – Le teaser vidéo de cette enquête radiophonique et écrite est à retrouver aussi sur le Peertube de La Quadrature du Net :
";s:7:"dateiso";s:15:"20201004_192225";}s:15:"20200922_155455";a:7:{s:5:"title";s:42:"La loi Avia revient par la porte de l’UE";s:4:"link";s:50:"https://www.laquadrature.net/2020/09/22/aviasback/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16118";s:7:"pubDate";s:31:"Tue, 22 Sep 2020 13:54:55 +0000";s:11:"description";s:226:"Le 25 juin, une semaine après que la loi Avia a été sévèrement censurée par le Conseil constitutionnel, le gouvernement français a demandé à la Commission européenne de faire adopter au niveau européen ce que…";s:7:"content";s:4354:"
Le 25 juin, une semaine après que la loi Avia a été sévèrement censurée par le Conseil constitutionnel, le gouvernement français a demandé à la Commission européenne de faire adopter au niveau européen ce que la Constitution l’empêchait d’adopter en France.
Contre la « haine »
Le gouvernement français demande une nouvelle loi européenne pour « contraindre les plateformes à retirer promptement les contenus manifestement illicites » via « des obligations de moyens sous le contrôle d’un régulateur indépendant qui définirait des recommandations contraignantes relatives à ces obligations et sanctionnerait les éventuels manquements ». Cette demande est le strict reflet de la loi Avia : son délai de 24h, ses pleins pouvoirs donnés au CSA. La France demande de faire censurer « non seulement les contenus illicites, mais aussi d’autres types de contenus tels que les contenus préjudiciables non illicites […] par exemple, les contenus pornographiques [ou] les contenus de désinformation ».
Cette demande intervient dans le cadre du débat législatif à venir sur le Digital Service Act dont vous nous parlions il y a peu : ce futur texte européen pourrait permettre à la France d’imposer au niveau européen une censure qu’elle a échoué à faire adopter au niveau national. Cette séquence législative ne débutera néanmoins pas immédiatement et ne portera que sur une partie de la loi Avia – la partie qui prétendait lutter contre les « contenus haineux ».
Contre le « terrorisme »
Il ne faut pas oublier que la loi Avia prévoyait dans une seconde partie, à côté de celle prévue pour les contenus haineux, un autre type de censure, plus grave encore : confier à la police le pouvoir de censurer en une heure tout contenu qu’elle qualifierait seule – sans juge – de terroriste. Comme nous l’avons déjà expliqué, nous y voyons le risque d’un large dévoiement contre les opposants politiques du gouvernement. Heureusement, en juin dernier, le Conseil constitutionnel n’a pas hésité à censurer un pouvoir si dangereux. Là encore, ce que Macron n’a pu imposer en France, il tente de l’imposer par la porte de l’UE. Et il le fait avec bien plus d’empressement que pour la censure en matière de lutte contre la « haine ».
Depuis deux ans déjà, le gouvernement défend un règlement de « lutte contre les contenus terroristes » pour imposer cette censure en une heure et sans juge, partout dans l’UE. Néanmoins, cette idée rencontre, en Europe aussi, de nombreuses oppositions (voir notre bilan des débats au Parlement européen), de sorte que le texte était en train de s’embourber depuis des mois dans des négociations indécises entre le Parlement européen et les États membres. Toutefois, après sa défaite au Conseil constitutionnel, le gouvernement français est revenu de plus bel : ce règlement pourrait bien être sa dernière carte à jouer pour placer sa police en contrôleur du Web français et européen.
Nous opposerons contre ce projet la même force que nous avons déjà déployée, et ce autant de fois qu’il le faudra.
";s:7:"dateiso";s:15:"20200922_155455";}s:15:"20200922_112930";a:7:{s:5:"title";s:75:"Nous soutenons la pétition pour bannir la reconnaissance faciale en Europe";s:4:"link";s:115:"https://www.laquadrature.net/2020/09/22/nous-soutenons-la-petition-pour-bannir-la-reconnaissance-faciale-en-europe/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16111";s:7:"pubDate";s:31:"Tue, 22 Sep 2020 09:29:30 +0000";s:11:"description";s:270:"Nous republions ici le texte de la pétition rédigée par l’artiste et militant Paolo Cirio et appelant à l’interdiction permanente de la reconnaissance faciale utilisée pour l’identification et le profilage dans toute l’Europe. Le site…";s:7:"content";s:29297:"
Nous republions ici le texte de la pétition rédigée par l’artiste et militant Paolo Cirio et appelant à l’interdiction permanente de la reconnaissance faciale utilisée pour l’identification et le profilage dans toute l’Europe. Le site de la pétition est disponible ici.
—
La technologie de reconnaissance faciale automatisée a déjà été déployée dans les États membres de l’UE sans consultation publique. Nous demandons aux membres du Parlement européen et de la Commission européenne de prendre au sérieux cette énorme menace pour les droits de l’homme et notre société civile et de légiférer pour l’interdiction immédiate et permanente de l’identification et du profilage via la technologie de reconnaissance faciale dans toute l’Europe.
La reconnaissance faciale est une technologie particulièrement invasive. Il ne s’agit pas seulement de la surveillance des militants, des suspects et des minorités, mais c’est une atteinte à la vie privée de tous. Aujourd’hui, la reconnaissance faciale en Europe se déploie sans transparence ni débat public, et est utilisée en dehors de tout cadre juridique coordonné et cohérent.
Plusieurs États membres d’Europe utilisent déjà la reconnaissance faciale pour la sécurité, le contrôle social et les services publics. Par exemple, il a été mis en œuvre dans les gares en Allemagne, lors du verrouillage en Pologne, et il est prévu de créer une carte d’identité nationale en France où la police l’utilise déjà dans les espaces publics.
Plus de 80% des Européens sont déjà contre le partage de leur image faciale avec les autorités. Faites valoir cette opinion avec cette pétition pour interdire la reconnaissance faciale dans toute l’Europe.
Rejoignez la lutte contre la technologie de reconnaissance faciale :
Signez la pétition, rejoignez la campagne, agissez, restez informé et partagez cet appel.
Pour notre campagne et notre pétition, utilisez notre hashtag #BanFacialRecognitionEU
Pour les demandes de presse et les partenariats, écrivez à info@Ban-Facial-Recognition.EU.
À propos de l’interdiction de la reconnaissance faciale en Europe
La technologie de reconnaissance faciale automatisée a déjà été déployée dans les États membres de l’UE sans consultation publique. Nous demandons aux membres du Parlement européen et de la Commission européenne de prendre au sérieux cette énorme menace pour les droits de l’homme et notre société civile et de légiférer pour l’interdiction immédiate et permanente de l’identification et du profilage via la technologie de reconnaissance faciale dans toute l’Europe.
La reconnaissance faciale est une technologie particulièrement invasive. Il ne s’agit pas seulement de la surveillance des militants, des suspects et des minorités, mais c’est une atteinte à la vie privée de tous et un énorme danger pour les libertés démocratiques, les libertés civiles et la liberté d’expression pour toute la société.
Actuellement, les services de police et les services de sécurité des différents États européens, de concert avec l’industrie de la technologie, font pression contre les institutions européennes pour l’utilisation de la technologie de reconnaissance faciale. En réponse, cette pétition vise à contester les objections formulées par des États membres individuels sur l’interdiction de la reconnaissance faciale et demande à la Commission européenne d’engager des procédures d’infraction contre les États membres qui enfreignent déjà les lois de l’UE en utilisant la reconnaissance faciale.
Plusieurs États membres d’Europe utilisent déjà la reconnaissance faciale pour la sécurité, le contrôle social et les services publics. Par exemple, il a été mis en œuvre dans les gares en Allemagne, lors du verrouillage en Pologne, et il est prévu de créer une carte d’identité nationale en France où la police l’utilise déjà dans les espaces publics. Pendant ce temps, aux États-Unis, la reconnaissance faciale a été interdite dans plusieurs villes et a même été récemment limitée par de grandes entreprises technologiques telles qu’Amazon, IBM et Microsoft à partir de juin 2020.
L’Europe doit s’aligner sur une interdiction définitive de la reconnaissance faciale pour son leadership en matière de droits de l’homme. Cependant, en janvier 2020, il a été révélé qu’une Commission européenne avait retiré son projet d’interdire la technologie de reconnaissance faciale pendant cinq ans, un plan qui a probablement été rejeté par les programmes de police des États membres de l’UE. Cela prouve à quel point l’Union européenne est peu fiable et vague sur ces questions juridiques et de droits de l’homme critiques concernant la technologie de reconnaissance faciale.
Aujourd’hui, la reconnaissance faciale en Europe se déploie sans transparence ni débat public, et est utilisée en dehors de tout cadre juridique coordonné et cohérent. Leurs promoteurs ont une foi aveugle en cette technologie et poussent souvent à accélérer sa prolifération quelles que soient les conséquences inévitables pour nos libertés.
L’Europe doit redresser ses lois sur la protection de la vie privée et lutter radicalement contre la reconnaissance faciale en interdisant totalement son utilisation abusive. Plus de 80% des Européens sont déjà contre le partage de leur image faciale avec les autorités. Faites valoir cet avis avec cette pétition pour interdire la reconnaissance faciale dans toute l’Europe.
Pourquoi la reconnaissance faciale est trop dangereuse
Il existe plusieurs technologies très envahissantes pour la vie privée, en particulier avec la biométrie. Parmi eux, la reconnaissance faciale est particulièrement violente et biaisée. Les visages ont des significations sociales et ils sont difficiles à cacher car ils sont notre principal moyen de communication. Les visages sont les parties les plus publiques des humains et leurs traits servent de métriques pour le jugement social. Nous considérons la reconnaissance faciale trop dangereuse pour les citoyens, car elle peut transformer l’un de nos principaux moyens de socialité contre nous, transformant nos visages en dispositifs de suivi plutôt qu’en composant essentiel de nous-mêmes.
Au-delà du contrôle social, de la discrimination et de la surveillance, il s’agit de la vie privée de chacun. Tout le monde est en danger lorsqu’un tel instrument est autorisé sans règles. Il ne s’agit pas seulement de la police ou des entreprises qui utilisent la reconnaissance faciale pour la sécurité ou l’exploration des données, mais c’est ainsi que cette technologie devient culturellement omniprésente et normalisée, provoquant finalement la peur dans la vie de tous. Cela crée un faux sentiment qu’être observé et analysé à tout moment est acceptable et crée des sociétés remplies de suspicion, d’abus et de méfiance.
La technologie de reconnaissance faciale est également aggravée par la «prédiction comportementale» qui prétend pouvoir classer les émotions ou les intentions d’une personne, mais qui menace fondamentalement la dignité et l’autonomie humaines. La reconnaissance faciale associée à une soi-disant intelligence artificielle sous la forme d’algorithmes d’apprentissage automatique augmente les déséquilibres de pouvoir, la discrimination, le racisme, les inégalités et le contrôle social autoritaire. Il y a trop de risques élevés pour les prétendus «avantages» que l’utilisation de ces technologies pourrait éventuellement apporter.
Partout en Europe, les gouvernements, les entreprises privées et aussi les civils cherchent à utiliser la reconnaissance faciale. Nous avons déjà vu son utilisation dans les lieux de travail, les espaces publics, les écoles, les aéroports, les maisons et dans nos propres téléphones personnels. Ces mises en œuvre de la reconnaissance faciale vont souvent au-delà de notre consentement, ou nous sommes souvent obligés de consentir, tandis que les conséquences à long terme du stockage des données biométriques et de la formation de l’intelligence artificielle pour analyser nos visages peuvent dépasser notre contrôle et les institutions en qui nous avons confiance.
Aucun argument ne peut justifier le déploiement de telles technologies. L’utilisation civile, commerciale et gouvernementale des dispositifs de reconnaissance faciale pour l’identification et la catégorisation des individus doit être strictement interdite. Toute technologie de reconnaissance faciale vendue dans le commerce ou développée et utilisée à titre privé pour cette portée doit être arrêtée.
La reconnaissance faciale doit être interdite, pas seulement réglementée
Les réglementations ne suffisent pas et elles échoueraient à s’attaquer à cette technologie en raison de l’ampleur de son danger.
La reconnaissance faciale porte atteinte au droit à la dignité car elle utilise les qualités, les comportements, les émotions ou les caractéristiques des individus contre eux de manière non justifiée ou proportionnée aux droits fondamentaux de l’UE ou aux lois nationales individuelles. Par exemple, les réglementations européennes actuelles telles que le RGPD couvrent principalement la vie privée des citoyens dans le secteur commercial à quelques exceptions près, mais elles ne traitent pas suffisamment les droits de l’homme qui sont en péril avec la reconnaissance faciale tels que le droit à la dignité et à l’égalité.
Tout comme les armes nucléaires ou chimiques, la reconnaissance faciale constitue une grande menace pour l’humanité. Son utilisation pour l’identification et le profilage est certainement trop dangereuse pour être utilisée. Elle devrait être interdite non seulement par l’Union européenne mais aussi au niveau mondial par les Nations Unies.
Il existe de fausses croyances sur l’efficacité et l’utilité de la reconnaissance faciale qui justifient son utilisation dans le cadre de la réglementation. Cependant, même pour la sécurité, il existe de sérieux doutes quant à savoir si la police en a vraiment besoin ou si elle contribue à fournir de meilleurs services. Les acteurs privés acquièrent un pouvoir disproportionné sur la technologie qui a souvent été développée sans responsabilité ni transparence. Souvent, ces technologies sont vendues aux autorités publiques et aux forces de l’ordre avec peu ou pas de responsabilité pour leurs actions.
Au-delà de la surveillance du gouvernement et des entreprises, il existe désormais d’énormes quantités de données publiques sur les sites Internet, les plateformes de médias sociaux et les ensembles de données ouverts que tout le monde peut récolter ou acheter. En outre, les infrastructures des appareils qui capturent des images de visages sont déjà omniprésentes avec les caméras CCTV, les smartphones et les scanners vidéo dans nos vies publiques et privées. Ces conditions rendent la reconnaissance faciale particulièrement dangereuse parmi d’autres technologies qui peuvent identifier, suivre et juger les personnes.
Aujourd’hui, la reconnaissance faciale est déjà présente dans nos smartphones, les contrôles des passeports dans les aéroports et les espaces publics. Utiliser la reconnaissance faciale pour l’authentification faciale locale pour déverrouiller un smartphone ou pour accéder à un service semble beaucoup moins intrusif que d’identifier un individu parmi de nombreuses personnes dans un lieu public.
Cependant, le développement de la technologie elle-même, la formation d’algorithmes et le stockage des données biométriques détenues par des entreprises privées pourraient, à l’avenir, être utilisés au-delà du cadre initial. Même lorsque nous donnons votre consentement ou utilisons la reconnaissance faciale en privé, nous risquons que ces données puissent entraîner des conséquences involontaires futures telles que des fuites de données biométriques, leur vente à des tiers ou la formation d’algorithmes sur nos traits personnels.
Par conséquent, nous rejetons les deux exceptions d’utilisation de la reconnaissance faciale en ce qui concerne l’innovation pour l’industrie technologique et la sécurité publique. Nous appelons à une interdiction totale de tous les cas de technologies de reconnaissance faciale concernant leur utilisation pour toute forme d’identification, de corrélation et de discrimination qui permettrait une surveillance de masse, des crimes de haine, des traques omniprésents et des violations de la dignité personnelle. Il serait toujours possible à des fins de recherche, de médecine et de divertissement à condition qu’aucune donnée biométrique ne soit stockée ou utilisée pour identifier ou classer des individus.
Nous soutenons que la reconnaissance faciale est déjà illégale en vertu du droit de l’UE et doit être interdite dans la pratique. Quatre instruments européens interdisent déjà la surveillance de masse biométrique: dans le sens le plus large, la Convention européenne des droits de l’homme et la Charte des droits fondamentaux de l’UE, et plus précisément la Convention sur la protection des données du Conseil de l’Europe, le RGPD, et son instrument frère, le LED . Cependant, les autorités nationales de protection des données (APD) ont été insuffisamment financées et politiquement démunies par leurs États membres, ce qui signifie que leurs efforts pour faire appliquer les réglementations ont souffert et que les acteurs en violation de la loi ont été peu incités à se conformer.
C’est la raison pour laquelle nous avons besoin de nouvelles lois pour imposer une interdiction de la reconnaissance faciale et pas seulement de réglementations faibles qui peuvent être interprétées et non appliquées par l’UE à ses États membres et à leurs députés.
L’identification et la classification par reconnaissance faciale sont trop dangereuses pour ne jamais être nécessaires et proportionnées puisque les utilisations bénéfiques potentielles ne sont pas justifiées.
Ce dont nous avons besoin pour interdire la reconnaissance faciale dans l’UE
Nous devons prendre des mesures au Parlement européen pour attirer l’attention sur cette question dans ses États membres, ainsi que pour faire pression sur la Commission européenne pour qu’elle prenne des mesures coercitives contre les États qui violent actuellement les droits fondamentaux de l’UE et les lois sur la protection de la vie privée. L’interdiction totale de l’identification et du profilage via la technologie de reconnaissance faciale ne doit pas être simplement une directive, mais elle doit être une interdiction rigide pour être applicable dans toute l’Europe sans exceptions ni expiration.
Dans l’Union européenne, il existe déjà des lois qui interdisent la surveillance biométrique de masse, mais elles ne sont pas appliquées. Les protestations, pétitions et litiges stratégiques peuvent potentiellement être très efficaces pour appliquer ces lois existantes et introduire une interdiction à l’échelle de l’UE.
Dans les rues et en ligne, à travers des manifestations et d’autres formes d’action, les citoyens et les collectifs du monde entier font équipe pour arrêter la propagation fatidique de la reconnaissance faciale. Ensemble, nous faisons partie d’un vaste mouvement résistant à l’avènement de la reconnaissance faciale dans toute l’Europe et dans le monde.
Interpellez-nous et dites-nous si vous voyez la reconnaissance faciale utilisée dans les écoles, les communautés fermées et les bâtiments, les identifiants et badges, les services publics, les dispositifs de verrouillage, les applications mobiles, les plates-formes Internet, et même si c’est pour le divertissement ou un usage personnel ou s’il est utilisé par la police, le contrôle des frontières, les forces de l’ordre et les enquêteurs.
Nous demandons à la Commission européenne et à la Cour européenne de justice d’évaluer les cas que nous avons rassemblés concernant les programmes de reconnaissance faciale en Europe pour avoir rendu ces utilisations actuelles et futures illégales. Si la Commission européenne, soutenue par le Parlement européen, ne prend pas les mesures d’application et législatives appropriées pour interdire une telle technologie, nous prévoyons de porter les affaires devant la Cour européenne de justice sur la base des directives LED actuelles, des règlements GDPR, du Conseil de la Convention européenne sur la protection des données et les lois nationales sur la protection des données, y compris la Convention européenne des droits de l’homme et la Charte des droits fondamentaux de l’UE.
Aujourd’hui, nous exprimons notre refus collectif de ces outils de contrôle social en exhortant les décideurs à les interdire une fois pour toutes.
Cas et détails – Reconnaissance faciale en Europe
En mai 2020, au moins 15 pays européens ont expérimenté des technologies biométriques telles que la reconnaissance faciale dans les espaces publics. Au minimum, il y a des activités en République tchèque, au Danemark, en France, en Allemagne, en Grèce, en Hongrie, en Italie, aux Pays-Bas, en Pologne, en Roumanie, en Serbie, en Slovénie, en Suède, en Suisse et au Royaume-Uni.
La liste suivante de cas sur les utilisations de la reconnaissance faciale en Europe a été compilée par Paolo Cirio avec ses recherches et avec l’aide d’experts en politique de confidentialité et d’organisations telles que La Quadrature du Net, et à travers le document de recherche EDRi pour l’interdiction de la surveillance biométrique.
Cette liste montre comment l’absence d’une législation cohérente entourant la reconnaissance faciale pousse les États membres de l’UE à prendre des initiatives individuelles, à exercer une surveillance laxiste et à faire un usage réel de ces technologies dangereuses.
Nous exigeons une plus grande transparence publique et une plus grande responsabilité à l’égard des parties – qu’elles soient publiques, privées ou en collaboration entre les deux – qui déploient des traitements biométriques, ainsi que des échanges de données entre les forces de l’ordre, la sécurité aux frontières, d’autres agences de sécurité publique, y compris la santé, et les autorités nationales. agences de sécurité.
FRANCE
À partir de 2020
La police française utilise déjà la reconnaissance faciale pour identifier les personnes dans les espaces publics. Ils utilisent des photos de personnes stockées dans la base de données des antécédents judiciaires TAJ. Il y a plus de 18 millions d’enregistrements d’individus dans cette base de données avec plus de 8 millions de photos. L’utilisation de la reconnaissance faciale dans cette base de données en France est autorisée depuis 2012 et est actuellement contestée devant les juridictions nationales.
Octobre 2019
La France est en passe de devenir le premier pays européen à utiliser la technologie de reconnaissance faciale pour donner aux citoyens une identité numérique – qu’ils le veuillent ou non. Dire qu’il veut rendre l’État plus efficace, le président Emmanuel Macron fait passer des plans pour déployer un programme d’identification basé sur la reconnaissance faciale appelé Alicem dans le cadre de son gouvernement.
Juillet 2019
L’autorité régionale Provence-Alpes-Côte d’Azur (PACA) a demandé à la CNIL l’autorisation d’utiliser un système de reconnaissance faciale pour gérer l’entrée au lycée Ampère à Marseille. Cet «essai» se voulait une expérience d’un an et a également été réalisé dans une autre école de la même région (le Lycée les Eucalyptus de Nice). Cette utilisation a été conçue pour augmenter la sécurité des étudiants et du personnel et pour accélérer le temps nécessaire aux étudiants pour entrer dans les locaux de l’école. Ces tentatives d’utilisation de la reconnaissance faciale dans les deux écoles françaises ont été stoppées par un procès en 2020.
Depuis 2012
«PARAFE» est un programme de portails automatisés aux frontières déjà installés dans différentes gares et aéroports en France. Les portes utilisent la technologie de reconnaissance faciale pour vérifier l’identité de l’utilisateur par rapport aux données stockées dans la puce de son passeport biométrique. Le programme a été développé par la société française Thales.
Le ministre allemand de l’Intérieur, Horst Seehofer, prévoit d’utiliser la reconnaissance faciale automatique dans 134 gares et 14 aéroports, selon un reportage publié le 3 janvier 2020. Le ministère de l’Intérieur a testé des caméras de reconnaissance faciale dès 2018 à la gare de Berlin-Südkreuz. Le résultat a été que 80% des personnes étaient correctement identifiées. Après les tests de 2018, le ministre de l’Intérieur Seehofer a déclaré que les systèmes de reconnaissance faciale «rendraient le travail de la police encore plus efficace, améliorant ainsi la sécurité des citoyens».
L’application obligatoire basée sur la reconnaissance faciale de la Pologne a été utilisée pour appliquer la quarantaine. Il a envoyé la police au domicile de toute personne qui ne partage pas un selfie sur l’application dans les 20 minutes suivant une alerte.
La police écossaise a déclaré qu’elle espérait utiliser un logiciel de reconnaissance faciale en direct d’ici 2026, mais a ensuite suspendu ses plans. La technologie peut scanner des foules de gens et croiser les visages avec les bases de données de la police.
La reconnaissance faciale était utilisée par les élèves du secondaire en Suède pour suivre la fréquentation dans la municipalité de Skelleftea. Le procès, qui s’est déroulé à l’automne 2018, a été un tel succès que la collectivité envisage de le prolonger. Cependant, les juges suédois et les autorités de protection des données ont bloqué l’expérimentation de la reconnaissance faciale dans les écoles.
FRONTIÈRES EUROPÉENNES
Le SPIRIT est un projet financé par l’Europe pour racler des images de visages sur les réseaux sociaux afin de créer une base de données pour l’analyse de la reconnaissance faciale. Cinq parties prenantes liées aux forces de l’ordre participent à ce projet de recherche: la police hellénique (GR), la police des West Midlands (Royaume-Uni), la police et le commissaire au crime de Thames Valley (Royaume-Uni), le ministère serbe de l’Intérieur (RS) et le Académie de police de Szczytno (PL). Selon le site Web clairsemé et non transparent, le projet vise à utiliser des outils, tels que l’extraction et la mise en correspondance de visages, pour corréler des informations à partir de données de médias sociaux similaires au modèle de la société américaine Clearview AI. Selon les demandes d’accès à l’information, des essais étaient prévus pour 2020 et 2021.
L’iBorderCtrl est un projet de recherche financé par l’Europe sur les frontières hongroise, grecque et lettone. Le projet prévoyait d’utiliser l’analyse automatisée des données biométriques pour prédire les preuves de tromperie parmi ceux qui cherchent à entrer dans l’Union européenne en tant que «détecteurs de mensonge» pour les réfugiés. Le projet a pris fin en août 2019.
Le système Prum est une initiative à l’échelle de l’UE reliant les bases de données ADN, d’empreintes digitales et d’enregistrement des véhicules pour une recherche mutuelle. Dix États membres européens, dirigés par l’Autriche, appellent à étendre le système Prum et à créer un réseau de bases de données nationales de reconnaissance faciale de la police et à interconnecter ces bases de données à chaque membre de l’État avec des réseaux de bases de données faciales de la police couvrant toute l’Europe et les États-Unis.
Le «complexe industriel-sécurité de l’UE» conduit à la promotion, à la défense et à l’utilisation de technologies de «titrisation». Les agences Europol et Frontex utilisent déjà une technologie biométrique avancée pour étudier les frontières et profiler les voyageurs.
Le raclage des médias sociaux et le courtage d’ensembles de données dépassent les frontières, les entreprises et les acteurs étatiques étant intéressés par la collecte, la numérisation d’images et la constitution de bases de données de données biométriques de citoyens européens.
C’est déjà le cas avec Clearview AI, une société américaine qui extrait des images des réseaux sociaux, et avec FindFace, une technologie de reconnaissance faciale développée par la société russe NtechLab.
L’utilisation de ces outils dépasse l’Europe avec des entités étrangères autorisées à utiliser la technologie de reconnaissance faciale sur les citoyens européens. Amazon, Facebook, Google et Apple rassemblent également d’énormes bases de données de données faciales biométriques de citoyens européens et les utilisent pour former leur intelligence artificielle sans transparence et sans responsabilité. Les produits tels que Ring of Amazon, Apple Face ID, Google Lens et les fonctionnalités de reconnaissance faciale Facebook devraient être interdits à tous les citoyens européens.
";s:7:"dateiso";s:15:"20200922_112930";}s:15:"20200915_141827";a:7:{s:5:"title";s:59:"USA, lettre ouverte contre la censure de média anarchistes";s:4:"link";s:98:"https://www.laquadrature.net/2020/09/15/usa-lettre-ouverte-contre-la-censure-de-media-anarchistes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16103";s:7:"pubDate";s:31:"Tue, 15 Sep 2020 12:18:27 +0000";s:11:"description";s:291:"Nous constatons depuis plusieurs années que la différence entre censure d’état et censure privée sur Internet s’efface, les gouvernements encourageant une centralisation toujours plus importante d’Internet entre les mains de quelques géants tel Facebook, Amazon…";s:7:"content";s:9466:"
Nous constatons depuis plusieurs années que la différence entre censure d’état et censure privée sur Internet s’efface, les gouvernements encourageant une centralisation toujours plus importante d’Internet entre les mains de quelques géants tel Facebook, Amazon ou Google.
La Quadrature dénonce depuis plusieurs années cette stratégie des états consistant à pousser l’ensemble de la population à utiliser des solutions centralisées pour ensuite pouvoir user de la capacité de censure de celles-ci, comme si elle était sienne, par le biais d’incitations, de loi ou de sous couvert de simple « bonne intelligence ». Ces politiques de modération sont inconstantes, arbitraires et se font à un coût humain important, les personnes employées pour la modération de ces gigantesques plateformes étant exposées à des images et textes traumatisants, peu soutenues psychologiquement et mal payées. Pire : cette réalité, intrinsèque à la taille de ces plateformes, dépassées par leur échelle nécessairement inhumaine, est donc inévitable.
La Quadrature du Net signe aujourd’hui une lettre ouverte reproduite ci-dessous contre un blocage arbitraire par Facebook dirigée contre deux importants média anarchistes anglophones (It’s going down et CrimethInc), nouvelle preuve – si elle était nécessaire ?– de la convergence de la censure sur Internet et appelle les citoyens à continuer à se saisir de solutions de communication décentralisée, chiffrées et libres.
—
Solidarité avec les médias anarchistes bannis par Facebook
Refusons l’argumentaire de Facebook qui, prétextant l’impartialité, s’aligne sur l’administration du gouvernement Trump pour supprimer les voix de militant·es et de médias associé·es aux mouvements contestataires de gauche.
En tant qu’éditeur·trices, auteur·trices, éducateur·trices, militant·es et médias, nous sommes très inquiet·es de la décision de Facebook de bloquer itsgoingdown.org, crimethinc.com et plusieurs autres éditeur·trices, auteur·trices et militant·es en raison de leur association avec l’anarchisme. Cette décision est explicitement motivée par des raisons politiques. Facebook étouffe leurs voix en raison de leurs convictions, et parce qu’ils offrent un lieu de rencontre et d’échanges pour les militant·es des mouvements sociaux de gauche.
Dans une déclaration justifiant les fermetures de pages, Facebook a reconnu que ces groupes n’ont aucun rôle dans l’organisation d’actions violentes, mais leur reproche de manière abstraite d’avoir « célébré des actes violents », et d’être « associés à la violence » ou « d’avoir des membres avec des modèles (statistiques) de comportements violents » – une description si large qu’elle pourrait désigner d’innombrables pages pourtant toujours actives sur Facebook. Les éditeur·trices et les auteur·trices anarchistes ciblé·es le sont en définitive en raison de leurs convictions politiques, et non à cause d’une quelconque violence. Si cette décision n’est pas contestée, elle créera un précédent qui sera utilisé encore et encore pour censurer toute parole dissidente.
Dans sa déclaration, Facebook classe les anarchistes dans la catégorie des milices d’extrême droite soutiens de l’administration Trump, liant ainsi deux groupes pourtant fondamentalement différents et opposés. Cela fait écho à la décision du procureur général William Barr de créer une unité opérationnelle du Ministère de la Justice dédiée à la répression des « extrémistes anti-gouvernementaux », qui cible aussi bien les fascistes auto-proclamés que les antifascistes, établissant une fausse équivalence entre les suprémacistes blancs qui orchestrent les attaques et celles et ceux qui s’organisent pour protéger leurs communautés contre ces attaques.
À une époque où les manifestations ont joué un rôle essentiel dans la création d’un dialogue, partout aux États-Unis sur le racisme, la violence et l’oppression, nous devons replacer ce blocage par facebook des pages et sites anarchistes dans le contexte des efforts continus de l’administration Trump pour réprimer les manifestations. Pendant des mois, Donald Trump a explicitement blâmé les anarchistes pour la vague mondiale de protestations provoquée par la violence policière permanente aux États-Unis. Il y a dix ans, les représentants de Facebook avaient fièrement vanté leur rôle dans les mouvements sociaux horizontaux qui ont renversé des tyrans en Égypte et ailleurs. Aujourd’hui, leur décision de bloquer les médias qui fournissent des lieux et des outils aux participant·tes des mouvements sociaux montre qu’ils se basent sur les signaux reçus du sommet des structures de pouvoir pour déterminer ce qui constitue ou pas un discours acceptable.
La décision de Facebook s’inscrit dans un schéma qui ira beaucoup plus loin si nous ne réagissons pas. Les lecteur·trices méritent de pouvoir entendre les voix de personnes impliquées dans les mouvements de protestation contre les violences policières et le racisme, y compris des voix controversées. Les auteur·trices et les éditeur·trices ne doivent pas être réprimé·es pour avoir promu la solidarité et l’autodétermination.
Nous vous invitons toutes et tous à vous joindre à nous pour condamner ces blocages et défendre la légitimité des voix des anarchistes en particulier, et des manifestant·es des mouvements sociaux en général.
Version originale
Stand with Anarchist Publishers Banned by Facebook
Oppose Facebook’s « both sides » narrative as they align with the Trump administration to suppress the voices of activists and media producers associated with left protest movements.
As publishers, authors, educators, activists, and media producers, we are deeply troubled by Facebook’s decision to ban itsgoingdown.org, crimethinc.com, and several other publishers, authors, and activists on account of their association with anarchism. This decision is explicitly politically motivated. Facebook is suppressing their voices because of their beliefs, and because they provide a venue for the perspectives of participants in left social movements.
In a statement justifying the bans, Facebook acknowledged that these groups have no role in organizing violence, but abstractly alleges that they « celebrated violent acts, » and are “tied to violence” or “have individual followers with patterns of violent behavior”—a description so broad that it could designate countless pages that remain active on Facebook. The anarchist publishers and authors in question are being targeted for reasons that are ultimately about political beliefs, not « violence. » If this decision goes unchallenged, it will set a precedent that will be used again and again to target dissent.
In their statement, Facebook categorizes anarchists with far-right militias that support the Trump administration, linking two groups that are fundamentally dissimilar and opposed. This echoes Attorney General William Barr’s decision to create a Department of Justice task force focused on “anti-government extremists” that targets self-proclaimed fascists and anti-fascists alike, drawing a false equivalence between those who orchestrate white supremacist attacks and those who organize to protect their communities against them.
At a time when demonstrations have played an essential role in creating a nationwide dialogue about racism, violence, and oppression, we must see Facebook’s ban on anarchist publishers in the context of the Trump administration’s ongoing efforts to clamp down on protest. For months, Donald Trump has explicitly blamed anarchists for the worldwide wave of protests precipitated by persistent police violence in the United States. A decade ago, Facebook representatives proudly touted their role in the horizontal social movements that toppled tyrants in Egypt and elsewhere. Today, their decision to ban publishers who provide venues and platforms for participants in protests shows that they are taking their cues about what should constitute acceptable speech from those at the top of the power structure.
Facebook’s decision is part of a pattern that will go much further if we don’t respond. Readers deserve to be able to hear voices from within protest movements against police brutality and racism, even controversial ones. Authors and publishers should not be suppressed for promoting solidarity and self-determination.
We call on everyone to join us in condemning this ban, and defending the legitimacy of the voices of anarchists specifically and protesters generally.
Signed,
Agency [anarchistagency.com]
";s:7:"dateiso";s:15:"20200915_141827";}s:15:"20200908_174212";a:7:{s:5:"title";s:76:"L’Union européenne doit imposer l’interopérabilité aux géants du Web";s:4:"link";s:107:"https://www.laquadrature.net/2020/09/08/lunion-europeenne-doit-imposer-linteroperabilite-aux-geants-du-web/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16093";s:7:"pubDate";s:31:"Tue, 08 Sep 2020 15:42:12 +0000";s:11:"description";s:298:"La Commission européenne s’apprête à lancer un nouveau débat législatif sur les hébergeurs Web. Depuis 2000, ces hébergeurs sont protégés par la directive e-commerce, adoptée alors qu’Internet posait sans doute moins de problèmes juridiques qu’aujourd’hui.…";s:7:"content";s:10687:"
La Commission européenne s’apprête à lancer un nouveau débat législatif sur les hébergeurs Web. Depuis 2000, ces hébergeurs sont protégés par la directive e-commerce, adoptée alors qu’Internet posait sans doute moins de problèmes juridiques qu’aujourd’hui. Les règles étaient simples : un hébergeur n’est pas responsable des informations qu’il stocke s’il reste « passif » – s’il ne fait rien d’autre que stocker des informations fournies par ses utilisateurs.
Depuis 2000, de nouveaux acteurs sont apparus, Facebook et Google en tête, soulevant de nouveaux enjeux tant juridiques que politiques. Ces nouvelles plateformes sont-elles vraiment « passives » ? Sont-elles devenues trop grosses ? Doivent-elles être corrigées, détruites ou encore quittées ?
La Commission européenne souhaite recueillir l’avis d’une multitude d’acteurs à ce sujet. Il semble bien difficile d’anticiper ce sur quoi débouchera ce processus. Mais les enjeux sont si complexes et larges que ce débat pourrait bien aboutir à l’une des lois européennes dont les conséquences seront parmi les plus lourdes. Notre réponse à la consultation de la Commission est courte et simple.
Réponse à la consultation publique sur le Digital Service Act
S’il faut remettre en cause le régime des hébergeurs Web, la question centrale concernera les plateformes géantes, telles que Facebook, Youtube ou Twitter, qui jouent un rôle de plus en plus actif et nuisible dans la hiérarchisation des informations qu’elles diffusent. Leur « économie de l’attention » semble favoriser les échanges les plus virulents et polémistes au détriment des discussions argumentées et d’entre-aide.
En appliquant strictement la directive e-commerce, ces plateformes géantes pourraient être responsables de la quasi-totalité des informations qu’elles diffusent. Dans ces conditions, il est difficile d’imaginer que ces entreprises pourraient continuer d’opérer en Europe. Si cette conclusion serait bénéfique sur le long terme, il serait dangereux d’y arriver brusquement : des millions d’utilisateurs se retrouveraient soudainement privés de leurs moyens principaux de communication.
L’urgence est de permettre à ces utilisateurs de quitter dans les meilleures conditions ces plateformes géantes qui les maintiennent actuellement captifs et dont le modèle économique est fondamentalement contraire au droit et aux valeurs européennes, que ce soit en matière de données personnelles ou de liberté d’expression.
Obligation d’interopérabilité
Tout service d’hébergement, tel que défini à l’article 14 de la directive 2000/31, qui est fourni à des fins lucratives et dont le nombre d’utilisateurs est d’une grandeur significative doit être interopérable.
Un service est interopérable si, par l’application de standards techniques adéquats, il permet à ses utilisateurs d’échanger des informations avec les utilisateurs de services tiers qui appliquent ces mêmes standards.
Des standards techniques sont adéquats s’ils sont documentés, stables et conformes à l’état de l’art et qu’ils ne peuvent être modifiés de façon unilatérale.
Les utilisateurs d’un service interopérable peuvent échanger des informations de la même façon et aussi simplement avec les utilisateurs de ce même service qu’avec ceux des services tiers qui appliquent les mêmes standards.
Le respect de cette obligation est assuré par l’autorité visée à l’article 5 du code des communications électroniques européen, qui peut prononcer à cette fin amendes, astreintes et injonctions.
Explications
Plus de liberté
Cette obligation permettra aux internautes de quitter les plateformes géantes sans payer le coût social, souvent prohibitif, de perdre contact avec leur famille, amis, collègues ou réseaux d’entre-aide. Les internautes pourront rejoindre d’autres plateformes équivalentes depuis lesquelles ils et elles pourront continuer de communiquer avec leurs contacts restés sur les plateformes géantes.
Une fois partis, ces internautes n’auront plus de relation contractuelle avec la plateforme quittée, ce qui leur permettra de mettre fin aux conditions imposées contre leur libre consentement en matière de traitement de données personnelles ou de censure d’informations légitimes.
Cette liberté permettra aux internautes de rejoindre les services tiers dont les règles de modération répondent au mieux à leurs attentes, tandis que les plateformes géantes apparaissent aujourd’hui incapables de protéger leurs utilisateurs, notamment à cause de leur taille bien trop grande.
Standards techniques
Les plateformes géantes n’auront pas à être interopérables avec n’importe quel service, mais seulement avec les services qui appliqueront les mêmes standards techniques qu’elles.
Ces standards ne devront pas pouvoir être modifiés régulièrement et unilatéralement par une plateforme géante, sans quoi celle-ci pourrait rendre l’interopérabilité irréalisable en pratique.
Les standards devront correspondre à l’état de l’art tel que reconnu par l’autorité de contrôle. Actuellement, le standard ActivityPub apparaît comme la base de travail la plus évidente et la plus simple. Toutefois, en théorie, rien n’empêchera les plateformes géantes de proposer leurs propres standards à l’autorité de contrôle.
Plus de maitrise
L’interconnexion entre une plateforme géante et un service tiers ne sera pas automatique mais se fera à la demande et dans les conditions de chaque utilisateur, qui sélectionnera les utilisateurs et services tiers avec qui communiquer.
Ainsi, les utilisateurs des plateformes géantes ne seront pas mis en difficulté par l’interopérabilité mais garderont tout le contrôle des personnes avec qui elles communiquent – si un utilisateur décide de ne pas bénéficier des possibilités permises par l’interopérabilité, alors celle-ci n’aura aucune conséquence pour lui.
De même, l’interopérabilité n’impliquera aucune obligation de modération supplémentaire pour les plateformes géantes dans la mesure où elles ne sauraient être tenues responsables d’informations partagées par des tiers avec lesquels elles n’ont aucune relation contractuelle ni d’aucune nature. Rien n’empêche toutefois les plateformes de modérer les messages d’utilisateurs tiers si elles souhaitent fournir ce service.
Un principe au cœur du Net
Le principe d’interopérabilité n’est pas nouveau mais, au contraire, aux sources même d’Internet, décentralisé, avant que de grandes plateformes ne s’imposent et ne deviennent si difficile à vivre.
Le principe du courrier électronique est un des plus anciens exemples d’interopérabilité : il ne serait aujourd’hui pas concevable de ne pas pouvoir communiquer avec une personne dont le courrier électronique n’est pas géré par le même fournisseur.
Ainsi, l’interopérabilité imposée aux plateformes géantes viendra parfaitement compléter l’interopérabilité déjà prévue en matière de communications interpersonnelles par l’article 61, §2, c, du code des communications électroniques européen.
État du débat en France
Notre proposition est défendue par une large partie de la sphère politique française. Le gouvernement la soutient, son secrétaire d’État au numérique, Cédric O, ayant déclaré à l’Assemblée nationale, lors de débat sur les règles de modération des grands réseaux sociaux, que « l’interopérabilité est une des solutions […] C’est à l’Europe d’imposer des règles en matière d’interopérabilité, comme elle l’a fait pour la protection des données ». Dans le même débat parlementaire, plus de 60 députés de droite comme de gauche ont déposé sept amendements visant à imposer et favoriser l’interopérabilité des grandes plateformes. En parallèle, le Sénat adoptait une proposition de loi « visant à garantir le libre choix du consommateur dans le cyberespace », notamment en imposant des obligations d’interopérabilité.
Ces initiatives législatives font suites à différentes positions de l’administration, telle que l’ARCEP, moteur dans ces avancées, ou la direction générale du trésor invite proposant des « obligations de développer des standards techniques facilitant l’interopérabilité des services et les possibilités de migration des utilisateurs […] lorsque des problèmes concurrentiels associés à une plateforme apparaissent structurels et durables et appellent donc une intervention continue pour être réglés ». Ces initiatives faisaient elles-même suite à une position commune de mai 2019 signée par 75 organisations françaises afin d’imposer l’interopérabilité aux géants du Web.
";s:7:"dateiso";s:15:"20200908_174212";}s:15:"20200908_135330";a:7:{s:5:"title";s:12:"#FreeAssange";s:4:"link";s:52:"https://www.laquadrature.net/2020/09/08/freeassange/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16084";s:7:"pubDate";s:31:"Tue, 08 Sep 2020 11:53:30 +0000";s:11:"description";s:258:"Alors qu’a repris ce lundi 7 septembre le procès relatif à l’extradition de Julien Assange, nous republions ici l’appel de la Maison des lanceurs d’alerte en faveur de sa libération immédiate, l’abandon des charges pesant…";s:7:"content";s:4551:"
Alors qu’a repris ce lundi 7 septembre le procès relatif à l’extradition de Julien Assange, nous republions ici l’appel de la Maison des lanceurs d’alerte en faveur de sa libération immédiate, l’abandon des charges pesant contre lui, et l’octroi à Julian Assange de l’asile constitutionnel par la France.
Défendre Assange et WikiLeaks aujourd’hui, c’est défendre l’horizon démocratique. C’est dénoncer les faux-semblants de la transparence et ne pas s’y résigner. C’est revendiquer l’héritage des combats contre la raison d’État et son arbitraire, contre l’opacité bureaucratique et l’infantilisation qu’elle génère. C’est non seulement encourager la systématisation des divulgations d’intérêt public, mais aussi se montrer solidaires de toutes celles et ceux qui essuient la violence d’État parce qu’elles ont eu l’audace de la percer à jour.
Durant le mois qui vient, diverses mobilisations et actions festives seront organisées en soutien à Assange. Plus d’informations ici.
Procès de Julian Assange : la Maison des Lanceurs d’Alerte réitère sa demande d’asile pour le fondateur de WikiLeaks
Le 7 septembre 2020 s’ouvrira à nouveau le procès en extradition de Julian Assange, fondateur de WikiLeaks. Ce dernier risque d’être extradé vers les États-Unis, pays dans lequel un grand jury de l’état de Virginie a engagé le 23 mai 2019, des poursuites sur le fondement de l’« Espionage Act » de 1917. Les 18 charges que ce grand jury a retenues contre lui l’exposent à une peine de 175 ans de prison. En outre, le 23 juin 2020, les États-Unis ont renforcé leurs accusations contre Julian Assange, qui est désormais accusé d’avoir conspiré avec des pirates informatiques pour hacker les serveurs de l’Organisation du Traité de l’Atlantique Nord (OTAN).
Comme l’a rappelé la Maison des Lanceurs d’Alerte aux côtés de 16 autres organisations le 19 février 2020, il s’agit d’une attaque inédite contre les libertés fondamentales, portant atteinte au droit à la vie de Julian Assange, et à la liberté de la presse. En conséquence, la Maison des Lanceurs d’Alerte avait demandé aux côtés de 9 autres organisations, le 27 février 2020, que la France accorde à Julian Assange l’asile politique pour des raisons humanitaires, compte tenu des dangers qui le menacent et des attaches familiales qui le lient à la France d’une part, et d’autre part pour la sauvegarde de la liberté d’informer, la liberté de la presse et des valeurs démocratiques.
L’enfermement que Julian Assange a subi pendant près de 7 ans au sein de l’ambassade d’Équateur à Londres, suivi d’une détention de presque un an dans une prison de haute sécurité, a considérablement fragilisé l’état de santé de ce dernier. Dans ces conditions, un renvoi vers les États-Unis, où il est menacé d’une peine de 175 ans de prison sans avoir la pleine capacité de se défendre de manière équitable, l’exposerait à des traitements inhumains et dégradants au sens de l’article 3 de la Convention Européenne des Droits de l’Homme.
Au-delà, les charges contre Julian Assange reposent quasi exclusivement sur des activités que mènent au quotidien tous les journalistes d’investigation, à savoir la publication d’informations auparavant tenues secrètes. Au-delà du sort réservé au fondateur de Wikileaks, une telle inculpation porterait donc une atteinte grave au droit fondamental à la liberté d’expression, de nature à réduire à néant la protection dont bénéficient les journalistes dans toute l’Europe.
En conséquence, la Maison des Lanceurs d’Alerte demande la libération immédiate de Julian Assange et l’abandon des charges pesant contre ce dernier. En outre, elle réitère sa demande auprès des autorités Françaises d’accorder sans délai au fondateur de Wikileaks l’asile constitutionnel en France.
";s:7:"dateiso";s:15:"20200908_135330";}s:15:"20200807_090753";a:7:{s:5:"title";s:52:"Nous attaquons la reconnaissance faciale dans le TAJ";s:4:"link";s:93:"https://www.laquadrature.net/2020/08/07/nous-attaquons-la-reconnaissance-faciale-dans-le-taj/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16069";s:7:"pubDate";s:31:"Fri, 07 Aug 2020 07:07:53 +0000";s:11:"description";s:240:"Nous venons de déposer un recours devant le Conseil d’Etat contre les dispositions du code de procédure pénale qui autorisent la police à utiliser la reconnaissance faciale pour identifier les personnes fichées dans le TAJ…";s:7:"content";s:9126:"
Nous venons de déposer un recours devant le Conseil d’Etat contre les dispositions du code de procédure pénale qui autorisent la police à utiliser la reconnaissance faciale pour identifier les personnes fichées dans le TAJ (pour « Traitement des Antécédents Judiciaires »). Ce fichier comporte 19 millions de fiches et plus de 8 millions de photos. Il permet déjà à la police, et depuis plusieurs années, d’utiliser de façon massive la reconnaissance faciale en France sur la voie publique, sans aucune justification ni aucun cadre juridique. Il est temps d’y mettre fin.
Nous en parlions déjà l’année dernière : alors que le gouvernement essaie de faire croire qu’il souhaite un débat public avant de déployer la reconnaissance faciale en France, celle-ci est déjà en réalité bien en place. Expérimentée sur la voie publique à Nice l’année dernière, elle est aussi présente dans plusieurs aéroports et gares avec les portiques « Parafe » et sera au cœur de la prochaine application d’identité numérique « Alicem ».
C’est surtout avec le fichier du « Traitement des antécédents judiciaires » que ce déploiement est le plus évident (nous en parlions ici). Ce fichier contient, en plus d’un très grand nombre d’informations, les photographies des visages de toute personne « mise en cause » lors d’une enquête de police. C’est-à-dire non seulement les personnes condamnées, mais aussi celles innocentées par la suite lors de l’enquête et dont les photos sont très souvent conservées malgré elles dans ce fichier. Le TAJ contient aujourd’hui, selon un rapport parlementaire et la CNIL, 19 millions de fiches et 8 millions de photographies de visage.
Le code de procédure pénale, dans son article R40-26, permet explicitement à la police et à la gendarmerie d’utiliser la reconnaissance faciale sur ces millions de photographies. Comme la CNIL l’expliquait dès 2011, ce système permet « de comparer à la base des photographies signalétiques du traitement, les images du visage de personnes impliquées dans la commission d’infractions captées via des dispositifs de vidéoprotection », c’est-à-dire comparer par exemple le visage d’une personne filmée dans la rue par une caméra aux photographies stockées dans le fichier pour l’identifier. Cette technique est d’ores et déjà utilisée pour des affaires courantes et, récemment avec le confinement, de forts soupçons de détournements de ce fichier pèsent sur certaines amendes adressées à des personnes « connues des services de police ».
La création du fichier TES, résultant de la fusion des fichiers des cartes d’identités et du TES passeport, accentue fortement ce risque. En effet, ce fichier, dont l’accès par la police a été grandement étendu suite à la loi Renseignement, regroupera les photographies présentes sur les passeports et cartes d’identité de l’ensemble de la population français. Ces développements pourraient permettre à la police d’aller beaucoup plus loin dans son utilisation de la reconnaissance faciale et de procéder ainsi à une réelle surveillance biométrique de masse. Une analyse détaillée est disponible ici.
La nécessité d’une action contentieuse
La surveillance biométrique est exceptionnellement invasive et déshumanisante. Elle permet un contrôle invisible, permanent et généralisé de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue à notre corps une fonction de traceur constant, le réduisant à un objet technique d’identification. Elle abolit l’anonymat.
C’est pourquoi nous attaquons aujourd’hui ces dispositions du code de procédure pénale sur le TAJ : pour ne laisser aucune place, ni répit, à cette surveillance biométrique. Tout comme nous avons attaqué (et gagné) contre les portiques de reconnaissance faciale dans les lycées de la région Sud. De même contre l’application Alicem. Ou contre la vidéosurveillance automatisée de Marseille. Ou comme lorsque nous avons demandé avec une centaine d’associations l’interdiction de la reconnaissance faciale.
Nous fondons principalement notre recours juridique sur la notion de « nécessité absolue » qui est au cœur de la directive européenne dite « police – justice » (la version « policière » du RGPD). En effet, l’article 10 de cette directive indique que tout traitement de données biométriques (dont le visage fait évidemment partie) et qui est réalisé afin d’identifier une personne n’est possible qu’en cas de « nécessité absolue » et « sous réserve de garanties appropriées pour les droits et libertés de la personne concernée ».
Or, ce n’est évidemment pas le cas pour le TAJ : aucune « nécessité absolue » n’est susceptible de venir justifier un tel dispositif, et rien n’a d’ailleurs été jamais avancé dans ce sens par le gouvernement. Au contraire, quand la ministre de la Justice répond à notre courrier de demande d’abrogation de ces dispositions, elle le qualifie seulement d’ « aide technique » (bien loin donc de toute « nécessité absolue »). Par ailleurs, il n’existe évidemment aucune « garantie appropriée » à ce type de dispositif. Les dispositions qui permettent la reconnaissance faciale à partir des photos du TAJ apparaissent donc en contradiction flagrante avec le droit européen et la loi française qui a transposé directement ces différents principes.
La reconnaissance faciale dans le TAJ est une des pierres angulaires de la surveillance biométrique en France, et c’est pourquoi nous l’attaquons aujourd’hui. Et nous continuerons de dénoncer et d’attaquer les autres déploiement de cette surveillance : non seulement la reconnaissance faciale, mais aussi l’ensemble des autres techniques de surveillance qui continuent de se répandre à travers la Technopolice.
";s:7:"dateiso";s:15:"20200807_090753";}s:15:"20200717_111550";a:7:{s:5:"title";s:57:"Il est temps d’arrêter les prolongations sécuritaires";s:4:"link";s:93:"https://www.laquadrature.net/2020/07/17/il-est-temps-darreter-les-prolongations-securitaires/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=16032";s:7:"pubDate";s:31:"Fri, 17 Jul 2020 09:15:50 +0000";s:11:"description";s:280:"Lettre ouverte de l’Observatoire des libertés et du numérique (OLN), Paris, le 17 juillet 2020
L’Observatoire des Libertés et du Numérique et d’autres associations (1) interpellent les parlementaires afin qu’ils rejettent le projet de loi prorogeant…";s:7:"content";s:8802:"
Lettre ouverte de l’Observatoire des libertés et du numérique (OLN), Paris, le 17 juillet 2020
L’Observatoire des Libertés et du Numérique et d’autres associations (1) interpellent les parlementaires afin qu’ils rejettent le projet de loi prorogeant la loi SILT et les « boites noires » de renseignement (« relatif à la prorogation des chapitres VI à X du titre II du livre II et de l’article L. 851-3 du code de la sécurité intérieure »).
Ce projet de loi vise à prolonger, pour ensuite les pérenniser et les renforcer – comme l’affiche sans complexe le gouvernement – un ensemble de mesures sécuritaires adoptées avec des limites temporelles en raison de leur caractère liberticide. Elles sont prolongées alors que leur nécessité, leur efficacité et leur proportionnalité n’ont pas été démontrées.
Il s’agit des mesures prévues par la loi n° 2017‑1510 du 30 octobre 2017 « renforçant la sécurité intérieure et la lutte contre le terrorisme » dite « SILT » : les mesures individuelles de contrôle administratif et de surveillance (MICAS), les périmètres de protection (zone de contrôle), les visites et saisies domiciliaires (perquisitions administratives), les fermetures de lieux de culte, ainsi que les algorithmes – ou boites noires – de renseignement adoptés avec la loi n° 2015‑912 du 24 juillet 2015 relative au renseignement.
Ces dispositifs avaient, pour répondre aux nombreuses contestations soulevées lors de l’examen de ces textes, fait l’objet d’un délai maximal d’expérimentation en raison des atteintes aux libertés fondamentales qu’ils recèlent. Cette période devait par ailleurs donner lieu de la part du gouvernement et du Parlement, à des évaluations, lesquelles sont pour partie manquantes. En effet, la mission de contrôle de la loi SILT de l’Assemblée nationale n’a pas rendu de rapport d’évaluation. L’exigence d’une évaluation a pourtant été maintes fois rappelée que ce soit par la CNCDH ou encore récemment par la Rapporteuse spéciale des Nations Unies sur la promotion et la protection des droits de l’homme dans la lutte anti-terroriste(2). S’agissant des boites noires, prolongées une première fois alors qu’elles auraient dû initialement s’achever le 31 décembre 2017, elles devaient faire l’objet d’un rapport d’évaluation du gouvernement au 30 juin 2020, date limite dépassée. Pire encore, le gouvernement a fait fi de ce que la Commission Nationale de Contrôle des Techniques de Renseignement avait demandé que ce rapport soit réalisé peu après la première année de leur mise en service (soit vers la fin de l’année 2018). Si l’on a récemment appris que le gouvernement aurait finalement réalisé une évaluation – toujours confidentielle jusqu’ici – de cette surveillance algorithmique, l’intérêt de ces mesures semble très discutable alors que leurs conséquences sur les libertés sont particulièrement conséquentes (3).
Prétextant la crise sanitaire, le gouvernement entend repousser encore d’un an ces « expérimentations » et par la même occasion les évaluations s’y attachant. Alors que ce projet de loi vise à être adopté dans le cadre d’une procédure accélérée sans aucun débat (notre demande d’audition auprès du rapporteur du texte et de la commission des lois étant notamment restée lettre morte), l’objectif poursuivi par le gouvernement est limpide : « Dans le délai ouvert par cette prorogation, un projet de loi viendra pérenniser ces dispositions, mais également compléter ou modifier ces deux lois, afin de tenir compte des nécessaires évolutions induites par les besoins opérationnels ».
Les intentions de l’Exécutif sont affichées : proroger uniquement pour lui laisser le temps de pérenniser et aggraver ces dispositifs liberticides.
Si lors des débats du mercredi 8 juillet, la commission des lois de l’Assemblée nationale a proposé de réduire le report des mesures en question à 6 mois, il n’en demeure pas moins que la représentation nationale devrait s’opposer purement et simplement à cette prorogation.
Un tel projet de prorogation est un nouveau témoin de la dérive sécuritaire des autorités françaises. L’absence de toute remise en question de ces dispositifs de surveillance et de contrôle n’est qu’une preuve une fois de plus de l’effet « cliquet » de ces dispositifs sécuritaires qui, une fois votés avec la promesse de leur caractère provisoire, sont en réalité constamment prorogés et aggravés.
Afin, dans les mots du nouveau ministre de la Justice de « quitter un peu les rives du sécuritaire en permanence », nous appelons donc les parlementaires à rejeter ce projet de loi pour, a minima, forcer la tenue d’une évaluation et d’un débat sérieux sur ces dispositifs ou les laisser enfin disparaitre.
(1)Signataires :
Organisations signataires membres de l’OLN : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM)
Autres associations : Action Droits des Musulmans (ADM) ; Le Collectif des Associations Citoyennes (CAC)
(2) Ainsi Fionnuala Ni Aolain, le 24 juin 2020, regrette « que les MICAS n’aient été évaluées comme le prévoient les clauses d’extinction (ou clause ‘sunset’) prévues par la loi SILT, et qu’elle soit donc un moyen de contourner l’obligation de vérifier l’efficacité, la proportionnalité, la nécessité et l’aspect non- discriminatoire de ces mesures »
(3) Pour un rappel des enjeux de ces textes, nous vous renvoyons notamment vers ces ressources :
";s:7:"dateiso";s:15:"20200717_111550";}s:15:"20200703_093755";a:7:{s:5:"title";s:82:"Accès aux contenus pornographiques : le Parlement doit retirer l’article 11 !";s:4:"link";s:113:"https://www.laquadrature.net/2020/07/03/acces-aux-contenus-pornographiques-le-parlement-doit-retirer-larticle-11/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15998";s:7:"pubDate";s:31:"Fri, 03 Jul 2020 07:37:55 +0000";s:11:"description";s:249:"MAJ : Le Parlement a définitivement adopté cette proposition de loi le 21 juillet 2020.
Le Parlement s’apprête à voter un nouveau dispositif de surveillance et de censure de l’Internet. Il s’agit des articles 11 et…";s:7:"content";s:15028:"
MAJ : Le Parlement a définitivement adopté cette proposition de loi le 21 juillet 2020.
Le Parlement s’apprête à voter un nouveau dispositif de surveillance et de censure de l’Internet. Il s’agit des articles 11 et 11 bis A de la loi sur la protection des victimes des violences conjugales, tels que votés par le Sénat le 9 juin. Ces articles imposent aux sites qui hébergent des contenus pornographiques de recourir à des dispositifs de vérification d’âge pour empêcher que les mineur·es y aient accès. De telles obligations, nourries des volontés gouvernementales de nous identifier partout et tout le temps, ne peuvent qu’entraîner de nouvelles et multiples atteintes à nos libertés. Elles risquent aussi de parasiter, en les déshumanisant, les questionnements autour de l’accompagnement des enfants dans la découverte d’Internet, qui devraient pourtant être au cœur des réflexions. Le Parlement a encore une chance de rejeter une partie de cette idée : il doit la saisir.
Tout commence avec l’article 227-24 du code pénal. Depuis 1994, celui-ci prévoit que le fait « de diffuser (…) un message à caractère violent, incitant au terrorisme, pornographique (…) est puni de trois ans d’emprisonnement et de 75 000 euros d’amende lorsque ce message est susceptible d’être vu ou perçu par un mineur ». Quand cet article a été adopté, l’objectif avancé par le législateur était de « poursuivre les minitels roses qui sont aisément accessibles à des mineurs ». Aujourd’hui, cet article sert de prétexte pour interdire tout site internet qui permet à des mineur·es de consulter des contenus pornographiques.
Il s’avère qu’une telle interdiction, assez peu réaliste en l’état, n’est aujourd’hui pas mise en œuvre. Néanmoins, depuis sa création, cet article du code pénal est utilisé pour pousser différentes idées de contrôle et de surveillance d’Internet : obligation d’utiliser une carte d’identité numérique « qui permettrait au visiteur de justifier de sa majorité sur Internet », filtrage par défaut par les fournisseurs d’accès ou blocage administratif des sites… Tant de mesures qui, sur ce sujet, étaient pour l’instant restées au stade d’idées et n’avaient pas été mises en place.
Le gouvernement d’Emmanuel Macron en a néanmoins fait une de ses priorités. Ce dernier l’annonce lui-même en 2019 : « On va maintenant, enfin, préciser dans notre code pénal que le simple fait de déclarer son âge en ligne ne constitue pas une protection suffisante contre l’accès à la pornographie des mineurs ». Et de revenir aussi sur l’idée d’une généralisation des « dispositifs de vérificateur d’âge efficaces ».
Marc Dorcel et le Parlement
Comme pour la loi Avia, c’est une députée LREM qui s’est retrouvée avec la mission de retranscrire dans une loi les directives d’Emmanuel Macron : Bérangère Couillard. En décembre 2019, elle dépose une proposition de loi « visant à protéger les victimes des violences conjugales », avec un article 11 qui propose d’indiquer explicitement à l’article 227-24 du code pénal que « le simple fait de déclarer son âge en ligne ne constitue pas une protection suffisante pour les mineurs ». Et dès l’examen en
commission, elle relève que cela ne sera pas suffisant et qu’il faudrait aller encore plus loin : « la seule menace réellement dissuasive à l’encontre des conglomérats dont le modèle économique repose sur la captation du trafic le plus important possible consiste dans le blocage des sites internet depuis la France ».
Cette idée du blocage s’est concrétisée plus tard quand le texte arrive au Sénat, et qu’un amendement est proposé en séance publique : la sénatrice Marie Mercier (groupe Les Républicains) propose ainsi de mettre le CSA dans le jeu : lorsque celui constate qu’un site ne respecte pas l’article 227-24 du code pénal, il peut ainsi le mettre en demeure de « prendre toute mesure de nature à empêcher l’accès des mineurs au contenu incriminé ». Dans le cas où le site n’obtempère pas, le CSA peut saisir le juge des référés, c’est-à-dire le juge de l’urgence, afin de mettre « fin à l’accès à ce service » : autrement dit, d’en faire bloquer l’accès par les fournisseurs d’accès à Internet. La justice peut déjà prononcer ce type de blocage, mais il s’agit ici de donner toute la légitimité au CSA pour le demander en urgence, et donc de lui accorder un pouvoir de pression supplémentaire.
D’après le gouvernement, l’amendement est poussé par la société Dorcel – qui produit et diffuse des contenus pornographiques –, lui permettant au passage de mettre en difficulté ses concurrents dont le modèle, gratuit, n’entraîne pas l’authentification des utilisateurs par leur carte bancaire, contrairement au sien. L’amendement est adopté par le Sénat et le texte en son entier est voté le 9 juin 2020.
Des parlementaires qui n’ont toujours rien compris à Internet
Où commencer la critique sur un aussi mauvais projet ?
Les parlementaires reprennent une idée poussée pendant plusieurs années au Royaume-Uni. Cette idée a fini par être abandonnée après que plusieurs associations ont souligné les dangers des dispositifs de vérification d’âge pour la vie privée des utilisatrices et utilisateurs. Manifestement, le gouvernement français n’apprend pas des erreurs de ses voisins et pense pouvoir faire mieux tout en recopiant le système britannique- sans faire autre chose. Une certaine logique Shadok.
Ensuite, le gouvernement s’obstine à mettre le CSA au centre de sa vision d’Internet, une autorité créée et pensée pour la télévision. Et cela alors même que le Conseil constitutionnel vient de jeter à la poubelle toutes les idées du gouvernement pour faire du CSA l’autorité en charge de la « haine sur Internet ». Ici, le but est d’en faire l’autorité en charge de la régulation sur Internet des contenus pornographiques. Or, face à une notion si mal définie en droit français, le CSA va se retrouver avec le pouvoir de décider de ce qui relève ou non de la pornographie, avec la menace derrière de saisine du juge des référés et de blocage.
Par ailleurs, comme l’avait fait le Royaume-Uni, les parlementaires ne détaillent pas dans la loi le dispositif de vérification d’âge : ils laissent aux sites et au CSA le soin de les décider entre eux. Mais un rapide passage en revue des solutions envisagées ne peut que faire craindre une surveillance inadmissible sur Internet.
S’agira-t-il, comme en parle Marie Mercier, d’utiliser France Connect, le service d’identité numérique de l’État ? Au-delà de l’énorme jeu de données traitées par ce dispositif (voir à ce titre l’arrêté qui les détaille), va-t-on vraiment demander à des personnes d’utiliser le même identifiant pour les impôts, la sécurité sociale et la consultation de sites avec contenus pornographiques ? Même si Cédric O semble avoir rejeté cette idée, il parlait pourtant bien en juillet 2019 d’une idée assez proche d’identité numérique et de passer sa carte d’identité sur un lecteur pour vérifier sa majorité.
Ou alors s’agira-t-il d’imposer l’utilisation d’une carte bancaire, comme l’espère Dorcel ? Les effets rebonds possibles d’une telle mesure sont problématiques, imposer la carte bancaire, c’est, notamment, risquer que les données récoltées sur la consultation du site puissent être collectées par d’autres personnes, par exemple celles ayant accès au relevé du compte bancaire… Sans compter que, comme cela a déjà été relevé, la Cnil n’a jamais reconnu la preuve de la majorité comme finalité possible pour l’utilisation d’une carte de paiement.
En réalité, quelle que soit la solution, elle implique le traitement de données profondément intimes avec le risque permanent et terrible d’une faille de sécurité et d’une fuite des données d’une large partie de la population.
Enfin, faut-il rappeler encore aux parlementaires que, quel que soit le dispositif choisi, il est fort possible qu’il traite de données « sensibles », au sens du droit européen (car pouvant révéler « l’orientation sexuelle d’une personne physique »). Or, tout traitement de ce type de données est interdit, et ne peut être autorisé que pour certaines exceptions précises.
Centralisation et déshumanisation
D’autres critiques doivent évidemment être faites à une telle proposition, et le STRASS, syndicat du travail sexuel, les répète depuis le dépôt de cette proposition de loi : du fait des dispositifs de contrôle d’âge qui deviendraient obligatoires à mettre en œuvre pour l’ensemble des sites pouvant proposer des contenus considérés comme « pornographiques », « la conséquence probable de cet article sera la censure massive de contenu pornographique voire érotique légal, artisanal, amateur et indépendant tout en favorisant de facto les grands distributeurs ». De même : « on peut aussi s’attendre à ce que cette loi entraîne le blocage des sites d’annonces d’escort et de webcam érotique basés à l’étranger ainsi que les sites Web de travailleurSEs du sexe indépendantEs, fragilisant d’autant une communauté déjà marginalisée par la définition très large du proxénétisme et la pénalisation du client ». En renforçant la pornographie industrielle aux détriments des indépendantes, ce sont les pratiques de cette première qui sont promues, avec ses clichés les plus sexistes et ses conditions de travail les plus abjectes. Il ne restera alors rien de l’objectif que s’était donné la loi, celui de « protéger les victimes de violences conjugales ».
Identification permanente, surveillance de notre intimité, censure, contrôle du CSA sur Internet… Autant de raisons qui devraient conduire les parlementaires à abandonner cette idée. D’autant plus qu’elle conduit, enfin et surtout, à déshumaniser la question autour de la découverte d’Internet, à faire penser qu’une machine s’occupe de poser des limites à cette découverte, que la question ne nous concerne plus. C’est encore une fois vouloir régler par un outil technique magique une question éminemment humaine.
Le texte devrait passer dans les prochaines semaines en commission mixte paritaire pour que l’Assemblée Nationale et le Sénat se mettent d’accord. Si le passage sur « le simple fait de déclarer son âge en ligne ne constitue pas une protection suffisante pour les mineurs » semble définitivement adopté, l’article 11 bis A sur les pouvoirs du CSA peut encore être retiré. Le Parlement doit se saisir de cette occasion pour retirer sa dangereuse proposition.
";s:7:"dateiso";s:15:"20200703_093755";}s:15:"20200622_160230";a:7:{s:5:"title";s:87:"Racisme policier : les géants du Net font mine d’arrêter la reconnaissance faciale";s:4:"link";s:120:"https://www.laquadrature.net/2020/06/22/racisme-policier-les-geants-du-net-font-mine-darreter-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15991";s:7:"pubDate";s:31:"Mon, 22 Jun 2020 14:02:30 +0000";s:11:"description";s:261:"À un moment où l’institution policière est remise en question, les multinationales de la sécurité tentent de se racheter une image par des effets d’annonce : elles arrêteraient la reconnaissance faciale car la technologie ne serait…";s:7:"content";s:10587:"
À un moment où l’institution policière est remise en question, les multinationales de la sécurité tentent de se racheter une image par des effets d’annonce : elles arrêteraient la reconnaissance faciale car la technologie ne serait pas tout à fait au point et la police l’utiliserait à mauvais escient.
Arrêter la reconnaissance faciale ?
Plusieurs entreprises ont annoncé arrêter (temporairement ou non) la reconnaissance faciale. C’est d’abord IBM qui a ouvert le bal : l’entreprise a déclaré publiquement qu’elle arrêtait de vendre la reconnaissance faciale à « usage général » et appelle le Congrès américain à établir un « dialogue national » sur la question. Le même jour, une employée de Google dénonce les biais des algorithmes et la dangerosité de cette technologie. Le lendemain, Amazon affirme interdire l’utilisation par la police de son logiciel de reconnaissance faciale Rekognition pendant un an. Enfin, Microsoft dit vouloir arrêter de vendre de tels services tant qu’il n’y aura pas de cadre législatif plus précis.
Ce sont donc les entreprises à l’origine même de l’invention et de la mise au point de la reconnaissance faciale qui la dénoncent. Culotté.
Comme le montre bien Privacy International, IBM est une des premières entreprises à s’être lancée dans la reconnaissance faciale et à en avoir fait son fonds de commerce. Elle a carrément inventé le terme même de « Smart City » pour vendre toujours plus de systèmes de vidéosurveillance à travers le monde. Et, on y reviendra plus tard, la reconnaissance faciale n’est qu’une fraction des algorithmes vendus par IBM. Selon l’association britannique, IBM prend les devants pour éviter d’être accusée de racisme, comme ce fut le cas lorsque qu’il est apparu qu’elle vendait sa technologie aux Nazis pendant la Seconde guerre mondiale. En outre, c’est peut-être un moyen pour l’entreprise de se retirer d’un marché concurrentiel où elle ne fait pas office de leader, comme à Toulouse, où la mairie de J.-L. Moudenc a conclu un contrat avec IBM pour équiper une trentaine de caméras de VSA, sans succès apparent.
À travers ces déclarations, ces entreprises tentent d’orienter nos réponses à cette question classique qui se pose pour nombre de nouvelles technologies : la reconnaissance faciale est-elle mauvaise en soi ou est-elle seulement mal utilisée ? La réponse à cette question de la part d’entreprises qui font des bénéfices grâce à ces technologies est toujours la même : les outils ne seraient ni bons ni mauvais, c’est la façon dont on les utilise qui importerait.
C’est ainsi qu’une annonce qui s’apparente à un rétropédalage sur le déploiement de la reconnaissance faciale est en réalité la validation de l’utilité de cette technologie. Une fois que l’État aura établi un cadre clair d’utilisation de la reconnaissance faciale, les entreprises auront le champ libre pour déployer leurs outils.
Instrumentaliser les combats antiracistes pour se refaire une image
Que ce soit Google, Microsoft ou Amazon, les géants du numérique qui utilisent de l’intelligence artificielle ont déjà été épinglés pour les biais racistes ou sexistes de leurs algorithmes. Ces révélations, dans un contexte où de plus en plus de monde se soulève contre le racisme, au sein de la police notamment aux États-Unis, affectent de plus en plus l’image de ces entreprises déjà connues pour avoir peu de respect pour nos droits. Mais les géants du numérique ont plus d’un tour dans leur sac et maîtrisent les codes de la communication et gèrent avec attention leur image publique . Le débat autour des biais algorithmiques concentre l’attention, alors que pendant ce temps les questions de respect des données personnelles sont passées sous silence.
En annonçant mettre en pause l’utilisation de leurs outils de reconnaissance faciale tant qu’ils auront des biais racistes, Microsoft, IBM et Google font coup double : ils redorent leur image en se faisant passer pour des antiracistes alors qu’ils font leur business sur ces outils depuis des années et qu’ils imposent publiquement un débat dans lequel l’interdiction totale de la reconnaissance faciale n’est même pas envisagée.
Amazon fait encore plus fort, en prétendant interdire au gouvernement de se servir de Rekognition, son logiciel de reconnaissance faciale. Ainsi le message de l’entreprise est clair : ce n’est pas la reconnaissance faciale qui est dangereuse mais l’État.
Cette volte-face des géants du numérique rappelle leur énorme poids politique : après avoir passé des années à convaincre les autorités publiques qu’il fallait se servir de ces outils technologiques pour faire régner l’ordre, ils ont le luxe de dénoncer leur utilisation pour redorer leur blason. C’est le cas d’IBM, qui fait la promotion de la reconnaissance faciale depuis au moins 2012, en fournissant à la ville d’Atlanta, aux États-Unis, un programme de police prédictive avec les photos des criminels à haut risque. Et qui en 2020, dénonce son utilisation par la police, de peur que cela ne lui retombe dessus.
La reconnaissance faciale, un épouvantail qui rend la VSA acceptable
Ce qui est complètement passé sous silence dans ces annonces, c’est le fait que la reconnaissance faciale n’est qu’un outil parmi d’autres dans l’arsenal de surveillance développé par les géants du numérique. Comme elle touche au visage, la plus emblématique des données biométriques, elle attire toute la lumière mais elle n’est en réalité que la partie émergée de l’iceberg. En parallèle sont développés des outils de « vidéosurveillance automatisée » (reconnaissance de tenues vestimentaires, de démarches, de comportements, etc.) qui sont discrètement installés dans nos rues, nos transports en commun, nos écoles. En acceptant de faire de la reconnaissance faciale un outil à prendre avec des pincettes, les GAFAM cherchent à rendre acceptable la vidéosurveillance automatisée, et cherchent à rendre impossible le débat sur son interdiction.
Or, il est fondamental d’affirmer notre refus collectif de ces outils de surveillance. Car sous couvert « d’aide à la prise de décision », ces entreprises et leurs partenaires publics instaurent et réglementent les espaces publics. Quand une entreprise décide que c’est un comportement anormal de ne pas bouger pendant 5 minutes ou quand on se sait scruté par les caméras pour savoir si l’on porte un masque ou non, alors on modifie nos comportements pour entrer dans la norme définie par ces entreprises.
Les grandes entreprises de la sécurité ne sont pas des défenseuses des libertés ou encore des contre-pouvoirs antiracistes. Elles ont peur d’être aujourd’hui associées dans la dénonciation des abus de la police et de son racisme structurel. Leurs annonces correspondent à une stratégie commerciale bien comprise : faire profil bas sur certains outils pour mieux continuer à vendre leurs autres technologies de surveillance. En passant pour des « multinationales morales et éthiques » — si tant est que cela puisse exister — ces entreprises ne prennent que très peu de risques. Car ne soyons pas dupes : ni IBM, ni Microsoft et encore moins Amazon ne vont arrêter la reconnaissance faciale. Ces boîtes ne font que temporiser, à l’image de Google qui, en réponse aux dénonciations d’employé·es avait laissé entendre en 2018 que l’entreprise se tiendrait à distance du Pentagone, et qui a depuis lors repris ses collaborations avec l’armée américaine. Et, ce faisant, elles font d’une pierre deux coups : en focalisant le débat sur la reconnaissance faciale, les géants du numérique tentent non seulement de redorer leur image mais laissent aussi la porte grande ouverte pour déployer d’autres dispositifs de surveillance fondés sur l’intelligence artificielle et tout aussi intrusifs.
";s:7:"dateiso";s:15:"20200622_160230";}s:15:"20200618_193026";a:7:{s:5:"title";s:67:"Loi haine : le Conseil constitutionnel refuse la censure sans juge";s:4:"link";s:105:"https://www.laquadrature.net/2020/06/18/loi-haine-le-conseil-constitutionnel-refuse-la-censure-sans-juge/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15976";s:7:"pubDate";s:31:"Thu, 18 Jun 2020 17:30:26 +0000";s:11:"description";s:230:"Victoire ! Après une longue année de lutte, le Conseil constitutionnel vient de déclarer contraire à la Constitution la quasi-intégralité de la loi de lutte contre la haine en ligne. Au-delà de sa décision, le…";s:7:"content";s:4571:"
Victoire ! Après une longue année de lutte, le Conseil constitutionnel vient de déclarer contraire à la Constitution la quasi-intégralité de la loi de lutte contre la haine en ligne. Au-delà de sa décision, le Conseil constitutionnel refuse le principe d’une censure sans juge dans un délai imposé d’une heure ou de vingt-quatre heures.
En prétendant lutter contre la haine, la loi organisait en réalité une censure abusive d’Internet : la police pouvait exiger la censure de contenus à caractère terroriste en une heure ; les grandes plateformes devaient censurer tout contenu qui pourrait être haineux en vingt-quatre heures. Le Conseil constitutionnel a rendu une décision claire : ce principe de censure dans un délai fixe, que le Conseil critique violemment, est contraire à la Constitution. Comme nous le relevions dans nos observations envoyées au Conseil constitutionnel, un tel délai fixe, pour tout type de contenu, aggrave considérablement les risques de censures abusives, voire de censure politique. Le Conseil souligne que seuls les contenus manifestement illicites peuvent être retirés sans passer par un juge ; or, reconnaître qu’un contenu est manifestement illicite demande un minimum d’analyse, impossible en si peu de temps.
Notre victoire d’aujourd’hui est une lourde défaite pour le gouvernement. Il paie le prix d’une méthode irréfléchie et lourde de conséquences néfastes : alors que Facebook se vantait de lutter « efficacement » contre la haine en employant des armées de personnes et de machines pour censurer les contenus sur sa plateforme, le gouvernement a lancé une « mission Facebook » pour s’en inspirer. Il a ensuite chargé Madame Avia d’une loi pour imposer à l’ensemble de l’Internet le modèle de censure toxique et algorithmique de Facebook. Cette tentative aura été aussi inutile que dangereuse et inconstitutionnelle.
Mais, surtout, le gouvernement est intervenu au dernier moment pour faire « adopter à l’avance » en France le règlement européen contre la propagande terroriste, qui prévoit lui aussi une censure sans juge en une heure (lire notre analyse du texte). Alors que les débats européens sur ce sujet sont loin d’être terminés et qu’aucun compromis ne se dégage, la France a voulu mettre le législateur européen devant le fait accompli en tentant ce tour de force risqué. Son pari est entièrement perdu. Si le débat sur le règlement européen se poursuit, la France y aura perdu l’essentiel de sa crédibilité pour porter une proposition qu’elle est presque la seule, avec l’Allemagne, à vouloir imposer.
Pour lutter contre la haine en ligne, une autre stratégie, respectueuse des libertés fondamentales et d’un Internet libre, était possible : celle de l’interopérabilité. Cette voie, reprise par de nombreux amendements à droite comme à gauche durant l’examen de la loi haine, avait été repoussée par un gouvernement incapable de s’opposer véritablement aux géants du Net. En effet, le problème de la haine en ligne est accentué par le modèle économique des grandes plateformes qui ont un intérêt à mettre en avant des contenus conflictuels, voire haineux, qui feront réagir et rester sur leurs plateformes. Le législateur a refusé cette possibilité, se fourvoyant dans sa volonté de censure. Il faut désormais qu’il tire les conséquences de ce désaveu du Conseil constitutionnel.
Cette victoire est pour nous l’achèvement d’une longue année de lutte, à vos côtés, à tenter de convaincre les parlementaires que cette loi était contraire à la Constitution. Le Conseil constitutionnel sanctionne lourdement l’amateurisme du gouvernement et des député·es En Marche ayant renoncé à tout travail législatif sérieux.
";s:7:"dateiso";s:15:"20200618_193026";}s:15:"20200603_133549";a:7:{s:5:"title";s:42:"La Technopolice progresse, la Cnil mouline";s:4:"link";s:82:"https://www.laquadrature.net/2020/06/03/la-technopolice-progresse-la-cnil-mouline/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15970";s:7:"pubDate";s:31:"Wed, 03 Jun 2020 11:35:49 +0000";s:11:"description";s:286:"Depuis la crise sanitaire, la vidéosurveillance automatisée s’ancre un peu plus dans l’espace public : détection automatique du port de masque, de la température corporelle, des distances physiques… Ces dispositifs participent à la normalisation de la…";s:7:"content";s:14851:"
Depuis la crise sanitaire, la vidéosurveillance automatisée s’ancre un peu plus dans l’espace public : détection automatique du port de masque, de la température corporelle, des distances physiques… Ces dispositifs participent à la normalisation de la surveillance algorithmique et portent de nouvelles atteintes à nos libertés. Ils sont installés sans qu’aucune preuve de leur utilité n’ait été apportée, et souvent dans la plus complète opacité. La Cnil, en ne réagissant pas publiquement à ces dérives, participe à leur banalisation et à celle de toute la Technopolice.
Cela fait plus d’un an que nous combattons à travers la campagne Technopolice le déploiement de la vidéosurveillance automatisée. Elle s’est en quelques mois répandue dans de multiples villes en France (voir celles – très nombreuses – répertoriées sur le forum et le carré Technopolice). La crise sanitaire a, comme dans d’autres domaines, amplifié le phénomène. Ainsi, pendant que d’un côté la police a déployé illégalement ses drones pour démultiplier son pouvoir de surveillance sur le territoire, plusieurs collectivités ont passé des contrats avec des entreprises pour implémenter de nouvelles technologies de surveillance.
À Cannes et dans le métro parisien, la société Datakalab a fait installer son logiciel de détection de port de masque. Plusieurs mairies et écoles ont de leur côté déjà mis en place dans leurs locaux des caméras pour mesurer la température des personnes, avec pour objectif de les renvoyer chez elles en cas de température trop élevée – une expérimentation du même type est d’ailleurs en cours à Roissy. Quant à la mesure des distances physiques, elle est déjà en cours dans les transports à Cannes, et pas de doute qu’avec les propositions de plusieurs start-up, d’autres villes réfléchissent déjà à ces dispositifs.
Normalisation et opacité de la surveillance
La multiplication de ces dispositifs en crise sanitaire participe évidemment à la normalisation de la surveillance algorithmique. Derrière leurs apparences parfois inoffensives, ces technologies en banalisent d’autres, notamment la détection de « comportements suspects » ou le suivi automatique de personne selon un signe distinctif (démarches, vêtements…). Alors même que leur déploiement est programmé depuis plusieurs années, comment croire un seul instant que ces dispositifs seront retirés une fois la crise finie ? Au contraire, s’ils ne sont pas vigoureusement contestés et battus en brèche dès aujourd’hui, ils viendront simplement s’ajouter à l’arsenal toujours plus important de moyens de contrôle de la population. Le maire qui fait installer des caméras thermiques dans son école ne les considère-t-il pas lui-même comme « un investissement à long terme [pouvant] resservir au moment des épidémies de grippe et de gastro-entérite » ?
D’ailleurs, à Paris, l’expérimentation de détection de masque par la RATP dans la station de métro de Châtelet s’inscrit « dans le cadre du programme intelligence artificielle du groupe et du LAB’IA ». Nous dénoncions en février ce programme qui consiste pour la RATP à permettre aux industriels sécuritaires d’utiliser les usagères et usagers du métro comme des cobayes pour leurs algorithmes de détection automatique. Quelles entreprises y participent ? Quels algorithmes y sont testés ? Impossible de le savoir précisément. Car c’est l’autre caractéristique de ces expérimentations : leur opacité. Impossible de savoir quelles données traite le dispositif de Datakalab et de quelle manière, ou ce que captent, enregistrent et déduisent exactement les caméras thermiques d’Aéroports de Paris, ou les algorithmes de détection des distances à Cannes. À part une maigre communication dans la presse, les conventions conclues n’ont pas été publiées. Le seul moyen pour y avoir accès est d’adresser aux différents organismes concernés des demandes CADA (voir notre guide) et se plier à leur bon vouloir sur ce qu’ils souhaitent ou non communiquer.
Des dispositifs probablement illégaux
Au-delà de la normalisation et de l’opacité, plusieurs questions juridiques se posent.
On peut déjà critiquer la nécessité et la proportionnalité de tels outils : l’article 5 du RGPD impose que les données personnelles traitées doivent toujours être « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Autrement dit, et comme le dit la Cnil elle-même : « les données ne devraient être traitées que si la finalité du traitement ne peut être raisonnablement atteinte par d’autres moyens moins intrusifs ». Un tel questionnement semble totalement absent de la vidéosurveillance automatisée. N’y a-t-il vraiment aucun autre moyen de voir si des personnes portent un masque ou respectent des distances physiques que de les soumettre à une caméra et son algorithme ? N’importe quel humain semble pourtant capable de réaliser ces tâches. L’Humanité s’est très bien passée d’algorithme jusqu’à aujourd’hui.
Et quelle base légale pour ces dispositifs ? Par exemple, pour les caméras thermiques qui traitent des données dites « sensibles » (comme les données de santé) et dont le traitement est par principe interdit ? Il n’est autorisé que dans certaines conditions (article 9 du RGPD). Parmi ces exceptions, on trouve bien des motifs de « médecine du travail » ou de « santé publique » mais à chaque fois, de tels traitements doivent être basés sur le « droit de l’Union ou [le] droit de l’État membre ». Ce droit n’existe pas : il n’existe aucun cadre juridique spécifique à la vidéosurveillance automatisée. La Cnil dit d’ailleurs de nouveau elle-même : « En l’état du droit (notamment de l’article 9 du RGPD), et sauf à ce qu’un texte en prévoit expressément la possibilité, sont ainsi interdits aux employeurs (…) les opérations automatisées de captation de température ou au moyen d’outils tels que des caméras thermiques ».
De tels questionnements rejoignent ceux que nous posons constamment sur la vidéosurveillance automatisée et que nous avons soulevés lors d’un contentieux (aujourd’hui perdu) à Marseille. Comment ne pas s’étonner alors que la Cnil laisse se répandre cette Technopolice ?
Le silence coupable de la Cnil
Cela fait maintenant presque deux ans que nous avons rencontré des membres de la Cnil pour échanger sur ces sujets et depuis… rien. Ou presque : un avis sur les portiques de reconnaissance faciale et un avertissement sur un projet de capteurs sonores à Saint-Étienne (sur lesquels elle a volontairement communiqué). Et encore, seulement après que nous les ayons publiquement dénoncés et attaqués.
Depuis le début de la crise sanitaire, il semble bien qu’il y ait eu des échanges entre la Cnil et les entreprises ou autorités responsables sur les nouvelles expérimentations. C’est notamment le cas de celle à Cannes et dans le métro parisien, mais aussi pour l’expérimentation dans les aéroports. Or, là encore, aucune publicité n’a été faite sur ces échanges. Ils sont souvent pourtant d’un grand intérêt pour comprendre les velléités sécuritaires des autorités, des entreprises et pour mesurer les faiblesses des contrôles de la Cnil. C’était d’ailleurs le cas pour les portiques de reconnaissance faciale dans les lycées de la Région Sud où la Cnil avait rendu un avis non-public, que nous avons dû nous-même lui demander. La mollesse de la CNIL nous avait forcées d’agir de notre côté devant le tribunal administratif (où nous avons obtenu gain de cause quelques mois plus tard).
En dehors de ces quelques cas, l’action de la CNIL contre la Technopolice semble largement insuffisante. Son action se limite à émietter quelques principes théoriques dans ses communications (comme vu plus haut) mais n’en tire aucune conséquence concrète. Ou alors elle fait secrètement des contrôles dont nous ne sommes informés qu’après avoir attaqué nous-même le dispositif devant la justice. Ou alors elle ne veut rien faire. Rien sur les analyses d’émotions et la détection d’évènements violents en expérimentation à Nice, rien sur les logiciels de la société Briefcam installés dans plusieurs dizaines de villes en France, rien sur les capteurs sonores de Strasbourg, rien sur les logiciels de Huawei à Valenciennes.
Il est même extrêmement étonnant de voir être proposés et installés des outils de détection de température alors que la Cnil les a expressément interdits… On en vient presque à oublier qu’elle a le pouvoir d’ester en justice et de sanctionner (lourdement) le non-respect des textes [1]. Comme pour les drones, ce rôle semble quelquefois reposer sur les capacités contentieuses des associations.
Ce silence coupable participe à la prolifération des dispositifs sur le territoire français. Ces derniers, comme la reconnaissance faciale, doivent être combattus. Ils accroissent considérablement la capacité des autorités à nous identifier et à nous surveiller dans l’espace public, démultipliant les risques d’abus, et participent au déploiement d’une société de surveillance. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible, indolore et profondément déshumanisant.
";s:7:"dateiso";s:15:"20200603_133549";}s:15:"20200602_172101";a:7:{s:5:"title";s:69:"Crise du Covid-19 : la technopolice profite de la stratégie du choc";s:4:"link";s:106:"https://www.laquadrature.net/2020/06/02/crise-du-covid-19-la-technopolice-profite-de-la-strategie-du-choc/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15957";s:7:"pubDate";s:31:"Tue, 02 Jun 2020 15:21:01 +0000";s:11:"description";s:233:"Ce texte a été publié au sein de l’œuvre collective « Résistons ensemble, pour que renaissent des jours heureux », (Télécharger au format epub et PDF) qui vise à faire le point sur la situation politique actuelle…";s:7:"content";s:13084:"
Ce texte a été publié au sein de l’œuvre collective « Résistons ensemble, pour que renaissent des jours heureux », (Télécharger au format epub et PDF) qui vise à faire le point sur la situation politique actuelle et à mettre en avant des propositions pour une société plus juste. Benoît Piédallu, membre de La Quadrature du Net, y tente une analyse de l’avancée des technologies de surveillance durant la crise du Covid19, dans un texte que nous reproduisons donc ci-dessous.
En février ou début mars 2020, voyant arriver la lame de fond de la pandémie, personne à La Quadrature du Net n’avait imaginé à quel point elle nous forcerait à mobiliser nos forces. Mobilisé·es à l’époque par la loi Avia (qui transfère des responsabilités de censure aux grandes plateformes), par la promotion de l’interopérabilité (qui imposerait ces mêmes grandes plateformes à se connecter à d’autres outils), ou encore à forcer la main à la CNIL (Commission Nationale de l’Informatique et des Libertés) sur la législation des cookies, comment aurions-nous pu penser qu’un événement sanitaire allait bousculer à ce point notre agenda ?
Et pourtant, les premiers sujets sont vite arrivés. Quelques jours après le début du confinement officiel (le 17 mars), Orange a informé les médias que 17 % des Parisien·ne·s avaient quitté la capitale au début du confinement, ce que l’opérateur n’avait pu savoir qu’en utilisant des données de bornage de téléphones mobiles, pourtant non prévues à cette fin. Puis c’est la mise en place d’un système de traçage total de la population dont il a très vite été question. La police, décidant seule de qui avait le droit de se trouver dans les rues ou pas, en profita pour utiliser de manière massive ses drones, de la prévention à la verbalisation, à l’image de ces vidéos venant de Chine dont tout le monde se moquait pourtant quelques semaines plus tôt. Profitant de cette situation d’urgence, les élus locaux se trouvant sommés d’agir alors qu’ils se trouvaient dans un entre-deux-tours sans fin, de nombreuses entreprises se mirent à proposer, au vu et au su de tous, leurs technologies de surveillance, même gracieusement, sous prétexte de lutte contre la pandémie.
La surveillance de la population est un sujet de lutte depuis bien longtemps entre les associations de défense des droits fondamentaux d’une part, et les entreprises privées et les autorités d’autre part. Passées de paranos à tout juste réalistes à l’occasion de la parution des révélations Snowden en 2013, ces associations ont bénéficié d’une très courte fenêtre de tir avant qu’entreprises spécialisées et politiques pro-surveillance ne reprennent la main. C’est le RGPD, Règlement général sur la protection des données européen, qui en aura bénéficié dans sa rédaction. Mais, dans le fond, jamais le gouvernement français n’aura cessé d’ajouter des réglementations pour installer de nouveaux outils de surveillance de sa population, quand ce ne sont pas des technologies de surveillance mises en œuvre illégalement par différents services, et rendues légales une fois le législateur mis devant le fait accompli.
« Technopolice » est une campagne lancée par la Quadrature en septembre 2019, qui liste, dénonce – et lutte contre – les outils de surveillance urbaine. Qu’il s’agisse de la reconnaissance biométrique, de détection d’événement, d’usage de drones, de croisement et d’analyse algorithmique branchée sur les données urbaines, ils sont, depuis quelques années, déployés en catimini par des collectivités locales, majoritairement sous couvert d’expérimentation. Ce principe est un paravent qui leur permet souvent d’éviter le lancement d’appels d’offres, mais aussi de rassurer la population : en présentant à ses administré·e·s un projet comme « temporaire », un·e responsable politique peut plus facilement, sans avoir à prouver l’efficacité d’un système, le déployer dans l’espace public.
C’est aussi une technique utilisée au niveau national : à l’occasion de la loi de finances 2020, un article prévoyait la mise en place d’une expérimentation de trois ans (sic) par laquelle le ministère des Finances se voyait autorisé à capter des données sur divers services en ligne (leboncoin, eBay…), puis à leur appliquer des algorithmes à des fins de lutte contre la fraude fiscale. Et Cédric O demandait encore, fin décembre 2019, la mise en place d’une expérimentation nationale de la technologie de reconnaissance faciale, dont nous demandons de notre côté l’interdiction totale.
Pour chaque déploiement, il existe dans le monde une démonstration de détournement par l’administration : la reconnaissance faciale en Inde, présentée initialement pour retrouver les enfants perdus ? Utilisée pour lister les manifestant·e·s. L’utilisation du big data pour lutter contre la fraude fiscale ? Détournée aux Pays-Bas pour discriminer les populations les plus pauvres.
La crise que nous traversons a changé la donne : ces entreprises sécuritaires ne se cachent plus et vont démarcher les collectivités, organismes ou établissements de santé pour leur proposer des outils de surveillance et de contrôle de la population.
La police avoue utiliser ses drones sans base légale. Et en profite pour plus que doubler sa flotte à travers un contrat de quatre millions d’euros. Même des entreprises sans activité militaire ou de sécurité s’y mettent, à l’image de Sigfox dont le patron propose, comme solution alternative à l’application de traçage StopCovid, de fournir à la population des bracelets électroniques.
C’est la stratégie du choc qui est à l’œuvre. Profitant du traumatisme des bilans quotidiens de morts par milliers et du confinement imposé à une société animée par le lien social, les profiteurs de crise avancent leurs pions pour ouvrir une place durable à leurs marchés sécuritaires.
Pour certains, leurs noms sont connus de toutes et tous : ainsi Orange vend-il à des clients professionnels des statistiques basées sur les déplacements de ses abonnés, sans l’accord de ces derniers. Son nom se retrouve aussi lié à Dassault Système et Capgemini dans le développement de StopCovid, l’application de traçage de la population.
Tout est mis en œuvre dans l’idée que l’ennemi est le peuple. On lui ment, on le surveille, on le trace, on le verbalise s’il sort de chez lui. On rend responsables les malades, car ce sont certainement ceux qui n’ont pas respecté le confinement. On rend le peuple responsable individuellement en lui faisant porter le poids de la mort des autres. Pas une fois le pouvoir politique, durant cette crise, ne fera amende honorable sur ses manquements. Non : pour les gouvernants, dont les administrations détruisaient encore des masques courant mars, les solutions sont des outils de contrôle (température, port du masque), de surveillance (StopCovid, drones, patrouilles dans les rues), de nouvelles bases de données (extension de ADOC, pour les verbalisations routières, Contact Covid et SIDEP pour le traçage manuel des « brigades Covid »), ou encore le contrôle de l’information (Désinfox Coronavirus)…
Cet état d’urgence sanitaire, qui impose le confinement et ouvre de nouvelles bases de données de la population, devrait se finir au plus tard au 10 juillet 2020. Mais l’histoire récente montre qu’un état d’urgence temporaire peut aisément être reconduit plusieurs fois, jusqu’à entrer dans le droit commun. Et, même sans une reconduction législative perpétuelle, c’est l’entrée dans les habitudes qui est à craindre.
Le risque, c’est l’effet cliquet : une fois une technologie déployée, l’effort pour la supprimer sera largement supérieur à celui nécessaire pour empêcher son installation. Côté politique, par volonté de rentabiliser un investissement ou par peur de se voir reprocher par son électorat d’avoir réduit l’illusoire protection. Côté population, supprimer une technologie à laquelle les habitants se seront accoutumés demandera un effort considérable. Le déploiement, durant des mois, d’outils de contrôle tend à les faire se fondre dans le décor. Qui ira demander l’abandon d’outils acquis à grands frais (8 000 € la caméra thermique fixe) une fois la pandémie passée ? Et comment décidera-t-on de la fin de cette pandémie : par l’arrivée d’un vaccin ? Tout comme l’état d’urgence contre le terrorisme a été intégré dans le droit commun, il est possible que l’hypothèse d’un retour du danger sanitaire autorise les autorités à conserver les dispositions prévues pour le Covid-19.
Mais la lutte contre un danger sanitaire est l’objet d’un plan de gestion des risques, pas d’un système de surveillance généralisé et permanent. Un plan qui prévoirait la mise à disposition continue d’un nombre suffisant de masques, et un système hospitalier adapté.
Alors quoi ? Quels outils politiques pour éviter la prolongation d’un état d’exception et cette tentation permanente de fliquer la population ?
Les élus, l’administration, le pouvoir, sont les moteurs, depuis plusieurs dizaines d’années, de cette inflation sécuritaire qui alimente quantité de discours et sert les idéologies politiques. Il faut donc dès maintenant informer l’opinion publique sur les risques qu’il y a à continuer dans cette voie, et la mobiliser pour la mise en place ou le renforcement de garde-fous. Nous proposons quelques pistes pour aller dans ce sens.
• La CNIL est en France l’autorité dont la mission est de veiller au respect des données personnelles, que ce soit par l’État ou les entreprises privées. Avant 2004, toute création de traitement devait passer par une autorisation de la CNIL. Elle n’est, depuis, qu’une autorité consultative dont le pouvoir a été limité aux sanctions contre les entreprises privées. Il est nécessaire que son autorité à l’encontre du législateur soit restaurée, ce qui implique d’améliorer son indépendance, par une augmentation de son budget, un changement du processus de nomination des commissaires, en développant la place de la société civile en son sein ainsi qu’en restituant son pouvoir de blocage réglementaire.
• L’utilisation de l’outil informatique par l’État doit être transparente. Les algorithmes utilisés pour prendre des décisions administratives doivent être publiés dès leur mise en œuvre.
• Afin de garantir une indépendance technique de ces mêmes administrations, il est nécessaire qu’elles utilisent des logiciels libres, que ce soit pour le système d’exploitation ou les logiciels courants.
• Les décisions politiques autour de l’usage de technologies ne doivent pas se faire sans la population. Il est nécessaire pour cela de prévoir à l’école et par la suite une formation suffisante au numérique, à ses conséquences techniques, sociales et politiques.
• L’installation d’outils de contrôle dans l’espace public doit être interdite tant qu’une alternative non automatisée est possible, ce qui exclut la quasi-totalité des outils déployés durant cette crise.
• Une limitation drastique des champs du renseignement (et l’arrêt de l’expérimentation sine die des boîtes noires), et un développement de ses contre-pouvoirs.
• Une limitation immédiate de la collecte et de la conservation des données de connexion, en conformité avec la jurisprudence européenne.
• Des sanctions rapides et drastiques contre le secteur du traçage publicitaire en ligne pour faire cesser rapidement les illégalités au regard du RGPD.
• Le développement d’un contre-pouvoir sérieux face aux abus de la police.
";s:7:"dateiso";s:15:"20200602_172101";}s:15:"20200526_161150";a:7:{s:5:"title";s:60:"Loi Avia, nos observations devant le Conseil constitutionnel";s:4:"link";s:100:"https://www.laquadrature.net/2020/05/26/loi-avia-nos-observations-devant-le-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15944";s:7:"pubDate";s:31:"Tue, 26 May 2020 14:11:50 +0000";s:11:"description";s:241:"Lundi dernier, les sénateurs Républicains ont saisi le Conseil constitutionnel contre la loi Avia, qui avait été définitivement adoptée le 13 mai. Le Conseil devrait se prononcer dans les semaines à venir. Pour l’y aider,…";s:7:"content";s:39290:"
Lundi dernier, les sénateurs Républicains ont saisi le Conseil constitutionnel contre la loi Avia, qui avait été définitivement adoptée le 13 mai. Le Conseil devrait se prononcer dans les semaines à venir. Pour l’y aider, nous nous joignons à Franciliens.net pour envoyer au Conseil notre contribution extérieure (accessible en PDF, 7 pages, ou ci-dessous). Notre objectif principal est de démontrer que le nouveau délai d’une heure prévu en matière de censure anti-terroriste est contraire à la Constitution.
Objet : Contribution extérieure des associations La Quadrature du Net et Franciliens.net sur la loi visant à lutter contre les contenus haineux sur internet (affaire n° 2020-801 DC)
Monsieur le président,
Mesdames et Messieurs les membres du Conseil constitutionnel,
La Quadrature du Net est une association qui œuvre à la défense des libertés à l’ère du numérique. Franciliens.net est un fournisseur d’accès à Internet. À ce titre, les deux associations ont, durant les débats parlementaires de la proposition de loi visant à lutter contre les contenus haineux sur internet, attiré l’attention du public et des parlementaires notamment sur les articles 1er et 6 du texte, qui, pour plusieurs raisons, nous semblent contraires à la Constitution. Nous avons ainsi l’honneur de vous adresser cette présente contribution extérieure au nom des associations La Quadrature du Net et Franciliens.net afin de démontrer l’inconstitutionnalité de ces deux articles.
I. Sur le délai d’une heure en matière de censure antiterroriste
Le I de l’article 1er de la loi qui vous est déférée modifie le régime de censure administrative du Web, dont il faut brièvement rappeler l’historique.
L’article 4 de la loi n° 2011-267 du 14 mars 2011 a ajouté un cinquième alinéa au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN). Cette disposition a donné à l’administration un pouvoir jusqu’ici réservé à l’autorité judiciaire : exiger que les fournisseurs d’accès à Internet bloquent les sites qu’elle désigne comme diffusant des images d’abus d’enfant. Dans la limite de la lutte contre de telles images, le Conseil constitutionnel avait reconnu cette disposition conforme à la Constitution dans sa décision n° 2011-625 DC du 10 mars 2011.
Trois ans plus tard, l’article 12 de la loi n° 2014-1353 du 13 novembre 2014 a déplacé cette disposition à l’article 6-1 de la LCEN en y apportant d’importantes modifications. La principale modification a été d’étendre cette censure aux sites que l’administration considère comme relevant du terrorisme – et ce toujours sans appréciation préalable d’un juge. Le Conseil constitutionnel n’a jamais examiné la constitutionnalité d’une telle extension.
Six ans plus tard, aujourd’hui, le I de l’article 1er de la loi déférée modifie encore cette disposition. La principale modification est de réduire à une heure le délai, jusqu’alors de 24 heures, dont disposent les sites et hébergeurs Web pour retirer un contenu signalé par l’administration avant d’être bloqués par les fournisseurs d’accès à Internet et moteurs de recherche.
C’est la réduction de ce délai que le Conseil constitutionnel examine aujourd’hui. Il ne fait pas débat que le dispositif de censure administrative et, par là-même, la réduction du délai de ce dispositif, porte atteinte à la liberté d’expression. S’il est de jurisprudence constante que le droit à la liberté d’expression est un droit fondamental protégé par le Conseil constitutionnel, il sera démontré ci-dessous que l’atteinte portée par la loi qui vous est déférée est disproportionnée et contraire à la Constitution.
Sur le défaut d’adéquation
En droit, la jurisprudence du Conseil constitutionnel exige que « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur »1« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Valérie Goesel-Le Bihan, Cahier du Conseil constitutionnel, n° 22 (juin 2007), https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/le-controle-de-proportionnalite-exerce-par-le-conseil-constitutionnel.
En l’espèce, aucun site ou hébergeur Web n’est techniquement capable de supprimer en une heure l’ensemble des contenus que l’administration est susceptible de lui signaler. L’exemple le plus flagrant est celui de la vidéo de la tuerie de Christchurch du 15 mars 2019. Facebook a expliqué2« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand que, au cours des 24 heures suivant la publication de la vidéo sur sa plateforme, ses services de modération ont supprimé 1,2 million de copies de la vidéo, mais ont échoué à en bloquer 300 000 autres copies. Si Facebook, avec ses milliers de modérateurs et ses algorithmes de pointe, a échoué à retirer entièrement cette vidéo en 24 heures, il est certain que la vaste majorité des hébergeurs seront parfaitement incapables de le faire en seulement une heure.
De façon plus triviale, mais tout aussi probante, les très nombreux sites ou hébergeurs Web, dont les administrateurs techniques ne travaillent ni la nuit ni le week-end, seront dans l’impossibilité de retirer en une heure les contenus signalés par la police au cours de ces périodes. Il en va ainsi par exemple de La Quadrature du Net, qui héberge 24 000 utilisateurs sur son réseau social mamot.fr, et dont les administrateurs techniques, bénévoles, ne travaillent ni la nuit ni le week-end.
En conclusion, le nouveau délai ne correspondant à aucune réalité technique, il n’est manifestement pas adéquat.
Sur le défaut de nécessité
En droit, une mesure restreignant un droit fondamental n’est conforme à la Constitution que si elle « n’excède pas ce qui est nécessaire à la réalisation de l’objectif poursuivi »3Valérie Goesel-Le Bihan,op. cit..
En l’espèce, le gouvernement n’a jamais produit la moindre étude ou analyse pour expliquer en quoi les contenus terroristes devraient systématiquement être censurés en moins d’une heure. La recherche scientifique est pourtant riche à ce sujet, et va plutôt dans un sens contraire. En 2017, l’UNESCO publiait un rapport4Les Jeunes et l’extrémisme violent dans les médias sociaux : inventaire des recherches, 2018, https://unesdoc.unesco.org/ark:/48223/pf0000261841 analysant 550 études concernant la radicalisation des jeunes sur Internet. Le rapport conclut que « les données dont on dispose actuellement sur les liens entre l’Internet, les médias sociaux et la radicalisation violente sont très limitées et ne permettent pas encore de tirer des conclusions définitives » et que « les données sont insuffisantes pour que l’on puisse conclure à l’existence d’un lien de cause à effet entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour prévenir la radicalisation violente des jeunes sur l’Internet n’ont pas fait la preuve de leur efficacité, alors qu’il est clair qu’elles peuvent porter atteinte aux libertés en ligne, en particulier la liberté d’expression ». La radicalisation semble avant tout résulter d’interactions interpersonnelles et non de propagande en ligne – par exemple, Mohammed Merah, Mehdi Nemmouche, Amedy Coulibably et les frères Kouachi n’avaient pas d’activité en ligne5Damien Leloup, « Paris, Bruxelles, Toulouse… la radicalisation des terroristes n’a pas eu lieu sur le Web », Le Monde, 12 janvier 2015, https://www.lemonde.fr/pixels/article/2015/01/12/paris-bruxelles-toulouse-la-radicalisation-des-terroristes-n-a-pas-eu-lieu-sur-le-web_4554384_4408996.html en lien avec le terrorisme.
Puisque, dans la majorité des cas, il semble peu utile de censurer la propagande terroriste en ligne, il n’est manifestement pas nécessaire de la censurer systématiquement en moins d’une heure. Dans les cas où la censure rapide d’un contenu particulièrement dangereux serait requise, il suffirait de déterminer au cas par cas l’urgence nécessaire pour ce faire. C’est la solution qui a toujours résulté de l’application de la LCEN depuis 2004. Par exemple, en 2012, un hébergeur Web a été définitivement condamné6Cour d’appel de Bordeaux, civ. 1ere, sect. B, 10 mai 2012, Krim K. c. Amen SAS et Pierre G., n° 11/01429 par la cour d’appel de Bordeaux pour ne pas avoir retiré en moins de 24 heures un contenu particulièrement sensible – des écoutes téléphoniques réalisées au cours de l’enquête judiciaire sur l’affaire AZF.
En conclusion, il n’est pas nécessaire d’exiger que les contenus terroristes soient systématiquement retirés en une heure dans la mesure où le droit antérieur suffit largement pour atteindre l’objectif poursuivi.
Sur le défaut de proportionnalité
En droit, « toute mesure restreignant un droit fondamental […] doit enfin être proportionnée au sens strict : elle ne doit pas, par les charges qu’elle crée, être hors de proportion avec le résultat recherché »7Valérie Goesel-Le Bihan, op. cit..
En l’espèce, le délai d’une heure est si court qu’il accroît hors de toute proportion acceptable les risques d’erreurs et d’abus.
Premièrement, l’urgence imposée par ce nouveau délai conduira à une multitude d’erreurs techniques et à retirer davantage de contenus que nécessaire. Ces erreurs seront d’autant plus probables que la plupart des hébergeurs n’auront jamais les moyens organisationnels de grandes plateformes comme Google ou Facebook. Trop souvent, dans l’urgence et sans organisation dédiée pour ce faire, la meilleure façon de retirer une image ou une vidéo en moins d’une heure sera de bloquer l’accès à l’ensemble d’un service. Ce type de dysfonctionnement n’est ni rare ni limité aux petites structures : en octobre 2016, en tentant d’appliquer l’article 6-1 de la LCEN, Orange avait bloqué par erreur8Voir le communiqué du ministère de l’Intérieur : https://www.interieur.gouv.fr/Archives/Archives-des-communiques-de-presse/2016-Communiques/Redirection-vers-la-page-de-blocage-des-sites-terroristes-pour-les-clients-de-l-operateur-orange l’accès à Google, Wikipédia et OVH pour l’ensemble de ses utilisateurs.
Deuxièmement, ce nouveau délai intervient dans un contexte juridique qui était déjà particulièrement flou. Les « actes de terrorisme » visés à l’article 421-2-5 du Code pénal, auquel l’article 6-1 de la LCEN renvoie, ne sont pas explicitement définis par la loi française. Il faut se référer à l’article 3 de la directive 2017/541, relative à la lutte contre le terrorisme, pour en avoir une définition textuelle. Il s’agit notamment du fait, ou de la tentative, de « causer des destructions massives […] à un lieu public ou une propriété privée », quand bien même aucun humain n’aurait été mis en danger et que le risque se limiterait à des « pertes économiques ». Pour relever du terrorisme, il suffit que l’acte vise à « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque ».
Ainsi, même s’il peut sembler évident de qualifier de terroriste une vidéo revendiquant un attentat meurtrier, cette qualification est beaucoup moins évidente s’agissant de propos politiques bien plus triviaux qui, d’une façon ou d’une autre, peuvent être liés à des destructions matérielles. Il peut s’agir par exemple d’appels vigoureux à aller manifester, ou encore de l’éloge de mouvements insurrectionnels historiques (prise de la Bastille, propagande par le fait, sabotage luddite…). Les hébergeurs n’auront plus qu’une heure pour apprécier des situations qui, d’un point de vue juridique, sont tout sauf univoques. Devant la menace d’importantes sanctions, les hébergeurs risquent de censurer quasi-automatiquement la plupart des contenus signalés par l’administration, sans la moindre vérification sérieuse.
Troisièmement, l’article 6-1 de la LCEN échoue à compenser le défaut de contrôle judiciaire préalable en prévoyant qu’une personnalité qualifiée de la CNIL, informée de toutes les demandes de censure émises par l’administration, puisse contester celles-ci devant les juridictions administratives. Dans les faits et depuis 2015, cette personnalité qualifiée est Alexandre Linden, qui n’a eu de cesse de dénoncer l’absence d’effectivité de sa mission. Il concluait ainsi son dernier rapport de 20199Alexandre Linden, Rapport d’activité 2018 de la personnalité qualifiée, CNIL, 27 mai 2019, https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_blocage_2018_web.pdf, quant aux façons d’améliorer les conditions d’exercice de sa mission : « On peut une nouvelle fois légitimement s’interroger sur l’utilité de formuler des préconisations à l’issue de cette quatrième année d’activité, lorsque l’on constate que les préconisations mentionnées dans les trois premiers rapports d’activité n’ont pas été prises en compte par les autorités publiques […]. Cette situation compromet l’effectivité de son contrôle sur l’ensemble des demandes de retrait de contenus, de blocage ou de déréférencement ». Ne pouvant mener correctement cette mission, la CNIL a demandé au gouvernement qu’elle lui soit retirée – ce que l’article 7, IV, 3°, de la loi déférée a réalisé en confiant désormais cette mission au CSA.
Quatrièmement, à défaut d’intervention préalable de l’autorité judiciaire, cette nouvelle urgence permettra à l’administration d’abuser plus facilement de son pouvoir, tel qu’elle a déjà pu le faire. En septembre et octobre 2017, par exemple, la police nationale a invoqué l’article 6-1 de la LCEN pour exiger aux hébergeurs Indymedia Nantes et Indymedia Grenoble de retirer quatre tribunes anarchistes faisant l’apologie d’incendies de véhicules de le police et de la gendarmerie. La personnalité qualifiée de la CNIL, informée de ces demandes de censure, en a contesté la légalité devant le tribunal administratif de Cergy-Pontoise. Il a fallu attendre le 4 février 2019 pour que ce dernier reconnaisse10TA Cergy-Pontoise, 4 févr. 2019, n° 1801344, 1801346, 1801348 et 1801352 que la police avait abusé de ses pouvoirs dans l’ensemble des quatre demandes. Ainsi, l’administration a pu contourner la justice pendant un an et demi afin de censurer des opposants politiques. Réduire à une heure le délai laissé aux hébergeurs pour évaluer un contenu signalé par la police ne fera qu’accroître les risques que celle-ci abuse de son pouvoir.
En conclusion, le nouveau délai d’une heure aggrave hors de toute proportion acceptable les risques d’erreurs techniques ou juridiques propres au dispositif de censure administrative, ainsi que les risques d’abus de la part d’une administration qui échappe à tout contre-pouvoir effectif.
Il est utile de souligner que, si le projet de règlement européen visant à lutter contre les contenus terroristes en ligne prévoit aussi un délai d’une heure pour retirer les contenus signalés, ce délai est le principal point de désaccord du débat législatif concernant ce texte, et ce débat est loin d’être achevé. Au cours du dernier examen du Parlement européen, un amendement11Voir l’amendement n° 157 : https://www.europarl.europa.eu/doceo/document/A-8-2019-0193-AM-156-157_FR.pdf de Mme Eva Joly a proposé de remplacer le « délai d’une heure » par « les plus brefs délais » : cet amendement n’a été rejeté qu’à 297 voix favorables contre 300 voix défavorables12Voir les résultats du vote, page 17, à propos de l’amendement n° 157 : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+PV+20190417+RES-VOT+DOC+PDF+V0//FR&language=FR, et ce alors même que le texte prévoit davantage de garanties que le droit français, en exigeant notamment que l’injonction de retrait ne puisse être émise que par « une autorité judiciaire ou une autorité administrative fonctionnellement indépendante »13Voir article 17, §1, du texte adopté par le Parlement européen : https://www.europarl.europa.eu/doceo/document/TA-8-2019-0421_FR.html.
II. Sur le nouveau régime de censure en 24 heures
Le II de l’article 1er de la loi qui vous est déférée ajoute un article 6-2 à la LCEN, qui crée un nouveau régime de responsabilité spécifique à certains intermédiaires techniques et à certaines infractions. Ce nouveau régime est contraire à la Constitution en raison de l’atteinte disproportionnée à la liberté d’expression qu’elle entraîne, au moins de deux façons.
Sur les plateformes concernées
L’objectif de ce nouveau régime est de contenir la diffusion des discours de haine et de harcèlement sur les grandes plateformes commerciales, en premier titre desquelles Facebook, Youtube et Twitter, en leur imposant des obligations spécifiques. Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L. 111-7 du code de la consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (que l’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale, tel que Wikipédia, seront aussi concernés.
Pourtant, le modèle de modération de ces plateformes non-commerciales, qui repose sur une communauté bénévole et investie, a pu se montrer plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par la rapporteure de la loi déférée ni par le gouvernement. Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par la loi déférée. Il n’est pas nécessaire de leur imposer de nouvelles obligations qui nuiront à leur développement et à la liberté de communication de leurs utilisateurs.
En conséquence, ce nouveau régime porte une atteinte disproportionnée au droit à la liberté d’expression. À titre subsidiaire, ce nouveau régime ne pourrait être conforme à la Constitution qu’à la condition que son champ d’application soit interprété de façon à exclure les plateformes non-lucratives, par exemple tel que le prévoit l’actuel projet de loi relatif à la communication audiovisuelle14http://www.assemblee-nationale.fr/15/textes/2488.asp#D_Article_16 dont l’article 16, qui crée un nouveau régime de responsabilité en matière de droit d’auteur, ne s’applique qu’aux opérateurs qui organisent et promeuvent les contenus hébergés en vue d’un tirer un profit, direct ou indirect.
Sur le délai de 24 heures
Le nouveau régime impose un délai de 24 heures pour retirer les contenus signalés. La disproportion de ce nouveau délai résulte des mêmes constats déjà détaillés pour le nouveau délai d’une heure imposé en matière de terrorisme.
Le délai de 24 heures n’est pas adéquat, car il ne sera techniquement pas réaliste – même Facebook échoue à supprimer en 24 heures les pires vidéos terroristes. Le délai de 24 heures n’est pas nécessaire, car le droit actuel suffit largement pour fixer au cas par cas, en fonction de la gravité de chaque contenu, la célérité requise pour le retirer. Le délai de 24 heures n’est pas proportionné, car il aggravera les risques d’abus par la police, qui pourra plus facilement faire exécuter des demandes de censure excessives que les hébergeurs avaient, jusqu’alors, le temps d’analyser et de refuser.
En conséquence, le II de l’article 1er de la loi déférée porte une atteinte manifestement disproportionnée au droit à la liberté d’expression.
III. Sur l’augmentation des sanctions pénales
L’article 6 de la loi déférée fait passer de 75 000 euros à 250 000 euros le montant de l’amende prévue au 1 du VI de l’article 6 de la LCEN et qui sanctionne les fournisseurs d’accès à Internet et les hébergeurs qui ne conservent pas pendant un an les données de connexion de l’ensemble de leurs utilisateurs.
Aucun élément n’a été avancé pour justifier une telle augmentation. Au contraire, l’actualité jurisprudentielle européenne aurait dû entraîner la disparition de cette sanction. Comme La Quadrature du Net a déjà eu l’occasion de l’exposer au Conseil constitutionnel, la Cour de justice de l’Union européenne a, dans son arrêt Tele2 du 21 décembre 2016, déclaré qu’une telle mesure de conservation généralisée est contraire à la Charte des droits fondamentaux de l’Union.
En conséquence, l’article 6 de la loi déférée est contraire à la Constitution en ce qu’il augmente le montant d’une amende pénale sans que cette augmentation ne soit nécessaire à la poursuite d’aucun objectif légitime.
**
Pour ces motifs, les associations La Quadrature du Net et Franciliens.net estiment que les articles 1er et 6 de la loi visant à lutter contre les contenus haineux sur internet sont contraires à la Constitution.
Nous vous prions de croire, Monsieur le président, Mesdames et Messieurs les membres du Conseil constitutionnel, l’assurance de notre plus haute et respectueuse considération.
« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Valérie Goesel-Le Bihan, Cahier du Conseil constitutionnel, n° 22 (juin 2007), https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/le-controle-de-proportionnalite-exerce-par-le-conseil-constitutionnel
2.
↑
« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand
3.
↑
Valérie Goesel-Le Bihan,op. cit.
4.
↑
Les Jeunes et l’extrémisme violent dans les médias sociaux : inventaire des recherches, 2018, https://unesdoc.unesco.org/ark:/48223/pf0000261841
5.
↑
Damien Leloup, « Paris, Bruxelles, Toulouse… la radicalisation des terroristes n’a pas eu lieu sur le Web », Le Monde, 12 janvier 2015, https://www.lemonde.fr/pixels/article/2015/01/12/paris-bruxelles-toulouse-la-radicalisation-des-terroristes-n-a-pas-eu-lieu-sur-le-web_4554384_4408996.html
6.
↑
Cour d’appel de Bordeaux, civ. 1ere, sect. B, 10 mai 2012, Krim K. c. Amen SAS et Pierre G., n° 11/01429
7.
↑
Valérie Goesel-Le Bihan, op. cit.
8.
↑
Voir le communiqué du ministère de l’Intérieur : https://www.interieur.gouv.fr/Archives/Archives-des-communiques-de-presse/2016-Communiques/Redirection-vers-la-page-de-blocage-des-sites-terroristes-pour-les-clients-de-l-operateur-orange
9.
↑
Alexandre Linden, Rapport d’activité 2018 de la personnalité qualifiée, CNIL, 27 mai 2019, https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_blocage_2018_web.pdf
10.
↑
TA Cergy-Pontoise, 4 févr. 2019, n° 1801344, 1801346, 1801348 et 1801352
Voir les résultats du vote, page 17, à propos de l’amendement n° 157 : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+PV+20190417+RES-VOT+DOC+PDF+V0//FR&language=FR
13.
↑
Voir article 17, §1, du texte adopté par le Parlement européen : https://www.europarl.europa.eu/doceo/document/TA-8-2019-0421_FR.html
";s:7:"dateiso";s:15:"20200526_161150";}s:15:"20200520_160221";a:7:{s:5:"title";s:34:"Hadopi, une victoire de façade ?";s:4:"link";s:59:"https://www.laquadrature.net/2020/05/20/hadopi-est-vaincue/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15925";s:7:"pubDate";s:31:"Wed, 20 May 2020 14:02:21 +0000";s:11:"description";s:269:"Mise à jour, 20 mai 20h : Avec le recul de l’analyse juridique minutieuse – incompatible avec la pression de l’urgence médiatique – cette décision pourrait constituer une victoire nettement plus modeste.
La censure prononcée par…";s:7:"content";s:5899:"
Mise à jour, 20 mai 20h : Avec le recul de l’analyse juridique minutieuse – incompatible avec la pression de l’urgence médiatique – cette décision pourrait constituer une victoire nettement plus modeste.
La censure prononcée par le Conseil constitutionnel nous a conduit à penser, dans le feu de l’action, à une victoire décisive que l’on espérait. Toutefois, malgré la restriction du champ des données de connexion accessibles à la HADOPI – qui reste une victoire -, une lecture plus attentive nous amène à penser que demeure une interprétation selon laquelle son activité devrait pouvoir persister. C’est cette interprétation possible que nous avons échoué à déceler dans l’urgence – nous remercions les personnes qui ont pu nous la signaler.
Ce recours devant le Conseil constitutionnel venait se greffer sur un contentieux au temps plus long, dont une autre partie est actuellement en cours notamment devant le Conseil d’État. D’autres aspects du dispositif de riposte graduée demeurent très critiquables. Nous allons désormais nous y attaquer.
Nous présentons nos sincères excuses à celles et ceux qui se sont réjouis trop vite à la lecture de notre communiqué enthousiaste. Nous avons lu la décision sous le prisme de notre préjugé et l’enthousiasme a limité notre regard critique sur ses détails. Nous présentons nos excuses pour cette fausse joie, il y a bien une censure de morceaux du dispositif, mais nous avons encore certains doutes parmi nous sur l’enchevêtrement de différents éléments du dispositifs et allons avoir besoin d’un temps de recul pour fournir une analyse finale de cette décision. Nous allons prendre le temps de faire cela correctement. Le débat consiste à savoir quelle portée a l’alinéa 3, censuré, de l’article L. 331-21 du code de la propriété intellectuelle. À lire l’exposé des motifs de la loi Hadopi de la loi Hadopi en 2008, plusieurs lectures paraissent possibles. On reviendra vers vous pour donner notre lecture en présentant à nouveau nos excuses pour cet enthousiasme prématuré et nous allons tâcher de redoubler d’efforts pour obtenir vraiment cette victoire.
Le Conseil constitutionnel vient de répondre à la question prioritaire de constitutionnalité transmise le 12 février 2020 par La Quadrature du Net, FDN, FFDN et Franciliens.net (lire la décision). Il déclare contraire à la Constitution les pouvoirs que la loi a donné à la HADOPI pour identifier les personnes qui partagent des œuvres sur Internet, par exemple en identifiant les adresses IP connectées à divers flux BitTorrent. Ces pouvoirs prendront fin à la fin de l’année
La décision d’aujourd’hui n’a rien de surprenant : elle s’inscrit dans la continuité d’une jurisprudence déployée depuis cinq ans par le Conseil constitutionnel, en parallèle de la Cour de justice de l’Union européenne (relire l’explication détaillée de notre action). Cette jurisprudence tend à replacer l’autorité judiciaire dans son rôle de contrôle préalable de l’administration, notamment quand il s’agit de lever l’anonymat des internautes. Or, la raison d’être de la HADOPI était précisément de contourner la justice afin de surveiller le plus plus grand nombre d’internautes et de les dissuader de partager des œuvres en ligne. Puisqu’il lui est enfin imposée de passer par la justice, la raison d’être de la HADOPI disparait. Nul doute que son budget annuel de 10 millions d’euros sera utile ailleurs.
Le projet de loi audiovisuelle, débattu depuis quelques mois par le Parlement, prévoyait déjà de supprimer la HADOPI. Mais il prévoit aussi de transmettre ses missions au CSA. La stratégie de notre action contentieuse consistait à attendre ce moment pour inciter le Parlement, au moment de supprimer la HADOPI, à ne pas perpétuer des missions dont l’incompatibilité à la Constitution a été aujourd’hui reconnue.
Il s’agit de l’aboutissement de 10 ans de lutte pour La Quadrature du Net. Si nous avons été nombreuses à nous moquer, avant son adoption, de l’inutilité de la HADOPI, il ne faut pas minimiser la nocivité qu’aura eu son action en 10 années. Elle aura vivement dissuadé la population de recourir à la pratique vertueuse, libre et décentralisée qu’est le partage d’œuvres de pair à pair. Au contraire, la HADOPI aura forcé nombre d’internautes dans les bras d’une poignée de méga-plateformes, licites ou non, qui auront centralisé les échanges culturels en quelques points dominants. Cette centralisation aura surtout permis à ces méga-plateformes d’imposer leurs conditions aux artistes. Au final, à part ces plateformes, tout le monde – internautes, artistes, etc. – aura perdu au change.
Nous espérons que la victoire d’aujourd’hui sera un pas de plus vers la décentralisation du Net et le libre partage de la culture, accessible à toutes et à tous sans condition de richesse.
";s:7:"dateiso";s:15:"20200520_160221";}s:15:"20200518_123331";a:7:{s:5:"title";s:41:"Les goélands abattent leur premier drone";s:4:"link";s:81:"https://www.laquadrature.net/2020/05/18/les-goelands-abattent-leur-premier-drone/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15917";s:7:"pubDate";s:31:"Mon, 18 May 2020 10:33:31 +0000";s:11:"description";s:265:"Suite à notre recours, l’ordonnance du Conseil d’État est une victoire historique contre la surveillance par drone. La décision reconnaît l’illégalité de tout drone qui, volant suffisamment bas et étant équipé de caméra, permet à…";s:7:"content";s:1403:"
Suite à notre recours, l’ordonnance du Conseil d’État est une victoire historique contre la surveillance par drone. La décision reconnaît l’illégalité de tout drone qui, volant suffisamment bas et étant équipé de caméra, permet à la police de détecter des individus, que ce soit par leurs habits ou un signe distinctif.
D’après le Conseil d’État, cette illégalité ne saurait être corrigée que par un arrêté ministériel pris après avis de la CNIL. Dans l’attente d’un tel arrêté, que nous recevrons de pied ferme, la police devra maintenir au sol la grande majorité de ses drones dans l’ensemble du pays. En effet, l’ordonnance d’aujourd’hui concerne le déploiement de drones pour lutter contre le virus et on peut douter que les autres drones de la police soient déployés pour un motif plus impérieux — qui permettraient de se passer d’un arrêté.
D’autres outils de la Technopolice restent sans cadre juridique et continuent pourtant de se déployer : vidéosurveillance automatisée, capteurs sonores, police prédictive… Une telle décision nous encourage à continuer nos combats.
";s:7:"dateiso";s:15:"20200518_123331";}s:15:"20200514_174046";a:7:{s:5:"title";s:61:"EDRi demande l’interdiction de la surveillance biométrique";s:4:"link";s:98:"https://www.laquadrature.net/2020/05/14/edri-demande-linterdiction-de-la-surveillance-biometrique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15901";s:7:"pubDate";s:31:"Thu, 14 May 2020 15:40:46 +0000";s:11:"description";s:282:"L’association internationale EDRi, soutenue par La Quadrature du Net, lance une campagne européenne pour faire interdire la reconnaissance faciale et plus généralement la surveillance de masse biométrique. Nous publions la traduction du communiqué de lancement.
À…";s:7:"content";s:8491:"
L’association internationale EDRi, soutenue par La Quadrature du Net, lance une campagne européenne pour faire interdire la reconnaissance faciale et plus généralement la surveillance de masse biométrique. Nous publions la traduction du communiqué de lancement.
À travers toute l’Europe, des technologies de reconnaissance faciale et d’identification biométrique, intrusives et violant les droits, se répandent discrètement dans les espaces publics. Comme la Commission européenne consulte le public à ce sujet, EDRI appelle les États membres de l’UE à garantir que de telles technologies soient totalement interdites, à la fois dans la loi et dans la pratique.
Circulez, y a rien à voir…
À la fin de l’année 2019, au moins 15 pays européens ont expérimenté des technologies de surveillance de masse utilisant l’identification biométrique, comme la reconnaissance faciale. Ces technologies sont conçues pour surveiller, suivre et analyser les individus, pour les noter et les juger dans leur vie quotidienne.
Pire, plusieurs gouvernements l’ont fait en collaboration avec des entreprises technologiques secrètes, en l’absence de débat public et sans avoir démontré que ces systèmes respectent les critères les plus élémentaires de responsabilité, de nécessité, de proportionnalité, de légitimité, de légalité ou de sécurité.
Quelques milliers de caméras pour les gouverner tous
Sans la vie privée, vous n’avez plus de conversations privées avec vos ami·es, votre famille, votre supérieur ou même votre docteur. Votre militantisme et votreengagement pour sauver la planète sont connus de tous et toutes. Si vous lancez l’alerte pour dénoncer un fait d’exploitation ou de corruption, ou si vous assistez à une manifestation politique qui déplaît à votre gouvernement, on peut vous retrouver. Vous perdez de fait le droit d’assister à une cérémonie religieuse ou à une réunion syndicale sans qu’on garde un œil sur vous, le droit d’étreindre votre partenaire sans que quelqu’un vous regarde, le droit de flâner librement sans que quelqu’un puisse trouver ça louche.
La surveillance de masse permanente supprime le droit d’être réellement seul et instaure l’obligation d’être constamment surveillé et contrôlé.
COVID-1984 ?
Les débats autour de la pandémie de coronavirus ont vu naître des idées d’applications et d’autres propositions pour étendre rapidement les systèmes de surveillance, sous couvert de santé publique. Le risque est considérable que les dégâts causés par cet élargissement des mesures de surveillance survivent à l’épidémie. On peut se demander, par exemple, si les employeurs enlèveront les caméras thermiques des bureaux une fois la pandémie passée.
Les systèmes de surveillance biométriques exacerbent les inégalités structurelles, accélèrent la création de fichiers et de « profilages » illégaux, ont un effet intimidant sur les libertés d’expression et de réunion, et limitent les capacités de chacun·e à participer à des activités sociales publiques.
Fanny Hidvegi, responsable de la politique européenne à Access Now, insiste sur ce point :
« Les droits humains s’appliquent en temps de crise et d’urgence. On ne doit pas avoir à choisir entre la vie privée et la santé : protéger les droits numériques favorise la santé publique. La suspension des droits à la protection des données en Hongrie est la preuve que l’UE doit renforcer la protection des droits fondamentaux. »
La surveillance biométrique : une architecture d’oppression
Se présentant comme une « architecture d’oppression », la capture et le traitement non ciblé de données biométriques sensibles permet aux gouvernements et aux entreprises d’enregistrer en permanence et en détail qui vous rencontrez, où vous allez, ce que vous faites. Cela leur permet aussi d’utiliser ces informations contre vous — que ce soit par les pouvoirs publics pour faire appliquer la loi ou à des fins commerciales. Une fois ces enregistrements reliés à nos visages et corps, il n’y a plus de retour possible, nous sommes marqués au fer rouge. Il ne peut y avoir de place pour de telles pratiques dans une société démocratique.
Ioannis Kouvakas, juriste chez Privacy International (PI), membre d’EDRi met en garde :
« L’introduction de la reconnaissance faciale dans les villes est une idée extrémiste et dystopique qui menace explicitement nos libertés et pose des questions fondamentales sur le type de société dans laquelle nous voulons vivre. En tant que technique de surveillance très intrusive, elle offre aux autorités de nouvelles opportunités de s’en prendre à la démocratie sous prétexte de la défendre. Nous devons interdire son déploiement dès maintenant et de manière définitive avant qu’il ne soit trop tard. »
EDRi demande donc une interdiction immédiate et permanente de la surveillance de masse biométrique dans l’Union européenne.
La surveillance de masse biométrique est illégale
Cette interdiction est fondée sur les droits et protections consacrés par la Charte des droits fondamentaux de l’Union européenne, le Règlement général sur la protection des données (RGPD) et la Directive Police Justice. Ensemble, ces textes garantissent aux résidents de l’UE de vivre sans la crainte d’un traitement arbitraire ou d’un abus de pouvoir, et le respect de leur autonomie. La surveillance de masse biométrique constitue une violation de l’essence de ces textes et une violation du cœur même des droits fondamentaux de l’UE.
Une fois que des systèmes qui normalisent et légitiment la surveillance constante de tout le monde sont en place, nos sociétés glissent vers l’autoritarisme. L’UE doit donc veiller, par des moyens notamment législatifs, à ce que la surveillance de masse biométrique soit totalement interdite en droit et en pratique. Lotte Houwing, conseillère politique chez Bits of Freedom (BoF), membre d’EDRi, déclare :
« Les mesures que nous prenons aujourd’hui façonnent le monde de demain. Il est de la plus haute importance que nous gardions cela à l’esprit et que nous ne laissions pas la crise du COVID-19 nous faire sombrer dans un état de surveillance (de masse). La surveillance n’est pas un médicament. »
L’UE réglemente tout, des médicaments aux jouets pour enfants. Il est inimaginable qu’un médicament dont l’efficacité n’a pas été prouvée ou un jouet présentant des risques importants pour la santé des enfants soient autorisés sur le marché. Cependant, en ce qui concerne la captation et le traitement des données biométriques, en particulier à la volée dans les espaces publics, l’UE a été un foyer pour les expérimentations illégales. D’après une étude de 2020, plus de 80% des Européens sont pourtant opposés aux partages de leurs données faciales avec les autorités.
EDRi appelle la Commission européenne, le Parlement européen et les États membres à respecter leurs valeurs et à protéger nos sociétés en interdisant la surveillance de masse biométrique. S’ils s’y refusent, nous augmentons nos chances de voir naître une dystopie numérique incontrôlable.
";s:7:"dateiso";s:15:"20200514_174046";}s:15:"20200511_143847";a:7:{s:5:"title";s:34:"Vote final de la « loi haine »";s:4:"link";s:67:"https://www.laquadrature.net/2020/05/11/vote-final-de-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15890";s:7:"pubDate";s:31:"Mon, 11 May 2020 12:38:47 +0000";s:11:"description";s:254:"Mise à jour : tel que redouté, la loi a été adoptée dans sa pire version.
L’urgence de LREM est de donner à la police de nouveaux pouvoirs pour lutter contre le « terrorisme » sur Internet. L’Assemblée nationale…";s:7:"content";s:4384:"
Mise à jour : tel que redouté, la loi a été adoptée dans sa pire version.
L’urgence de LREM est de donner à la police de nouveaux pouvoirs pour lutter contre le « terrorisme » sur Internet. L’Assemblée nationale votera le 13 mai 2020 la proposition de loi de Laetitia Avia qui, initialement présentée comme une loi « contre la haine », s’est transformée en janvier dernier en une loi « antiterroriste », telle qu’on en connait depuis des années, de plus en plus éloignée du principe de séparation des pouvoirs. Mercredi sera la dernière chance pour les député·es de rejeter cette dérive inadmissible.
Pour rappel, la proposition de loi initiale demandait aux très grandes plateformes (Facebook, Youtube, Twitter…) de censurer en 24h certains contenus illicites, tels que des contenus « haineux » signalés par le public ou la police. Pour une large partie, ces obligations seront inapplicables et inutiles, Laetitia Avia ayant systématiquement refusé de s’en prendre à la racine du problème – le modèle économique des géants du Web – en dépit de nos propositions, reprises par tous les bords du Parlement.
L’histoire aurait pu en rester à ce coup d’épée dans l’eau si le gouvernement n’avait pas saisi l’occasion pour pousser sa politique sécuritaire. Le 21 janvier, alors que la loi était examinée une deuxième fois par une Assemblée presque vide, le gouvernement a fait adopter un amendement de dernier minute renversant toute la situation.
Une nouvelle obligation vient éclipser le reste de la loi, ajoutée au paragraphe I de son article 1. Elle exige que tous les sites Web (pas uniquement les plateformes géantes) censurent en 1h (pas en 24h) les contenus signalés par la police comme relevant du « terrorisme » (sans que cette qualification ne soit donnée par un juge, mais par la police seule). Si le site ne censure par le contenu (par exemple car le signalement est envoyé un week-end ou pendant la nuit) la police peut exiger son blocage partout en France par les fournisseurs d’accès à Internet (Orange, SFR…).
La séparation des pouvoirs est entièrement écartée : c’est la police qui décide des critères pour censurer un site (en droit, la notion de « terrorisme » est suffisamment large pour lui donner un large pouvoir discrétionnaire, par exemple contre des manifestants) ; c’est la police qui juge si un site doit être censuré ; c’est la police qui exécute la sanction contre le site. Le juge est entièrement absent de toute la chaîne qui mène à la censure du site.
Le 26 février, le Sénat avait supprimé cette nouvelle disposition. Le texte revient mercredi pour une toute dernière lecture par l’Assemblée nationale, qui aura le dernier mot. Il est indispensable que les député·es suppriment l’article 1, paragraphe I de cette loi, qui permet à la police d’abuser de son pouvoir pour censurer le Web à des fins politiques – en cherchant à censurer les attaques contre le Président ou contre la police, comme elle le fait déjà.
Appelons les député·es sur cette page pour qu’ils rejettent ce texte.
";s:7:"dateiso";s:15:"20200511_143847";}s:15:"20200504_105606";a:7:{s:5:"title";s:49:"Nous attaquons les drones de la police parisienne";s:4:"link";s:90:"https://www.laquadrature.net/2020/05/04/nous-attaquons-les-drones-de-la-police-parisienne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15875";s:7:"pubDate";s:31:"Mon, 04 May 2020 08:56:06 +0000";s:11:"description";s:236:"Mise à jour du 5 mai à 21h : dans une première décision, le tribunal administratif de Paris rejette notre recours. Il n’aborde aucun de nos arguments, se contentant d’un débat hors-propos sur la présence ou…";s:7:"content";s:5095:"
Mise à jour du 5 mai à 21h : dans une première décision, le tribunal administratif de Paris rejette notre recours. Il n’aborde aucun de nos arguments, se contentant d’un débat hors-propos sur la présence ou non de données personnelles. La Quadrature du Net a décidé de faire appel pour obtenir dans les prochains jours une décision du Conseil d’État avec qui nous espérons avoir un débat plus constructif.
La Quadrature du Net et la Ligue des Droits de l’Homme viennent de déposer un recours en urgence contre le déploiement de drones par la préfecture de police de Paris. Depuis le début du confinement et un peu partout en France, la police prétend se faire assister de drones pour lutter contre les infractions. Pourtant, puisqu’ils sont déployés en l’absence de tout cadre légal spécifique et adapté, ce sont eux qui violent la loi et nos libertés. Nous espérons qu’une victoire à Paris aura des effets dans tout le pays..
Depuis le début du confinement, la police et la gendarmerie utilisent de façon massive et inédite les drones pour surveiller la population et faire appliquer les règles du confinement : diffusion des consignes par haut-parleurs ainsi que surveillance par vidéo pour repérer les contrevenants, guider les patrouilles au sol et filmer les personnes échappant à la police pour mieux les sanctionner après.
Le déploiement de ces drones, déjà utilisés notamment pour la surveillance des manifestations, ne fait que s’amplifier avec la crise sanitaire. En avril, le ministère de l’Intérieur a par ailleurs publié un appel d’offres portant sur l’acquisition de plus de 650 nouveaux drones pour plus que doubler sa flotte. Selon un rapport sénatorial, entre le 24 mars et le 24 avril, la police nationale a déclenché 535 vols de drones dont 251 de surveillance.
Ce déploiement, en plus d’augmenter de manière inédite les capacités de surveillance de la police, se fait en l’absence de tout cadre légal spécifique quant à l’utilisation des images filmées. Aucun texte ne prévoit un délai de suppression pour ces images ou n’en limite l’accès aux seuls agents de la préfecture pour une mission de police identifiée. D’ailleurs, dans un premier temps, cette absence de texte nous a empêchés d’attaquer les drones.
Heureusement, la publication par Mediapart le 25 avril dernier, dans un article de Clément Le Foll et Clément Pouré, de deuxdocuments issus du service de communication de la préfecture de police de Paris a apporté plusieurs éléments concrets nous permettant d’agir en justice. La préfecture y reconnait notamment qu’il n’existe aucun cadre juridique spécifique pour les images captées par les drones, et cela alors qu’ils sont équipés de caméras haute-résolution permettant « la captation, la transmission et l’enregistrement des images » ainsi que « l’identification d’un individu ».
Nous avons déposé samedi un référé-liberté devant le tribunal administratif de Paris pour lui demander de faire cesser immédiatement ce dispositif illégal. Notre recours est notamment fondé sur l’absence de cadre légal spécifique, qui implique de multiples atteintes au droit à la vie privée (absence d’information des personnes filmées ou de délai de conservation de ces images…), et la disproportion de ce dispositif. Il est enfin évident qu’en cas de victoire, les principes d’une telle décision devront être respectés par l’ensemble de la police et de la gendarmerie, partout en France, et pas seulement par la préfecture de police de Paris.
Si la police comptait profiter de la crise sanitaire pour tester ses nouveaux gadgets, elle s’est trompée. Nous sommes là pour la ramener à la froide réalité des choses : ce n’est pas elle qui fait la loi.
";s:7:"dateiso";s:15:"20200504_105606";}s:15:"20200430_104137";a:7:{s:5:"title";s:58:"Crise sanitaire : la Technopolice envahit l’université";s:4:"link";s:92:"https://www.laquadrature.net/2020/04/30/crise-sanitaire-la-technopolice-envahit-luniversite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15869";s:7:"pubDate";s:31:"Thu, 30 Apr 2020 08:41:37 +0000";s:11:"description";s:337:"Dans le contexte de la pandémie, le gouvernement recommande officiellement aux établissements d’enseignement supérieur la télésurveillance des examens à l’aide de dispositifs invasifs, discriminants et manifestement illégaux : reconnaissance faciale, vidéosurveillance par webcam et smartphone, détection…";s:7:"content";s:9114:"
Dans le contexte de la pandémie, le gouvernement recommande officiellement aux établissements d’enseignement supérieur la télésurveillance des examens à l’aide de dispositifs invasifs, discriminants et manifestement illégaux : reconnaissance faciale, vidéosurveillance par webcam et smartphone, détection de bruits suspects… Ou quand la Technopolice envahit l’enseignement. Ces dispositifs doivent être rejetés dès maintenant
En mars 2020, le ministère de l’Enseignement supérieur a publié un « plan de continuité pédagogique » composé de plusieurs fiches visant à accompagner les établissements dans le contexte de la pandémie (et depuis régulièrement mis à jour). La fiche n°6 « Évaluer et surveiller à distance » indique que « les examens écrits nécessitent une télé-surveillance particulière qui permet de vérifier l’identité de l’étudiant et d’éviter les fraudes. Ils nécessitent donc un recours à des services de télésurveillance ». Le document recommande ensuite aux établissements une liste de fournisseurs de services « qui ont l’habitude de travailler avec des établissements d’enseignement supérieur ».
Cette liste, qui est donc une recommandation officielle du gouvernement, fait la promotion d’outils de surveillance extrêmement invasifs, dangereux et profondément discriminants. Au programme : reconnaissance faciale, vidéosurveillance continue avec analyse comportementale (par utilisation simultanée de la webcam et du smartphone), voire détection sonore de bruits suspects.
Enseignement technopolisé
Commençons par une rapide présentation des pires solutions envisagées :
– Managexam propose des solutions de surveillance audio et vidéo, avec « prise de photos fréquentes, régulières ou aléatoires » ou « vidéo captée en continue ». Sur son site, l’entreprise promet de repérer « automatiquement les anomalies pouvant survenir dans la session d’évaluation grâce à une recherche et une classification visuelle de l’environnement des candidats » ;
– C’est le cas également pour Proctorexam, qui propose une « technologie avec deux prises de vues simultanées sur l’étudiant (webcam+appli smartphone) » et Evalbox, qui propose « des algorithmes d’analyse comportementale pour détecter les comportements suspicieux » ;
– TestWe, solution qui revient souvent dans les média, offre un système de photographie de la carte d’étudiant ou d’identité par webcam « pour vérifier que la bonne personne est en face de l’écran ». Son PDG, Benoît Sillard, se vante également de mettre « en place actuellement un système à double caméras, celle de l’ordinateur qui filme par l’avant, et celle de votre smartphone qui filme l’ensemble de la pièce, pour vérifier qu’il n’y a pas un deuxième ordinateur ou quelqu’un en train de vous souffler » ;
– et enfin Smowl qui « utilise un algorithme de reconnaissance automatique des visages pour vérifier l’identité de l’utilisateur en ligne et un système qui détecte les comportements incorrects ».
Ces services ne sont malheureusement pas nouveaux et sont déjà utilisés par plusieurs établissements. Selon le document du ministère, c’est notamment le cas de l’Université de Caen-Normandie depuis 2017 et de Sorbonne Université (même s’il est difficile de connaître exactement la solution mise en place). Le contexte de la pandémie provoque une démultiplication leur utilisation et plus de 50 universités et écoles seraient en train d’envisager ce type de procédés.
Surveillance et discrimination
Ces dispositifs sont pourtant profondément intrusifs : ces logiciels bloquent les ordinateur des étudiant.es, déclenchent une double surveillance obligatoire de la webcam et de la caméra du téléphone et nécessitent quelquefois un enregistrement sonore. Mais il est également nécessaire de prendre en compte les profondes discriminations que ces outils risquent d’entraîner, notamment pour les étudiant·es n’ayant pas l’équipement adapté, ou un environnement propice à ce genre d’examens (la surveillance visuelle et sonore nécessite un lieu à soi, sans bruits, etc.).
Ce sont bien ces mêmes arguments qui ont déjà été soulevés par le journal Le Poing (à ne pas confondre avec Le Point) qui souligne le « protocole aussi kafkaïen qu’orwellien, intrusif pour sa vie privée, et lourd de contrainte, en particulier pour les étudiants précaires » et le SNESUP-FSU (syndicat d’enseignement supérieur) qui dénonce ces dispositifs en considérant justement que « la plus grande liberté laissée aux établissements d’une dématérialisation complète des examens pouvant faire appel à de la télésurveillance, outre qu’elle se heurte à des problèmes techniques souvent insurmontables, facilite la réalisation par les établissements d’un suivi individualisé des enseignant·es, au mépris de leur liberté pédagogique, et accentue potentiellement l’inégalité des étudiant·es ».
Illégalités manifestes
Il est encore plus étonnant de voir le gouvernement recommander des solutions aussi manifestement illégales. Car en ce qui concerne le système de reconnaissance faciale ou d’enregistrement sonore d’une voix en particulier, l’article 9 du règlement général sur la protection des données (RGPD) interdit tout traitement de données biométriques « aux fins d’identifier une personne physique de manière unique » – ce qui est bien le cas ici. Et si cette interdiction de principe souffre quelques exceptions, aucune d’elle ne permet d’autoriser ce type d’outils (et sûrement pas le « consentement » de l’élève, qui doit être libre, c’est-à-dire non contraint…).
De manière générale, outre que personne ne devrait être forcé à une surveillance constante par sa webcam ou son téléphone, les solutions décrites ci-dessus ne sont en aucun cas « adéquates, pertinentes et limitées à ce qui est nécessaire » comme le recommande pourtant le RGPD (article 5) – Nous ne voyons pas ici quel objectif rendrait licite une surveillance d’une telle intensité. Ce qui rend la plupart de ces dispositifs simplement illégaux.
Voir le gouvernement recommander de telles solutions illustre sa fuite systématique vers la surveillance numérique. Fuite que nous appelons les établissements d’enseignement à ne pas suivre en renonçant à ces dispositifs invasifs
Recommander ces méthodes est d’autant plus dommageable que des alternatives existent, comme l’annulation ou le report des examens, ou plus simplement le passage d’une évaluation en contrôle terminal à une évaluation en contrôle continu. Mieux encore : cette situation inédite peut être l’occasion de préférer de véritables innovations pédagogiques à de pseudo-innovations techniques. Plutôt que de fonder l’évaluation sur la crainte de la triche, il serait ainsi possible d’évaluer élèves et étudiant·e·s sur leurs compétences, d’aménager individuellement les évaluations, ou de recourir à l’auto-évaluation supervisée.
";s:7:"dateiso";s:15:"20200430_104137";}s:15:"20200429_175840";a:7:{s:5:"title";s:48:"Que penser du protocole de traçage des GAFAM ?";s:4:"link";s:85:"https://www.laquadrature.net/2020/04/29/que-penser-du-protocole-de-tracage-des-gafam/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15843";s:7:"pubDate";s:31:"Wed, 29 Apr 2020 15:58:40 +0000";s:11:"description";s:235:"Tribune de Guinness, doctorante en informatique et membre de La Quadrature du Net
À l’heure où toutes les puissances de la planète se mettent à réfléchir à des solutions de traçage de contact (contact tracing), les…";s:7:"content";s:18737:"
Tribune de Guinness, doctorante en informatique et membre de La Quadrature du Net
À l’heure où toutes les puissances de la planète se mettent à réfléchir à des solutions de traçage de contact (contact tracing), les GAFAM sautent sur l’occasion et Apple et Google proposent leur propre protocole.
On peut donc se poser quelques minutes et regarder, analyser, chercher, et trouver les avantages et les inconvénients de ce protocole par rapport à ses deux grands concurrents, NTC et DP-3T, qui sont similaires.
Commençons par résumer le fonctionnement de ce protocole. Je me base sur les documents publiés sur le site de la grande pomme. Comme ses concurrents, il utilise le Bluetooth ainsi qu’un serveur dont le rôle est de recevoir les signalements de personnes infecté·es, et de communiquer aux utilisateurices de l’application les listes des personnes infectées par SARS-Cov2 qu’elles auraient pu croiser.
Mais commençons par le début.
Le protocole utilisant de nombreux protocoles et fonctions cryptographiques, et étant assez long, je ne vais pas l’expliquer en détail, et si vous voulez plus d’informations, vous pouvez vous référer à la note en bas de page.1L’application commence par générer un identifiant unique de 256 bits. Suffisamment long pour qu’il n’y ait pas de risque de collisions (deux personnes qui génèrent par hasard – ou non – le même identifiant), et ce même si toute la population terrestre utilisait l’application. Cet identifiant est appelé Tracing Key. Puis, chaque jour, un identifiant pour la journée (appelé Daily Tracing Key) est calculé à partir de la Tracing Key. Pour ce faire, on utilise la fonction à sens unique HKDF, qui permet à partir de paramètres d’entrée de générer une clef unique et à partir de laquelle il est impossible en pratique de remonter aux informations d’origine. Dans notre cas, les paramètres d’entrée sont la Tracing Key et le numéro du jour courant, ce qui nous permet de calculer une clef journalière de 128 bits. Pour la dernière étape, le protocole dérive un nouvel identifiant, celui qui sera communiqué via Bluetooth aux autres utilisateurices de l’application: le Rolling Proximity Identifier (RPI) un « identifiant de proximité continu » au sens où celui-ci change constamment. Il est recalculé toutes les 15 minutes, chaque fois que l’adresse physique de la puce Bluetooth change et on stocke un nombre appelé TINj qui augmente de 1 toutes les 15 minutes de même que j ; à la différence que j est réinitialisé chaque jour. On utilise pour calculer la RPI la fonction HMAC, une autre fonction à sens unique, qui utilise comme paramètres la Daily Tracing Key du jour courant ainsi que le TINj du quart d’heure en cours. Finalement, la partie intéressante : que se passe-t-il lorsqu’une personne est déclarée infectée ?
L’application crée une clef de diagnostic, qui n’a ici aucune fonction cryptographique : on envoie les dernières 14 Daily Tracing Keys, ainsi que les numéros des jours associés, puis on continue chaque jour d’envoyer les 14 dernières Daily Tracing Keys ainsi que le jour associé (voir ce PDF au paragraphe §CTSelfTracingInfoRequest) . Cette clef est ensuite envoyée sur un serveur qui stocke toutes les clefs de diagnostic. Par ailleurs, de manière fréquente, les client·es récupèrent la liste des clefs de diagnostic, utilisent ces clefs pour recalculer tous les RPI, et voir si dans la liste des personnes croisées, on retrouve un de ces RPI. Si c’est le cas, on prévient l’utilisateurice.
Pour faire simple, on génère initialement une clef (Tracing Key ou TK), qu’on utilise chaque jour pour calculer une nouvelle clef (Daily Tracing Key ou DTK), qu’on utilise elle-même toutes les 15 minutes pour calculer une troisième clef (Rolling Proximity Identifier ou RPI), qu’on va appeler la «clef roulante de proximité», qui sera diffusée avec le Bluetooth.
Ce qu’il faut retenir, c’est que l’identifiant qui est diffusé via le Bluetooth change toutes les 15 minutes, et qu’il est impossible en pratique de déduire l’identité d’une personne en ne connaissant que cet identifiant ou plusieurs de ces identifiants.
Par ailleurs, si on se déclare comme malade, on envoie au serveur central la liste des paires (DTK, jour de création de la DTK) des 14 derniers jours, et de même pendant les 14 jours suivants. Cet ensemble forme ce qu’on appelle la clef de diagnostic.
Cryptographie
D’un point de vue cryptographique, tous les spécialistes du domaine (Anne Canteaut, Leo Colisson et d’autres personnes, chercheureuses au LIP6, Sorbonne Université) avec lesquels j’ai eu l’occasion de parler sont d’accord : les algorithmes utilisés sont bien connus et éprouvés. Pour les spécialistes du domaine, la documentation sur la partie cryptographique explique l’utilisation des méthodes HMAC et HKDF avec l’algorithme de hashage SHA256. Les clefs sont toutes de taille suffisante pour qu’on ne puisse pas toutes les générer en les pré-calculant en créant une table de correspondance également appelée « Rainbow table » qui permettrait de remonter aux Tracing Keys . L’attaque envisagée ici consiste à générer le plus de TK possibles, leurs DTK correspondantes et lorsque des DTK sont révélées sur quelques jours, utiliser la table de correspondance pré-calculée pour remonter à la TK.
On peut faire un gros reproche cependant : la non-utilisation de sel (une chaîne de caractères aléatoires, différente pour chaque personne et définie une fois pour toutes, qu’on ajoute aux données qu’on hashe) lors de l’appel à HMAC pour générer les DTK, ce qui est une aberration, et pire encore, aucune justification n’est donnée par Apple et Google.
Respect de la vie privée et traçage
Quand on écrit un protocole cryptographique, selon Apple et Google « with user privacy and security central to the design » (Traduction : « avec le respect de la vie privée de l’utilisateurice et la sécurité au centre de la conception »), on est en droit de chercher tous les moyens possibles de récupérer un peu d’information, de tracer les utilisateurices, de savoir qui iels sont.
Premier problème : La quantité de calcul demandée aux clients
À chaque fois que le téléphone du client récupère la liste des clefs de diagnostic des personnes déclarées malades, il doit calculer tous les RPI (96 par jour, faites moi confiance c’est dans le protocole, 96 * 15 min = 24 h) de toutes les clefs pour tous les jours. On peut imaginer ne récupérer que les nouvelles données chaque jour, mais ce n’est pas spécifié dans le protocole. Ainsi, au vu de la quantité de personnes infectées chaque jour, on va vite se retrouver à court de puissance de calcul dans le téléphone. On peut même s’imaginer faire des attaques par DoS (déni de service) en insérant de très nombreuses clefs de diagnostic dans le serveur pour bloquer les téléphones des utilisateurices.
En effet, quand on se déclare positif, il n’y a pas d’information ajoutée, pas d’autorité qui assure que la personne a bien été infectée, ce qui permet à tout le monde de se déclarer positif, en faisant l’hypothèse que la population jouera le jeu et ne se déclarera positive que si elle l’est vraiment.
Deuxième problème : Le serveur principal
Un design utilisant un serveur centralisé (possédé ici par Apple et Google), qui a donc accès aux adresses IP et d’autres informations de la part du client gagne beaucoup d’informations : il sait retrouver quel client est infecté, avoir son nom, ses informations personnelles, c’est-à-dire connaître parfaitement la personne infectée, quitte à revendre les données ou de l’espace publicitaire ciblé pour cette personne. Comment cela se passe-t-il ? Avec ses pisteurs embarqués dans plus de 45% des applications testées par Exodus Privacy, pisteurs qui partagent des informations privées, et qui vont utiliser la même adresse IP, Google va pouvoir par exemple recouper toutes ces informations avec l’adresse IP pour savoir à qui appartient quelle adresse IP à ce moment.
Troisième problème : Traçage et publicité
Lorsqu’on est infecté⋅e, on révèle ses DTK, donc tous les RPI passés. On peut donc corréler les partages de RPI passés avec d’autres informations qu’on a.
Pour aller plus loin, nous avons besoin d’introduire deux notions : celle d’adversaire actif, et celle d’adversaire passif. L’adversaire actif tente de gagner activement de l’information, en essayant de casser de la cryptographie, de récupérer des clefs, des identifiants. Nous avons vu précédemment qu’il a fort peu de chance d’y arriver.
L’adversaire passif quant à lui se contente de récupérer des RPIs, des adresses physiques de puces Bluetooth, et d’essayer de corréler ces informations.
Ce dernier type d’adversaire a existé et existeencore . Par exemple, la ville de Londres a longtemps équipé ses poubelles de puces WiFi, permettant de suivre à la trace les smartphones dans la ville. En France, l’entreprise Retency, ou encore les Aéroports de Paris font la même chose avec le Bluetooth. Ces entreprises ont donc des réseaux de capture de données, et se révéler comme positif à SARS-Cov2 permet alors à ces entreprises, qui auront capté les RPIs envoyés, de pister la personne, de corréler avec les données de la publicité ciblée afin d’identifier les personnes infectées et donc revendre des listes de personnes infectées.
On peut aussi imaginer des implémentations du protocole qui stockent des données en plus de celles demandées par le protocole, telles que la localisation GPS, ou qui envoient des données sensibles à un serveur tiers.
D’autres attaques existent, dans le cadre d’un adversaire malveillant, mais nous ne nous attarderons pas dessus ; un article publié il y a quelques jours (en anglais) les décrit très bien : https://eprint.iacr.org/2020/399.pdf.
Nous pouvons ainsi voir que, même si le protocole est annoncé comme ayant la sécurité et le respect de la vie privée en son centre, il n’est pas exempt de défauts, et il y a même, à mon avis, des choix techniques qui ont été faits qui peuvent permettre le traçage publicitaire même si on ne peut en prouver la volonté. Alors même que tous les pays du monde sont en crise, et devraient investir dans du matériel médical, dans du personnel, dans les hôpitaux, dans la recherche de traitements contre SARS-Cov2, ils préfèrent se tourner vers un solutionnisme technologique qui non seulement n’a aucune assurance de fonctionner, mais qui également demande que plus de 60 % de la population utilise l’application pour être efficace (voir cet article pour plus d’informations).
D’autant plus qu’une telle application ne peut être efficace qu’avec un dépistage massif de la population, ce que le gouvernement n’est actuellement pas en état de fournir (à raison de 700k tests par semaine, tel qu’annoncé par Édouard Philippe dans son allocution du 28 avril, il faudrait environ 2 ans pour dépister toute la population).
Pour plus d’informations sur les possibles attaques des protocoles de contact tracing, en particulier par des adversaires malveillants, je vous conseille l’excellent site risques-tracage.fr écrit par des chercheureuses INRIA spécialistes du domaine.
L’application commence par générer un identifiant unique de 256 bits. Suffisamment long pour qu’il n’y ait pas de risque de collisions (deux personnes qui génèrent par hasard – ou non – le même identifiant), et ce même si toute la population terrestre utilisait l’application. Cet identifiant est appelé Tracing Key. Puis, chaque jour, un identifiant pour la journée (appelé Daily Tracing Key) est calculé à partir de la Tracing Key. Pour ce faire, on utilise la fonction à sens unique HKDF, qui permet à partir de paramètres d’entrée de générer une clef unique et à partir de laquelle il est impossible en pratique de remonter aux informations d’origine. Dans notre cas, les paramètres d’entrée sont la Tracing Key et le numéro du jour courant, ce qui nous permet de calculer une clef journalière de 128 bits. Pour la dernière étape, le protocole dérive un nouvel identifiant, celui qui sera communiqué via Bluetooth aux autres utilisateurices de l’application: le Rolling Proximity Identifier (RPI) un « identifiant de proximité continu » au sens où celui-ci change constamment. Il est recalculé toutes les 15 minutes, chaque fois que l’adresse physique de la puce Bluetooth change et on stocke un nombre appelé TINj qui augmente de 1 toutes les 15 minutes de même que j ; à la différence que j est réinitialisé chaque jour. On utilise pour calculer la RPI la fonction HMAC, une autre fonction à sens unique, qui utilise comme paramètres la Daily Tracing Key du jour courant ainsi que le TINj du quart d’heure en cours. Finalement, la partie intéressante : que se passe-t-il lorsqu’une personne est déclarée infectée ?
L’application crée une clef de diagnostic, qui n’a ici aucune fonction cryptographique : on envoie les dernières 14 Daily Tracing Keys, ainsi que les numéros des jours associés, puis on continue chaque jour d’envoyer les 14 dernières Daily Tracing Keys ainsi que le jour associé (voir ce PDF au paragraphe §CTSelfTracingInfoRequest) . Cette clef est ensuite envoyée sur un serveur qui stocke toutes les clefs de diagnostic. Par ailleurs, de manière fréquente, les client·es récupèrent la liste des clefs de diagnostic, utilisent ces clefs pour recalculer tous les RPI, et voir si dans la liste des personnes croisées, on retrouve un de ces RPI. Si c’est le cas, on prévient l’utilisateurice.
";s:7:"dateiso";s:15:"20200429_175840";}s:15:"20200427_155813";a:7:{s:5:"title";s:49:"La CNIL s’arrête à mi-chemin contre StopCovid";s:4:"link";s:85:"https://www.laquadrature.net/2020/04/27/la-cnil-sarrete-a-mi-chemin-contre-stopcovid/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15839";s:7:"pubDate";s:31:"Mon, 27 Apr 2020 13:58:13 +0000";s:11:"description";s:270:"L’application StopCovid ne fera finalement pas l’objet d’un vote à l’Assemblée nationale, le gouvernement se refusant à tout risque de vote contraire à sa volonté. Pourtant, les prises de position s’accumulent contre elle et son…";s:7:"content";s:9107:"
L’application StopCovid ne fera finalement pas l’objet d’un vote à l’Assemblée nationale, le gouvernement se refusant à tout risque de vote contraire à sa volonté. Pourtant, les prises de position s’accumulent contre elle et son avenir semble chaque jour plus incertain.
Hier, la CNIL a rendu son avis à son sujet. Contrairement au Conseil national du numérique (CNNum) qui s’est prononcé vendredi en faveur de l’application, la CNIL n’a pas entièrement fui le débat : elle exige que le gouvernement démontre l’utilité concrète de StopCovid, ce qu’aucune étude ou analyse ne soutient actuellement. Hélas, alors que la CNIL aurait dû s’arrêter à ce simple constat pour demander l’arrêt de ce dangereux et inutile projet, elle s’est égarée dans le faux-débat tendu par le gouvernement : rechercher des « garanties », forcément illusoires, pour encadrer l’application.
Une nécessité non démontrée
L’idée au cœur du droit des libertés fondamentales est que, par principe, il est interdit de limiter nos libertés. Elles ne peuvent l’être que par exception, et uniquement en démontrant qu’une telle limitation est utile à un intérêt supérieur, telle que la santé publique dans notre cas. Hier, la CNIL a rappelé ce principe cardinal, qu’elle applique naturellement de longue date. Par exemple, dans son avis sur les portiques de reconnaissance faciale dans des lycées de la région Sud, elle avait bien rappelé qu’il revenait au responsable de traitement de données« d’évaluer la nécessité et la proportionnalité du traitement envisagé ». Un tel raisonnement l’avait conduit à considérer que le projet de reconnaissance faciale était contraire au RGPD, car la région n’avait pas démontré cette nécessité.
Il ne fait pas de doute que StopCovid est une mesure limitant les libertés fondamentales, ce que la CNIL reconnaît facilement : risques d’attaques malveillantes, de discriminations, d’accoutumance à la surveillance constante, de dévoiement par le gouvernement. La CNIL exige donc que les prétendus bienfaits sanitaires de l’application soient démontrés avant que celle-ci ne soit déployée, ce qui fait jusqu’ici défaut. La rigueur du raisonnement de la CNIL tranche nettement avec l’avis du CNNum, qui conclut en faveur de StopCovid hors de toute méthode d’analyse sérieuse.
Toutefois, il faut regretter que la CNIL se soit arrêtée là, sans conclure et répondre elle-même à la question qu’elle a si justement posée. Si aucun élément factuel ne prouve l’efficacité d’une technique qu’elle reconnaît pourtant comme attentatoire aux libertés fondamentales, la mission de la CNIL est de déclarer celle-ci illégale. Déclarer illégaux des traitements de données injustifiés est une des missions centrales qui justifient l’existence de la CNIL.
Mais, refusant de tenir son rôle, la CNIL s’est ensuite perdue dans le débat vain souhaité par le gouvernement : chercher à tâtons les garanties pouvant encadrer cette pratique. Pourtant, les conditions pour que StopCovid respecte nos libertés sont impossibles à remplir. L’essence même du « traçage de contact », automatique comme manuel, rend impossible l’anonymat, et le contexte de crise sanitaire rend irréaliste la garantie d’un consentement libre.
Un anonymat impossible
Cédric O affirme que les données traitées par StopCovid « seraient anonymes ». De même, Bruno Sportisse, directeur de l’INRIA chargé du protocole ROBERT sur lequel reposera l’application, affirme que celle-ci serait « totalement anonyme ».
En pratique, une application anonyme n’aurait aucun intérêt : l’application doit envoyer à des personnes ciblées des alertes du type « vous avez été au contact de personnes malades, mettez-vous en quarantaine ». Du moment que chaque alerte est envoyée à des personnes ciblées, le système n’est plus anonyme : trivialement, il suffit qu’un tiers (un patron, un conjoint, etc.) puisse consulter votre téléphone pour constater que vous avez reçu une alerte. Des chercheu·ses de l’INRIA ont produit une excellente liste de quinze scénarios de ce type, démontrant à quel point il était simple de lever ce prétendu « anonymat ».
Hélas, le CNNum s’enfonce dans le déni de réalité et continue de prétendre que « les utilisateurs de l’application ne peuvent pas se réidentifier entre eux ». Dans une étrange note de bas de page, l’avis du CNNum admet que cette affirmation est peut-être fausse puis renvoie vers les scénarios de l’INRIA. Voilà la triste posture du CNNum : mentir dans le corps du texte et s’excuser en pied de page, en petits caractères.
De son côté, heureusement, la CNIL est plus honnête et ne cache pas ces failles : les données traitées par StopCovid sont des pseudonymes ré-identifiables. Mais elle refuse d’en tirer la moindre conséquence effective. Après avoir exigé quelques mesures de sécurité nécessaires qui ne changeront pas le fond du problème, elle semble se bercer dans l’illusion que le droit serait une garantie suffisante pour empêcher que ce pseudonymat si fragile ne soit levé. Au final, sa seule « garantie » n’est rien d’autre que ce cher RGPD que la CNIL échoue à faire respecter depuis deux ans, quand elle ne s’y refuse pas carrément (lire notre article sur les cookies publicitaires).
Un consentement impossible
Tout comme l’utilisation faussée de la notion de données « anonymes », le gouvernement fonde la création de StopCovid sur le fait que l’application serait installée « volontairement ». Une telle présentation est encore mensongère : matériellement, l’État ne pourra pas s’assurer que l’application ne soit pas imposée par des tiers.
Si des employeurs, des restaurants ou des centres d’hébergement exigent que leurs salariés ou usagers utilisent StopCovid, que va faire Cédric O ? Leur envoyer la police pour forcer le passage ? Si la pression vient de la famille ou des amis, que va faire la CNIL ? Leur imposer des amendes en violation du RGPD – qu’encore une fois elle ne fait déjà pas respecter avec énormément de sites internet ?
L’urgence est partout ailleurs
Comme nous ne cessons de le répéter, il est urgent que ce débat prenne fin, par le rejet de ce projet. L’attention du public, du Parlement et de la recherche doit se rediriger vers les nombreuses autres solutions proposées : production de masques, de tests, traçage de contacts réalisé par des humains, sans avoir à réinventer la roue. Leur efficacité semble tellement moins hasardeuse. Surtout, contrairement à StopCovid, ces solutions ne risquent pas de légitimer sur le long terme l’ensemble de la Technopolice, qui cherche depuis des années à rendre acceptable la surveillance constante de nos corps dans l’espace public par la reconnaissance faciale, les drones ou la vidéo automatisée.
Les 28 et 29 avril, dans le cadre des mesures de déconfinement, l’Assemblée nationale débattra de StopCovid, sans toutefois voter spécifiquement à son sujet. L’Assemblée doit exiger la fin de cette application. Rendez-vous sur cette page pour contacter les député·es.
";s:7:"dateiso";s:15:"20200427_155813";}s:15:"20200425_184742";a:7:{s:5:"title";s:78:"« StopCovid est un projet désastreux piloté par des apprentis sorciers »";s:4:"link";s:109:"https://www.laquadrature.net/2020/04/25/stopcovid-est-un-projet-desastreux-pilote-par-des-apprentis-sorciers/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15820";s:7:"pubDate";s:31:"Sat, 25 Apr 2020 16:47:42 +0000";s:11:"description";s:285:"Nous reproduisons, avec l’accord de leurs auteurs, la tribune parue aujourd’hui dans le quotidien Le Monde concernant l’application StopCovid, écrite par Antonio Casilli, Paul-Olivier Dehaye, Jean-Baptiste Soufron, et signée par UGICT-CGT et La Quadrature du…";s:7:"content";s:9642:"
Nous reproduisons, avec l’accord de leurs auteurs, la tribune parue aujourd’hui dans le quotidien Le Monde concernant l’application StopCovid, écrite par Antonio Casilli, Paul-Olivier Dehaye, Jean-Baptiste Soufron, et signée par UGICT-CGT et La Quadrature du Net. Le débat au parlement se déroulera le 28 avril et nous vous invitons à contacter votre député⋅e pour lui faire part de votre opposition au projet et de lui demander de voter contre.
Tribune. Le mardi 28 avril, les parlementaires français seront amenés à voter sur StopCovid, l’application mobile de traçage des individus imposée par l’exécutif. Nous souhaitons que, par leur vote, ils convainquent ce dernier de renoncer à cette idée tant qu’il est encore temps. Non pas de l’améliorer, mais d’y renoncer tout court. En fait, même si toutes les garanties légales et techniques étaient mises en place (anonymisation des données, open source, technologies Bluetooth, consentement des utilisateurs, protocole décentralisé, etc.), StopCovid serait exposée au plus grand des dangers : celui de se transformer sous peu en « StopCovid Analytica », une nouvelle version du scandale Cambridge Analytica [siphonnage des données privées de dizaines de millions de comptes Facebook].
L’application StopCovid a été imaginée comme un outil pour permettre de sortir la population française de la situation de restriction des libertés publiques provoquée par le Covid-19. En réalité, cette « solution » technologique ne serait qu’une continuation du confinement par d’autres moyens. Si, avec ce dernier, nous avons fait l’expérience d’une assignation à résidence collective, les applications mobiles de surveillance risquent de banaliser le port du bracelet électronique.
Tous les citoyens, malades ou non
Le terme n’est pas exagéré : c’est déjà le cas à Hong-Kong, qui impose un capteur au poignet des personnes en quarantaine, et c’est l’objet de tests en Corée du Sud et au Liechtenstein pour certaines catégories de citoyens à risque. StopCovid, elle, a vocation à être installée dans les smartphones, mais elle concerne tous les citoyens, malades ou non. Malgré le fait que son installation soit présentée comme facultative dans d’autres pays, tels l’Italie, on assiste à la transformation de cette démarche volontaire en obligation.
L’affaire Cambridge Analytica, révélée au grand jour en 2018, avait comme point de départ les travaux de chercheurs de l’université anglaise. Une application appelée « Thisisyourdigitallife », présentée comme un simple quiz psychologique, avait d’abord été proposée à des utilisateurs de la plate-forme de microtravail Amazon Mechanical Turk. Ensuite, ces derniers avaient été amenés à donner accès au profil Facebook de tous leurs contacts. C’était, en quelque sorte, du traçage numérique des contacts avant la lettre.
A aucun moment ces sujets n’avaient consenti à la réutilisation de leurs informations dans le cadre de la campagne du Brexit ou dans l’élection présidentielle de Donald Trump. Cela est arrivé ensuite, lorsque les chercheurs ont voulu monétiser les données, initialement collectées dans un but théoriquement désintéressé, par le biais de l’entreprise Cambridge Analytica. En principe, cette démarche respectait les lois des différents pays et les règles de ces grandes plates-formes. Néanmoins, de puissants algorithmes ont été mis au service des intérêts personnels et de la soif de pouvoir d’hommes politiques sans scrupule.
Les mêmes ingrédients sont réunis ici : des scientifiques « de bonne volonté », des géants de la « tech », des intérêts politiques. Dans le cas de StopCovid, c’est le consortium universitaire européen Pan-European Privacy Preserving Proximity Tracing (PEPP-PT), qui a vu le jour à la suite de la pandémie. Ces scientifiques se sont attelés à la tâche de concevoir dans l’urgence le capteur de contacts le plus puissant, dans le respect des lois. Cela s’articule avec les intérêts économiques d’acteurs privés, tels les grands groupes industriels nationaux, le secteur automobile et les banques en Italie, les télécoms et les professionnels de l’hébergement informatique en France. Mais surtout les GAFA, les géants américains du numérique, se sont emparés du sujet.
Cette fois, ce ne sont pas Facebook et Amazon, mais Google et Apple, qui ont tout de suite proposé de fournir une nouvelle structure pour diffuser les applications de suivi de contacts sur leurs plates-formes. La menace qui plane au-delà de tous ces acteurs vient des ambitions de certains milieux politiques européens d’afficher leur détermination dans la lutte contre le Covid19, en se targuant d’une solution technique à grande échelle, utilisant les données personnelles pour la « campagne du déconfinement ».
Une myopie sur les dimensions sociales des données
Le projet StopCovid n’offre aucune garantie sur les finalités exactes de la collecte de ces données. L’exécutif français ne s’autorise pas à réfléchir à la phase qui suit la collecte, c’est-à-dire au traitement qui sera fait de ces informations sensibles. Quels algorithmes les analyseront ? Avec quelles autres données seront-elles croisées sur le moyen et le court terme ? Son court-termisme s’accompagne d’une myopie sur les dimensions sociales des données.
Que se passerait-il si, comme plusieurs scientifiques de l’Inria, du CNRS et d’Informatics Europe s’époumonent à nous le dire, malgré une collecte initiale de données réduite au minimum, des entreprises ou des puissances étrangères décidaient de créer des « applications parasites » qui, comme Cambridge Analytica, croiseraient les données anonymisées de StopCovid avec d’autres bases de données nominatives ? Que se passerait-il, par exemple, si une plate-forme de livraison à domicile décidait (cela s’est passé récemment en Chine) de donner des informations en temps réel sur la santé de ses coursiers ? Comment pourrait-on empêcher un employeur ou un donneur d’ordres de profiter dans le futur des données sur l’état de santé et les habitudes sociales des travailleurs ?
L’affaire Cambridge Analytica nous a permis de comprendre que les jeux de pouvoir violents et partisans autour de la maîtrise de nos données personnelles ont des conséquences directes sur l’ensemble de la vie réelle. Il ne s’agit pas d’une lubie abstraite. Le cas de StopCovid est tout aussi marquant. En focalisant des ressources, l’attention du public et celle des parlementaires sur une solution technique probablement inefficace, le gouvernement nous détourne des urgences les plus criantes : la pénurie de masques, de tests et de médicaments, ou les inégalités d’exposition au risque d’infection.
Une malheureuse diversion
Cette malheureuse diversion n’aurait pas lieu si le gouvernement n’imposait pas ses stratégies numériques, verticalement, n’étant plus guidé que par l’urgence de faire semblant d’agir. Face à ces enjeux, il faudrait au contraire impliquer activement et à parts égales les citoyens, les institutions, les organisations et les territoires pour repenser notre rapport à la technologie. Le modèle de gouvernance qui accompagnera StopCovid sera manifestement centré dans les mains d’une poignée d’acteurs étatiques et marchands. Une telle verticalité n’offre aucune garantie contre l’évolution rapide de l’application en un outil coercitif, imposé à tout le monde.
Ce dispositif entraînerait un recul fondamental en matière de libertés, à la fois symbolique et concret : tant sur la liberté de déplacement, notamment entre les pays qui refuseraient d’avoir des systèmes de traçage ou qui prendront ce prétexte pour renforcer leur forteresse, que sur la liberté de travailler, de se réunir ou sur la vie privée. Les pouvoirs publics, les entreprises et les chercheurs qui dans le courant des dernières semaines sont allés de l’avant avec cette proposition désastreuse, ressemblent à des apprentis sorciers qui manient des outils dont la puissance destructrice leur échappe. Et, comme dans le poème de Goethe, quand l’apprenti sorcier n’arrive plus à retenir les forces qu’il a invoquées, il finit par implorer une figure d’autorité, une puissance supérieure qui remette de l’ordre. Sauf que, comme le poète nous l’apprend, ce « maître habile » ne reprend ces outils « que pour les faire servir à ses desseins ».
Antonio Casilli, sociologue. Paul-Olivier Dehaye, mathématicien. Jean-Baptiste Soufron, avocat. Cosignataires : Sophie Binet et Marie-José Kotlicki, cosecrétaires généraux de l’UGICT-CGT ; Raquel Radaut, membre de La Quadrature du Net.
";s:7:"dateiso";s:15:"20200425_184742";}s:15:"20200424_151627";a:7:{s:5:"title";s:47:"Rejetons StopCovid – Contactons les députés";s:4:"link";s:39:"https://www.laquadrature.net/stopcovid/";s:4:"guid";s:43:"https://www.laquadrature.net/?page_id=15792";s:7:"pubDate";s:31:"Fri, 24 Apr 2020 13:16:27 +0000";s:11:"description";s:281:"Le 28 avril 2020, l’Assemblée nationale débattra pour rendre son avis sur le projet d’application StopCovid du gouvernement. Cette application risque d’être inefficace d’un point de vue sanitaire (voire contre-productive) tout en créant de graves…";s:7:"content";s:2391:"
Le 28 avril 2020, l’Assemblée nationale débattra pour rendre son avis sur le projet d’application StopCovid du gouvernement. Cette application risque d’être inefficace d’un point de vue sanitaire (voire contre-productive) tout en créant de graves risques pour nos libertés : discriminations de certaines personnes et légitimation de la surveillance de nos corps dans l’espace public (reconnaissance faciale, drone et toute la Technopolice).
Quelques textes à lire pour bien comprendre le sujet :
Contactons les député·es pour leur demander de mettre fin à ce débat inutile et dangereux.
Au hasard parmi les députés de et de
( – )
Député suivant >
";s:7:"dateiso";s:15:"20200424_151627";}s:15:"20200417_142132";a:7:{s:5:"title";s:68:"Parcoursup : fin partielle de l’omerta sur les algorithmes locaux";s:4:"link";s:103:"https://www.laquadrature.net/2020/04/17/parcoursup-fin-partielle-de-lomerta-sur-les-algorithmes-locaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15777";s:7:"pubDate";s:31:"Fri, 17 Apr 2020 12:21:32 +0000";s:11:"description";s:252:"Dans sa décision QPC du 3 avril dernier, le Conseil constitutionnel a estimé que les algorithmes locaux, utilisés par les Universités pour sélectionner les étudiant·es dans le cadre de la procédure Parcoursup, doivent faire l’objet…";s:7:"content";s:8650:"
Dans sa décision QPC du 3 avril dernier, le Conseil constitutionnel a estimé que les algorithmes locaux, utilisés par les Universités pour sélectionner les étudiant·es dans le cadre de la procédure Parcoursup, doivent faire l’objet d’une publication après la procédure. Cette affaire, initiée par l’UNEF et dans laquelle La Quadrature du Net est intervenue, permet de lever – en partie – le voile sur l’opacité dangereuse des algorithmes qui sont utilisés de manière démesurée par l’État et ses administrations.
Parcoursup est une plateforme développée par le gouvernement et qui a pour objectif de gérer les vœux d’affectation des futur·es étudiant·es de l’enseignement supérieur. À ce titre, chaque établissement peut s’aider d’algorithmes (appelés « algorithmes locaux », car propres à chaque établissement) pour se faciliter le travail de comparaison entre les candidat·es. En pratique, il s’agit de simples feuilles de calcul. Les critères de ces algorithmes et leurs pondérations ne sont pas connu·es, et des soupçons de pratiques discriminatoires, notamment fondées sur le lycée d’origine des candidat·es, ont été émis par le Défenseur des droits. L’UNEF, syndicat étudiant, a alors demandé la communication de ces algorithmes locaux et, face au refus des Universités, s’est retrouvé devant le Conseil constitutionnel. La Quadrature du Net s’est jointe à l’affaire, et nous avons soutenu l’impératif de transparence.
En effet, jusqu’à présent, les juges administratifs et le Conseil d’État interprétaient la loi comme interdisant toute publication de ces algorithmes locaux, c’est-à-dire les critères utilisés et leurs pondérations. Le secret des délibérations était brandi pour refuser la transparence, empêchant ainsi de contrôler leur usage et la présence éventuelle de pratiques discriminatoires.
Dans sa décision, si le Conseil constitutionnel a considéré que la loi attaquée est conforme à la Constitution, il y a rajouté une réserve d’interprétation1Une réserve d’interprétation est une clarification par le Conseil constitutionnel du sens de la loi, dans l’hypothèse où plusieurs lectures du texte auraient été possibles. La réserve d’interprétation permet de « sauver » un texte de loi en ne retenant qu’une interprétation conforme à la Constitution et en écartant toute autre lecture. : la liste exhaustive des critères utilisés par les Universités devra être publiée a posteriori. Cette réserve d’interprétation change radicalement le sens de la loi et c’est un début de victoire : elle crée une obligation de publication de l’ensemble des critères utilisés par les Universités, une fois la procédure de sélection terminée. En revanche, il est extrêmement regrettable que les pondérations appliquées à chaque critère ne soient pas couvertes par cette communication.
Autre point important, pour arriver à cette conclusion, le Conseil constitutionnel a dégagé un droit général de communication des documents administratifs, notion recouvrant les algorithmes2Pour rappel, c’est ce droit de communication que nous utilisons dans notre campagne Technopolice pour obtenir des documents sur les dispositifs de surveillance déployés par les communes.. Il a ainsi estimé que seul un intérêt général peut limiter ce droit à communication, et à condition que cette limitation soit proportionnée. C’est ainsi que, pour la procédure Parcoursup attaquée, il a estimé que ce droit serait bafoué s’il n’y avait pas communication des critères de sélection une fois la procédure de sélection terminée.
Cette décision pose un cadre constitutionnel clair en matière de communication des algorithmes : la transparence est la règle, l’opacité l’exception. Le Conseil constitutionnel a écarté les menaces de fin du monde brandies par le gouvernement et les instances dirigeantes du monde universitaire qui défendaient bec et ongles leur secret. S’il est déplorable que l’usage même de ces algorithmes pour fonder des décisions administratives n’ait pas été une seule fois questionné par le Conseil, ni les pondérations appliquées aux critères dans Parcoursup incluses dans l’obligation de communication, une nouvelle voie s’ouvre toutefois à nous pour attaquer certaines pratiques du renseignement, autre domaine où la transparence n’est pas encore acquise.
Une réserve d’interprétation est une clarification par le Conseil constitutionnel du sens de la loi, dans l’hypothèse où plusieurs lectures du texte auraient été possibles. La réserve d’interprétation permet de « sauver » un texte de loi en ne retenant qu’une interprétation conforme à la Constitution et en écartant toute autre lecture.
2.
↑
Pour rappel, c’est ce droit de communication que nous utilisons dans notre campagne Technopolice pour obtenir des documents sur les dispositifs de surveillance déployés par les communes.
";s:7:"dateiso";s:15:"20200417_142132";}s:15:"20200414_164759";a:7:{s:5:"title";s:36:"Nos arguments pour rejeter StopCovid";s:4:"link";s:77:"https://www.laquadrature.net/2020/04/14/nos-arguments-pour-rejeter-stopcovid/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15746";s:7:"pubDate";s:31:"Tue, 14 Apr 2020 14:47:59 +0000";s:11:"description";s:244:"MAJ : Mardi 28 avril, l’Assemblée Nationale commence son débat sur StopCovid. On vous a préparé une petite page pour contacter les député.es (par mail, Twitter) et lister quelques textes à lire sur le sujet. C’est…";s:7:"content";s:16103:"
MAJ : Mardi 28 avril, l’Assemblée Nationale commence son débat sur StopCovid. On vous a préparé une petite page pour contacter les député.es (par mail, Twitter) et lister quelques textes à lire sur le sujet. C’est ici !
Hier, Emmanuel Macron a invité le Parlement à débattre de l’éventuelle application StopCovid développée par son gouvernement. Nous venons d’envoyer aux parlementaires le résumé de nos arguments (PDF, 1 page), tel que repris ci-dessous.
L’application StopCovid serait inutile, dangereuse pour nos libertés et pourrait même aggraver la situation sanitaire. L’administration et le Parlement doivent cesser d’investir toute ressource humaine ou économique dans ce projet vain et dangereux. L’urgence est partout ailleurs.
Une efficacité hasardeuse
Utilisation trop faible
de premières approximations évaluent que plus de 60%1Le taux d’utilisation de 60% nécessaire pour une efficacité est très repris dans la presse française en s’appuyant sur cette étude, cela nous semble être une déduction assez vague de la figure 3 de l’étude, déjà nécessairement simplifiée par rapport à la réalité. Reste que pour espérer la moindre efficacité, il faudrait que l’application soit extrêmement performante pour identifier les contacts susceptibles d’avoir entraîné une contamination, la quarantaine successive très bien suivie, et également qu’il y ait un taux d’installation colossal de l’application., voire plutôt 80% ou 100% de la population devrait utiliser l’application pour que celle-ci soit efficace, à condition encore qu’elle produise des données fiables ;
seulement 77% de la population française a un smartphone et cette proportion baisse à 44% pour les personnes de plus de 70 ans, alors qu’elles sont parmi les plus vulnérables ;
beaucoup de personnes ne savent pas forcément activer le Bluetooth et certaines refusent de le maintenir activé en permanence pour des raisons pratiques (batterie) ou pour se protéger d’usages malveillants2Une grande partie des smartphones en utilisation ne sont pas équipés des dernières mises à jour de sécurité, or des failles dans le protocole Bluetooth ont été découvertes ces dernières années. ;
16% de la population de Singapour a utilisé l’application équivalente – ce qui n’a pas empêché de devoir finalement recourir au confinement.
Résultats trop vagues
il faut redouter que la population n’ait pas accès à des tests de façon assez régulière pour se signaler de façon suffisamment fiable (et se reposer uniquement sur l’auto-diagnostic risquerait de faire exploser le nombre de faux-positifs) ;
il ne semble n’y avoir aucun consensus quant à la durée et la distance de proximité justifiant d’alerter une personne entrée en « contact » avec une autre personne contaminée ;
à certains endroits très densément peuplés (certains quartiers, grandes surfaces, grandes entreprises) on assisterait à une explosion des faux positifs, ce qui rendrait l’application inutile ;
le champ de détection du Bluetooth semble beaucoup trop varier d’un appareil à un autre et sa précision n’est pas forcément suffisante pour offrir des résultats fiables3Selon l’analyse de l’ACLU : « Other open questions include whether Bluetooth is precise enough to distinguish close contacts given that its range, while typically around 10 meters, can in theory reach up to 400 meters, and that its signal strength varies widely by chips et, battery, and antenna design » (« D’autres questions restent ouvertes, par exemple celle de savoir si le Bluetooth est assez précis pour différencier les contacts proches, étant donné que sa portée, qui tourne en pratique autour de 10 m, peut atteindre en théorie 400 m et que la puissance du signal dépend beaucoup de la puce, de la batterie, et de l’antenne utilisées »)..
Contre-efficacité sanitaire
en créant un faux sentiment de sécurité sanitaire, l’application pourrait inciter à réduire les gestes barrières, tout en échouant à lancer des alertes suffisamment fiables ;
son développement requiert une énergie et un coût qui ne sont pas investis dans des solutions plus efficaces, comme la production de masques, le dépistage de la population ou la promotion des gestes barrières… ;
le déploiement de systèmes de surveillance augmenterait le sentiment de défiance déjà important d’une partie de la population à l’égard de l’État. Ne sachant pas s’ils peuvent faire confiance au système mis en place, les potentiels malades pourraient se trouver incités à cacher leurs symptômes aux services de santé par peur de conséquences négatives.
Des libertés inutilement sacrifiées
Discriminations
que ce soit en la rendant obligatoire, ou par une pression sociale trop importante, les personnes n’utilisant pas l’application risqueraient de ne plus pouvoir travailler ou accéder à certains lieux publics librement (voir déjà un exemple en Italie), rendant leur consentement non-libre et donc nul ;
une hypothèse de discrimination particulièrement grave serait de faciliter l’accès aux tests sérologiques pour les personnes utilisant l’application.
Surveillance
dans le cas où l’application serait adoptée par une partie de la population, il faut redouter que le gouvernement puisse l’imposer plus facilement au reste de la population, contre sa volonté ; nous constatons que toutes mesures sécuritaires et liberticides prises dans les temps « d’urgence » n’ont jamais été remises en cause – c’est l’effet cliquet qui participe à la défiance justifiée contre ces solutions de contrôle ;
l’objectif de l’application (alerter des personnes ciblées) est par essence incompatible avec la notion juridique d’anonymat – il s’agit au mieux d’un pseudonymat, qui ne protège pas contre tout type de surveillance individuelle ;
la publication du code de l’application sous une licence libre, ainsi que l’utilisation de méthodes de compilation reproductibles, seraient des exigences indispensables contre ces abus, mais elles-mêmes insuffisantes.
Acclimatation sécuritaire
personne n’est capable de dire à l’avance pendant combien de temps l’application serait déployée ;
une fois l’application déployée, il sera plus facile pour le gouvernement de lui ajouter des fonctions coercitives (contrôle individuel du confinement) ;
l’application incite à soumettre son corps à une surveillance constante, ce qui renforcera l’acceptabilité sociale d’autres technologies, comme la reconnaissance faciale ou la vidéo surveillance automatisée, qui sont actuellement largement rejetées ;
solutionnisme technologique : l’application renforce la croyance aveugle dans la technologie et la surveillance comme principales réponses aux crises sanitaires, écologiques ou économiques, alors qu’elles détournent au contraire l’attention des solutions : recherche scientifique, financement du service public…
L’utilisation d’une application dont les objectifs, les techniques et les conditions mêmes d’usage portent des risques conséquents pour notre société et nos libertés, pour des résultats probablement médiocres (voire contre-productifs), ne saurait être considérée comme acceptable pour nous – tout comme pour beaucoup de Français·es. Le temps médiatique, politique et les budgets alloués à cette fin seraient mieux utilisés à informer et protéger la population (et les soignant·es) par des méthodes à l’efficacité prouvée, telles que la mise à disposition de masques, de matériel médical et de tests.
Le taux d’utilisation de 60% nécessaire pour une efficacité est très repris dans la presse française en s’appuyant sur cette étude, cela nous semble être une déduction assez vague de la figure 3 de l’étude, déjà nécessairement simplifiée par rapport à la réalité. Reste que pour espérer la moindre efficacité, il faudrait que l’application soit extrêmement performante pour identifier les contacts susceptibles d’avoir entraîné une contamination, la quarantaine successive très bien suivie, et également qu’il y ait un taux d’installation colossal de l’application.
2.
↑
Une grande partie des smartphones en utilisation ne sont pas équipés des dernières mises à jour de sécurité, or des failles dans le protocole Bluetooth ont été découvertes ces dernières années.
3.
↑
Selon l’analyse de l’ACLU : « Other open questions include whether Bluetooth is precise enough to distinguish close contacts given that its range, while typically around 10 meters, can in theory reach up to 400 meters, and that its signal strength varies widely by chips et, battery, and antenna design » (« D’autres questions restent ouvertes, par exemple celle de savoir si le Bluetooth est assez précis pour différencier les contacts proches, étant donné que sa portée, qui tourne en pratique autour de 10 m, peut atteindre en théorie 400 m et que la puissance du signal dépend beaucoup de la puce, de la batterie, et de l’antenne utilisées »).
";s:7:"dateiso";s:15:"20200414_164759";}s:15:"20200408_124359";a:7:{s:5:"title";s:79:"La crise sanitaire ne justifie pas d’imposer les technologies de surveillance";s:4:"link";s:117:"https://www.laquadrature.net/2020/04/08/la-crise-sanitaire-ne-justifie-pas-dimposer-les-technologies-de-surveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15734";s:7:"pubDate";s:31:"Wed, 08 Apr 2020 10:43:59 +0000";s:11:"description";s:248:"Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 8 avril 2020,
Chacune des crises qui a marqué le 21e siècle ont été l’occasion d’une régression des libertés publiques. Les attentats terroristes du 11…";s:7:"content";s:8487:"
Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 8 avril 2020,
Chacune des crises qui a marqué le 21e siècle ont été l’occasion d’une régression des libertés publiques. Les attentats terroristes du 11 septembre 2001 ont vu l’Europe adopter la Directive sur la rétention des données de connexions électroniques et l’obligation faite aux opérateurs de stocker celles de tous leurs clients. Les attentats terroristes qui ont touché la France en 2015 ont permis le vote sans débat de la loi renseignement. Ils ont aussi entraîné la mise en place de l’état d’urgence dont des mesures liberticides ont été introduites dans le droit commun en 2017.
La pandémie de Covid-19 menace d’entraîner de nouvelles régressions : discriminations, atteintes aux libertés, à la protection des données personnelles et à la vie privée…
Pour surveiller l’évolution de la pandémie, tenter d’y mettre fin et organiser la fin du confinement, les gouvernements de plusieurs pays européens proposent d’utiliser des outils numériques basés sur l’utilisation des données des téléphones portables en prenant exemple sur plusieurs pays d’Asie qui ont subi l’épidémie avant l’Europe (Chine, Corée du Sud, Taïwan, Singapour).
Deux logiques sont en œuvre : géolocaliser les populations et vérifier qu’elles respectent le confinement ; signaler aux personnes qu’elles ont pu être en contact avec des malades de la Covid-19.
En France, le 8 avril, le gouvernement a indiqué travailler sur une application pour téléphone portable, téléchargeable à titre volontaire, permettant que « lorsque deux personnes se croisent pendant une certaine durée, et à une distance rapprochée, le téléphone portable de l’un enregistre les références de l’autre dans son historique. Si un cas positif se déclare, ceux qui auront été en contact avec cette personne sont prévenus de manière automatique » [1].
Pistage des contacts (contact/backtracking)
Il est envisagé d’utiliser pour cela le Bluetooth, qui permet à deux appareils comme des téléphones portables, de se connecter lorsqu’ils sont à proximité[2]. Une application à installer (volontairement ou pas) permet aux porteurs de la Covid-19 de se signaler pour que les personnes ayant été à leur proximité soient informées sur leur téléphone portable qu’elles ont peut-être été en contact avec un porteur du virus, et qu’elles devront à leur tour rester confinées pour limiter la chaîne de contamination.
Quels sont les risques et les garanties nécessaires ?
Le Président de la République ayant déclaré que nous étions en guerre contre le virus, les mesures de restrictions des libertés nous sont présentées comme autant d’armes légitimes contre la pandémie.
Néanmoins, les utilisations envisagées de nos données personnelles (applications utilisant le Bluetooth pour le suivi des contacts) ou déjà mises en œuvre (géolocalisation) constituent une grave atteinte à nos libertés et ne sauraient être autorisées, ni utilisées sans notre consentement.
Pour que des données aussi sensibles puissent être utilisées légalement, nous devrions être informés du moment où ces données sont anonymisées, notre consentement devrait nous être demandé, des informations faciles à lire et à comprendre devraient nous être fournies pour permettre un consentement libre spécifique et éclairé. Des garanties devraient également être fournies sur les techniques utilisées pour rendre impossible leur ré-identification.
Concernant les applications de suivi des contacts, elle sont présentées comme peu dangereuses pour la confidentialité des données personnelles puisqu’il y aurait peu de collecte de données, mais essentiellement des connexions par Bluetooth d’un téléphone à un autre. C’est oublier que la notion de consentement libre, au cœur des règles de la protection des données, est incompatible avec la pression patronale ou sociale qui pourrait exister avec une telle application, éventuellement imposée pour continuer de travailler ou pour accéder à certains lieux publics. Ou que l’activation de ce moyen de connexion présente un risque de piratage du téléphone. Il est par ailleurs bien évident que l’efficacité de cette méthode dépend du nombre d’installations (volontaires) par les personnes, à condition bien sûr que le plus grand nombre ait été dépisté. Si pour être efficaces ces applications devaient être rendues obligatoires, « le gouvernement devrait légiférer » selon la présidente de la CNIL[3]. Mais on imagine mal un débat parlementaire sérieux dans la période, un décret ferait bien l’affaire ! Et qui descendra manifester dans la rue pour protester ?
L’atteinte au secret médical, à la confidentialité des données de santé, est aussi mis en cause, car ces applications offrent une possibilité d’identifier les malades et de les stigmatiser. Et qu’en sera-t-il de toutes les personnes qui n’auront pas installé l’application, seront-elles soupçonnées d’avoir voulu cacher des informations ?
Quant à celles qui ne possèdent pas de téléphone portable, elles risquent de subir une discrimination supplémentaire. Selon le CREDOC, seulement 44 % des « plus de 70 ans » possèdent un téléphone portable tandis que 14 % des Français ont des difficultés pour passer des appels ou envoyer des SMS[4]. De là à installer une application et en comprendre les alertes… Faudra-t-il les équiper d’un bracelet ou autre appareil électronique ?
Dès lors, l’atteinte au respect de la vie privée et au secret médical est susceptible d’être disproportionnée compte-tenu de l’inefficacité de la mesure en matière de santé publique.
En matière de lutte contre la pandémie et notamment de fin de confinement, il semble que le gouvernement tente de masquer ses manques et ses erreurs avec des outils technologiques présentés comme des solutions miracles. Et alors que leur efficacité n’a pas été démontrée, les dangers pour nos libertés sont eux bien réels.
Organisations signataires membres de l’OLN : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM)
—
[1] https://www.lemonde.fr/planete/article/2020/04/08/stopcovid-l-application-sur-laquelle-travaille-le-gouvernement-pour-contrer-l-epidemie_6035927_3244.html
[2]Technologie de réseaux sans fils d’une faible portée (10 à 100 mètres…) permettant de relier des appareils entre eux sans liaison filaire. Ils sont capables de se détecter sans intervention humaine s’ils sont à portée l’un de l’autre.
[3] Interview par l’AFP de la présidente de la CNIL, Marie-Laure Denis le 4 avril 2020
Question: Le gouvernement a-t-il la possibilité d’imposer ce type d’app, ou d’autres app visant à imposer le respect du confinement ?
Réponse: En France, les pouvoirs publics ont exclu à ce jour l’éventualité d’un recours à un dispositif obligatoire.
S’il devait en aller autrement, il serait nécessaire d’adopter un texte législatif pour mettre en œuvre ces dispositifs qui devraient en tout état de cause démontrer leur nécessité pour répondre à la crise sanitaire ainsi que leur proportionnalité par un respect des principes de la protection des données personnelles: la minimisation des données collectées, des finalités qui doivent être explicitées et précises, un caractère provisoire…
[4]https://www.credoc.fr/publications/barometre-du-numerique-2019
";s:7:"dateiso";s:15:"20200408_124359";}s:15:"20200406_104944";a:7:{s:5:"title";s:45:"Devenir des robots pour échapper au virus ?";s:4:"link";s:82:"https://www.laquadrature.net/2020/04/06/devenir-des-robots-pour-echapper-au-virus/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15722";s:7:"pubDate";s:31:"Mon, 06 Apr 2020 08:49:44 +0000";s:11:"description";s:290:"Tribune d’Arthur, juriste à La Quadrature du Net.
Les projets de traçage numérique contre le virus se précisent. Ferons-nous reposer la santé de la population sur notre « robotisation » ou, au contraire, sur notre humanité ?
Sonder son entourage
Mercredi…";s:7:"content";s:8731:"
Tribune d’Arthur, juriste à La Quadrature du Net.
Les projets de traçage numérique contre le virus se précisent. Ferons-nous reposer la santé de la population sur notre « robotisation » ou, au contraire, sur notre humanité ?
Sonder son entourage
Mercredi dernier, le gouvernement a annoncé son projet de logiciel pour lutter contre le coronavirus après le confinement. L’idée semble très proche de ce qui a été expérimenté à Singapour : un logiciel pour smartphone vous permettrait de garder une trace des personnes croisées dans la journée et qui utilisent aussi l’application. La détection des personnes se ferait probablement par Bluetooth, sans avoir à enregistrer le lieu où vous les aurez croisées. Plus tard, si vous réalisez que vous êtes malade, le logiciel vous permettrait d’informer ces personnes pour les inviter à se mettre en quarantaine.
En théorie, ce modèle peut se passer de l’intervention d’une administration centrale, en ne reposant que sur la coopération volontaire entre individus. Il s’agit d’une des principales vertus mises en avant par ses promoteurs, en Asie comme en Europe. Ainsi, dans l’hypothèse où le gouvernement prendrait cette voie, on pourrait déjà se réjouir qu’il n’ait pas pris celle proposée par Orange, avec l’assentiment de la CNIL, visant à se passer entièrement de notre consentement.
Toutefois, si le modèle décrit ci-dessus semble simple en théorie, nous ignorons encore tout de la façon dont il sera déployé. Derrière les promesses d’une application décentralisée et autonome, il faut toujours redouter les terribles habitudes de l’État en matière de centralisation et de surveillance. La publication immédiate sous licence libre du code de l’application serait une garantie indispensable contre un tel dévoiement. Nous ne pouvons qu’être prudent en constatant que les autorités de Singapour, qui en avaient pourtant fait la promesse, n’ont toujours pas publié le code de leur application.
Cette application soulève d’autres difficultés juridiques mais le cœur du débat, politique, interroge l’évolution culturelle de notre société et son rapport à la technologie.
Un accord libre ?
Si l’application ne faisait rien sans notre accord et si son code était libre, serait-elle légale ? Le RGPD prévoit que le consentement n’est valide que s’il est « librement donné ». Ce n’est pas le cas si une personne « n’est pas en mesure de refuser ou de retirer son consentement sans subir de préjudice ».
Dans ces conditions, l’hypothèse suivante ne serait pas conforme au RGPD : les personnes utilisant l’application sont autorisées à se déplacer librement, mais celles ne l’utilisant pas restent contraintes de rédiger une attestation de déplacement et de la soumettre au contrôle policier. Dans une telle hypothèse, le consentement ne serait pas donné librement, mais répondrait à la menace d’amendes lourdes et imprévisibles tant la police fait preuve d’arbitraire et de discriminations dans ces contrôles.
Si le gouvernement veut proposer une application licite, il devra entièrement rejeter cette hypothèse – hypothèse qui, heureusement, n’a pour l’heure pas été avancée. Enfin, même en rejetant cette hypothèse, y aurait-il encore à débattre de légalité de l’application ? Difficile de suivre un raisonnement uniquement juridique sans l’articuler à une réflexion politique : serons-nous socialement libres de refuser l’application ?
Une contrainte sociale
Les injonctions sanitaires ne viennent pas que du gouvernement, mais aussi d’une large partie de la population. Difficile de critiquer les injonctions actuelles qui invitent au confinement, mais que penser des injonctions futures, qui viendront après, lorsque la fin du confinement sera amorcée ?
Dans un monde déjà hyper-connecté, mis sous tension par la crise sanitaire, comment seront accueillies les personnes qui refuseront d’utiliser l’application ? Et celles qui, pour des raisons économiques, politiques ou en raison de handicap, n’ont tout simplement pas de smartphone ? Pourra-t-on aller travailler ou faire nos courses sans pouvoir attester de la bonne santé de nos fréquentations ? Nous laissera-t-on entrer dans tous les restaurants, centres d’accueil, bars, hôtels de jeunesse, boites de nuit, lieux de prière ou cinémas ?
De ces tensions sociales, il faut redouter un basculement culturel en faveur d’une surveillance massive de nos comportements hors-ligne. Il faut redouter l’exclusion sociale de celles et ceux qui refuseront de céder leur sociabilité et leur corps au contrôle et à l’efficacité biologique. De celles et ceux qui refuseront de devenir semblables à des machines, traçables et auditables en tout lieu.
Hélas, une telle évolution ne serait pas que sociale : l’industrie la prépare déjà depuis des années en déployant la reconnaissance faciale et la vidéo-surveillance automatisée dans nos villes. La Technopolice pourrait trouver dans cette crise sanitaire l’assise culturelle qui lui manquait tant.
Encore une fois, notre peur naturelle de mourir serait instrumentalisée, non plus seulement contre le terrorisme, mais désormais aussi contre la maladie. Nous sommes habitués à ces faux-chantages et ne sommes pas dupes. Dans le futur, notre société pourrait connaître des crises bien pires que celles en cours et, quelles que soient les menaces, la mort nous fera toujours moins peur que leurs futurs dystopiques — qu’une vie sans liberté.
Dans tous les cas, ce choix n’a pas lieu d’être aujourd’hui. La défense des libertés ne s’oppose pas à notre santé. Au contraire, elles vont de pair.
L’humanité, meilleure soignante que la technopolice
Les logiciels proposés aujourd’hui ne sont que l’éternelle réitération du « solutionnisme technologique » que l’industrie techno-sécuritaire redéploie à chaque crise. Sauf que, aujourd’hui, ce serpent de mer autoritaire constitue aussi une menace sanitaire.
Les enjeux de santé publique exigent de maintenir la confiance de la population, que celle-ci continue d’interagir activement avec les services de santé pour se soigner et partager des informations sur la propagation du virus. Les technologies de surveillance, telle que l’application envisagée par le gouvernement, risquent de rompre cette confiance, d’autant plus profondément qu’elles seront vécues comme imposées.
Face à l’éventuelle crainte de perdre leurs emplois ou d’être exclues de lieux publics, une telle défiance pourrait conduire de nombreuses personnes à mentir, à cacher leurs symptômes ou ceux de leurs proches. La « surveillance » nous aura privé d’informations précieuses.
Pour éviter une telle situation, plutôt que de prendre la voie des robots — tracés et gérés comme du bétail —, nous devons reprendre la voie des humains – solidaires et respectueux. Tisser et promouvoir des réseaux de solidarité avec les livreurs, les étrangers, les sans-abris, les soignants, augmenter le nombre de lits à l’hôpital, de masques pour le public, de tests pour permettre aux personnes malades de savoir qu’elles sont malades, de prendre soin d’elles-mêmes et de leur entourage, en nous faisant confiance les-unes les-autres – voilà une stratégie humaine et efficace.
";s:7:"dateiso";s:15:"20200406_104944";}s:15:"20200404_120556";a:7:{s:5:"title";s:33:"Urgence partout, État nulle part";s:4:"link";s:70:"https://www.laquadrature.net/2020/04/04/urgence-partout-etat-nul-part/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15713";s:7:"pubDate";s:31:"Sat, 04 Apr 2020 10:05:56 +0000";s:11:"description";s:241:"Tribune de Noémie, membre de La Quadrature du Net.
Nous traversons une crise inédite tant par rapport à son origine, une pandémie mondiale, qu’à ses conséquences, une paralysie mondiale. En France, le gouvernement y a répondu…";s:7:"content";s:8496:"
Tribune de Noémie, membre de La Quadrature du Net.
Nous traversons une crise inédite tant par rapport à son origine, une pandémie mondiale, qu’à ses conséquences, une paralysie mondiale. En France, le gouvernement y a répondu en déclarant l’état d’urgence sanitaire, une notion créée pour l’occasion. Dedans, il y a « état d’urgence ». Et pourtant, la gravité qui accompagne d’ordinaire ce terme semble résonner dans le vide.
L’état d’urgence c’est un état d’exception, un espace où l’ordre juridique construit depuis des dizaines d’années est écarté pour laisser la priorité à l’efficacité, une séquence où les gouvernants s’arrogent de nouveaux pouvoirs dérogatoires sans aucun contrôle. Un moment dangereux pour les libertés, alimenté par la peur.
Alors qu’on devrait redoubler de vigilance envers l’action de l’État, que des garde-fous devraient être mis en place, que la critique devrait être partout, une grande partie d’entre nous baissons la garde. Serait-ce l’adjectif « sanitaire » accolé à l’état d’urgence qui fait diversion ? Ou plutôt une stratégie d’opportunité du gouvernement ? Tentons une explication.
L’urgence invisible
Il faut déjà se souvenir que la France a été en état d’urgence de 2015 à 2017, de quoi accoutumer la population à ce concept et le vider de sa signification, aussi bien en théorie qu’en pratique. Avec l’état d’urgence permanent, le message transmis est que le danger n’est plus exceptionnel, il est constant, il est partout. C’est cette justification qui a été utilisée pour transposer ces mesures soit disant « exceptionnelles » dans la loi « renforçant la sécurité intérieure et la lutte contre le terrorisme » (ou loi « SILT »).
Mais ce n’est sûrement pas l’unique raison de cette difficile prise de conscience. En 2015, les évènements tragiques du 13 novembre ont constitué le point de départ de l’état d’urgence, dont la mise en place était censée répondre rapidement aux maux l’ayant causé.
Aujourd’hui la temporalité semble différente. Le gouvernement n’a pas attendu l’état d’urgence pour prendre la mesure exceptionnelle et inédite que constitue le confinement. Cette fois-ci, il existe bien un évènement traumatisant qui justifierait l’exception, mais il n’est pas derrière nous. Il est devant.
Qu’attendons-nous exactement ? La fin de l’épidémie ? La fin du confinement ? D’être malade à notre tour ? Et qu’entendons-nous par « crise » sanitaire ? Le nombre de décès ? De malades ? L’aspect inédit du virus ? Les retombées économiques et sociales pour la France ?
On le voit, les circonstances justifiant l’état d’urgence sont autour de nous mais demeurent impalpables, difficiles à circonscrire, et les évènements auxquels il prétend répondre s’inscrivent dans une chronologie mouvante. En réponse, toutes les mesures d’exception qui seront prises dans le cadre de cet état d’urgence auront pour but de limiter un phénomène dont les contours ne sont pas réellement tracés, le tout couplé à un rythme effréné, comme une course contre la montre face à une menace invisible.
Nous l’attendons et dans cette attente cumulée à la peur, les critiques provenant des militant·es, citoyen·nes ou politiques sont alors inaudibles ou bien rendues illégitimes.
Cette absence de contours de ce que nous somme censés « combattre » pourrait être une explication à pourquoi ce nouvel état d’urgence échappe à une majorité de la population, à pourquoi les nouvelles mesures liberticides que nous subissons peuvent tant se confondre avec un quotidien déjà exceptionnel où nos libertés de déplacement sont contrôlées. Mais surtout, cela donne au gouvernement un blanc-seing afin de prendre des mesures aux contours tout aussi flous, dès lors qu’elles seront prises au nom de la lutte contre la pandémie. Et lorsque le gouvernement prend un nombre record d’ordonnances en l’espace de quelques jours, il nous fait plutôt regarder des courbes et des chiffres. Cela relève moins du hasard que de la stratégie.
La diversion des chiffres
En 2015, les militaires Sentinelles qui tournaient dans les rues étaient censés rassurer les citoyens face à la menace terroriste, sans pour autant que leur efficacité concrète en cas d’attaque soit réellement avérée. Cette illusion servait surtout à nous rappeler que nous devions avoir peur et ainsi l’état d’urgence pouvait passer pour légitime. Aujourd’hui, ce sont les chiffres qui jouent ce rôle. De malades, de décès, de cas, de probabilité, de seuil, ils sont là pour informer en permanence sur les raisons de cet état d’exception, tenter de nous rassurer (mais est-ce vraiment rassurant ?) tout en nous faisant suffisamment peur pour que l’état d’urgence suive son cours sans heurt ni critiques. Mais sont-ils réellement utiles ?
En réalité, les chiffres apparaissent comme le seul outil permettant de donner un corps à ce phénomène invisible. Les chiffres deviennent ainsi le seul levier pour le gouvernement, avec la police (dont les dérives et violences habituelles sont d’autant plus visibles quand on lui donne un joujou de plus pour être arbitraire) pour maîtriser la situation, ou plutôt, de prétendre la maîtriser. Toute forme de données, de statistiques lui sont utiles pour sa communication, pour le rapport de force.
On nous martèle alors que les producteurs de données c’est nous, nos comportements, nos téléphones, nos déplacements. La tendance actuelle présente la collecte de nos données comme le recours ultime contre la pandémie, alors que leur efficacité n’est en rien certaine. Cette volonté de nous identifier comme des acteurs potentiels de cette crise, alors que nous sommes les sujets qui en subissent les mesures liberticides, est une pure fiction.
En quoi les statistiques seront-elles plus efficaces que les médecins, les infirmier·es., les aide-soignant·es, les étudiant·es, les ambulancier·es qui s’épuisent, jour et nuit, à sauver les personnes infectées ? En quoi le fait de se géolocaliser résoudra-t-il la pénurie de masques, de tests et de médicaments ? Pourquoi une application nous sauverait-elle plus que la solidarité humaine et les mesures de confinement ?
Les mesures de surveillance, via nos usages des technologies, que suggèrent nos gouvernants relèvent en réalité d’une stratégie pour détourner notre attention de la cause réelle du problème que constitue l’abandon de l’hôpital public. Ils tablent sur la culpabilisation des citoyens désireux d’agir pour faire adopter des outils toujours plus intrusifs et évitent soigneusement de mettre en lumière les multiples réseaux de solidarité qui se forment, les besoins criants des associations pour aider les plus précaires, les multiples critiques de notre mode de vie qui émergent même des plus libéraux. Plutôt que d’assumer les conséquences désastreuses d’une politique de santé défaillante, leur diversion consiste à inverser les rôles, à nous faire passer, nous, pour ceux qui refuseront d’aider les autres. Comme si nous devions être coupable de vouloir protéger notre vie privée, d’exprimer notre colère, ou simplement de suggérer des alternatives.
Une fois ces manœuvres identifiées, il appartient à chacun de percevoir cette crise selon son propre prisme, de décider de sa propre manière d’agir ou d’aider. Nous la vivons toutes et tous de manière différente et la solidarité n’impose pas de se ranger derrière la seule action de l’État comme il le laisse entendre. Au contraire, les expériences que nous traversons sont inquantifiables et multiples, souvent difficiles, mais probablement très fortes dans ce qu’elles font de notre rapport aux autres et à la société, une richesse qu’il nous faudra cultiver une fois ce moment douloureux passé.
";s:7:"dateiso";s:15:"20200404_120556";}s:15:"20200401_174503";a:7:{s:5:"title";s:34:"Covid-19 : l’attaque des drones";s:4:"link";s:69:"https://www.laquadrature.net/2020/04/01/covid-19-lattaque-des-drones/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15692";s:7:"pubDate";s:31:"Wed, 01 Apr 2020 15:45:03 +0000";s:11:"description";s:252:"À l’heure de la crise sanitaire, la France bascule dans un État policier. Et c’est l’occasion pour les forces de sécurité de déployer massivement leurs derniers gadgets sécuritaires. À travers le pays, la police déploie…";s:7:"content";s:23244:"
À l’heure de la crise sanitaire, la France bascule dans un État policier. Et c’est l’occasion pour les forces de sécurité de déployer massivement leurs derniers gadgets sécuritaires. À travers le pays, la police déploie des drones pour contrôler l’application du confinement. Non seulement pour diffuser par haut-parleurs les directives du gouvernement, mais aussi pour surveiller la population, en orientant les patrouilles au sol et même en filmant celles et ceux qui leur échapperaient pour mieux les sanctionner après.
Ce déploiement inédit ressemble à une gigantesque opération de communication des autorités, qui mettent ainsi en avant leur arsenal technologique. Cette crise est instrumentalisée pour banaliser l’utilisation d’un outil de surveillance pourtant extrêmement attentatoire à nos libertés. Et le tout dans un cadre juridique flou, voire inexistant. L’État profite ainsi de l’état de sidération pour imposer ses technologies policières.
Christophe Castaner a la mémoire courte. C’est sans doute la raison pour laquelle il n’a pas hésité, la semaine dernière, à expliquer que, si le gouvernement français s’était pour l’heure abstenu de se livrer à une surenchère en matière de surveillance numérique au cours de cette crise sanitaire, c’était parce que le traçage des données « n’est pas dans la culture française ». Oubliés les bons et loyaux services de l’opérateur télécom Orange qui propose de surveiller illégalement ses abonnés pour le compte des autorités ? Oubliés aussi, les programmes de surveillance massifs des services de renseignement français ? Oubliés, le fichier TAJ ou les ventes d’armes numériques aux dictatures ?
Si, pour l’heure, le « traçage numérique » n’est pas la priorité du gouvernement pour lutter contre l’épidémie, reste le flicage tout court. Et dans cette matière, le ministère de l’Intérieur nous fait ces jours-ci une démonstration magistrale de son savoir-faire, n’hésitant pas à étaler ses dernières technologies sécuritaires. Il y a encore quelques semaines, les vidéos de drones qui survolaient des villes en Chine afin de faire respecter les consignes de gouvernement provoquaient en France incrédulité et inquiétude concernant les dangers de ce nouvel « arsenal technologique » pour les « libertés individuelles ». D’aucuns étaient tenté d’y voir une spécificité chinoise, le signe d’un État autoritaire. Moins de deux mois plus tard, tandis que chaque sortie de nos domiciles est conditionnée à une déclaration préalable, que nos déplacements font l’objet de contrôles systématiques, la police française déploie à son tour ces mêmes engins sur tout le territoire.
Il ne s’agit pourtant pas d’un outil anodin : robo-militarisation de l’espace public et aérien, pollution sonore, coût énergétique, danger pour les biens et personnes en cas de défaillance, accès non autorisé aux espaces privés, l’usage policier des drones démultiplie la surveillance.
Tour de France du déploiement des drones et de leurs usages
De rapides recherches donnent pourtant à voir plus d’une quinzaine d’exemples où les drones sont utilisés pour imposer le confinement décidé par le gouvernement et intimider la population. Et il ne s’agit pas seulement d’y brancher un haut-parleur pour diffuser les consignes des autorités, mais bien, à l’aide des caméras, de surveiller la population, de repérer les attroupements, de mieux verbaliser les contrevenants, d’orienter les patrouilles au sol et même, dans certains cas, de filmer les personnes échappant à la police pour mieux les sanctionner après. Petit tour de France de ce déploiement inédit :
A Paris, la préfecture a déployé plusieurs drones pour diffuser des messages incitant au confinement, le tout au sein d’un « dispositif complet de surveillance et de contrôle de l’espace public dans le cadre des mesures de confinement destinées à protéger la population de la transmission du coronavirus » ;
A Ajaccio, la police survole les plages avec un drone pour « prévenir, voire même verbaliser, ceux qui avaient oublié les consignes de confinement » ;
A Nice, un drone « muni d’une caméra et d’un haut-parleur accompagne (…) des patrouilles de la Police nationale » et devrait bientôt être déployé à Cannes ;
En Haute-Garonne, les gendarmes (…) | « peuvent désormais utiliser un drone pour s’assurer que les règles de confinement sont respectées par tous ». La gendarmerie « basée à Muret a pu contrôler 75 personnes et réaliser 10 procès-verbaux en trois opérations avec ce drone équipée d’une caméra avec zoom dont l’image est envoyée sur une tablette » ;
En Moselle-Sud, les drones permettent « de couvrir une zone étendue en quelques minutes et de pouvoir contrôler des endroits difficiles d’accès »
A Metz, c’est avec un drone que « les policiers du commissariat de Metz ont repéré les contrevenants qui ont, ensuite, été verbalisés ;
A Limoges, un drone a été prêté à titre gracieux à la police par les pompiers « afin de surveiller que les mesures de confinement sont respectées ». Ce drone leur « permet effectivement de voir si les gens respectent bien le confinement, s’ils respectent aussi l’espace entre eux (…) de concentrer les patrouilles et les contrôles dans les endroits où il y a des attroupements injustifiés » ;
A Nantes, la police utilise un drone avec caméra et haut-parleur « pour détecter d’éventuels contrevenants » et « faire une capture d’image si un individu venait par exemple à prendre la fuite » ;
A Montpellier, les drones servent « à faire des reconnaissances dans les quartiers sensibles à Montpellier où des délinquants ne respectent pas le confinement », leur but étant de « d’opérer une reconnaissance pour savoir si on a des points de fixation aux abords de certaines cités sensibles pour éviter des embuscades et envoyer les moyens adéquats » ;
A Rennes, où un droneavec caméra « informe, par radio, de la position des contrevenants au confinement à ses collègues patrouillant» ;
Dans le Grand Est, où un drone avec haut-parleur et caméra est utilisé pour faire respecter le confinement, et où la région dit disposer de « 18 drones de gendarmerie opérés par 30 télépilotes [qui] seront mis à contribution en fin de semaine ».
Et la liste s’allonge de jour en jour : dans le Val-d’Oise ou les Côtes-d’Armor, avec haut-parleur et caméra pour orienter les patrouilles, mais aussi à Marseille, Amiens, Lille, Granville, Saint-Malo…. Et un tel déploiement n’est évidemment pas exclusif à la France – il a malheureusement lieu en ce moment partout en Europe (c’est le cas au Royaume-Uni, en Espagne, au Portugal…).
Démultiplication des pouvoirs de la police
C’est un déploiement massif, d’une ampleur inédite, qui décuple le pouvoir de surveillance et de sanction de la police. L’autre conséquence est évidemment la banalisation et la normalisation d’un tel outil, déjà largement utilisé pour la surveillance des migrants et des manifestations. Une banalisation qui pousse chaque personne à s’habituer au survol des espaces publics par des machines. Les agents de police, quant à eux, découvrent un nouveau gadget dans leur arsenal et l’expérimentent comme bon leur semble. Un outil qui, pour les industries du secteur, n’a aujourd’hui plus rien d’ « exotique ».
Car les industriels de la sécurité ne sont évidemment jamais bien loin. Comme pour tout dispositif technopolicier, les autorités délèguent et confient une partie de leur pouvoir de police à des sociétés privés. À Nice, c’est en effet une start-up locale, « Drone 06 » qui fait patrouiller ses drones pour la police (en promettant de ne pas filmer elle-même). Et à Paris, c’est l’entreprise Flying Eye qui loue ses machines à la préfecture de police à travers un accord-cadre, son dirigeant indiquant même qu’il reçoit en ce moment « toutes les deux heures un appel pour me commander du matériel ». Alors que les services de santé sont exsangues, la police et ses partenaires privés profitent de la crise pour multiplier les investissements dans ce coûteux matériel.
Vide juridique
Il n’existe aujourd’hui aucun cadre juridique spécifique pour l’utilisation des drones par la police. Cela avait déjà été souligné en 2015, réaffirmé depuis, et c’est encore et toujours le cas aujourd’hui. En réalité, le seul cadre existant semble constitué de deux arrêtés du 17 décembre 2015, l’un portant sur les normes de conception des drones, et l’autre sur leur utilisation. Les règles fixées par ces deux arrêtés (autorisation préalable, hauteur de vol…) concernent aussi bien les drones à usage civil que ceux de la police. Néanmoins, l’arrêté sur l’utilisation des drones permet, pour des activités de police, de déroger totalement aux règles édictées : « Les aéronefs qui circulent sans personne à bord appartenant à l’État, affrétés ou loués par lui et utilisés dans le cadre de missions de secours, de sauvetage, de douane, de police ou de sécurité civile peuvent évoluer en dérogation aux dispositions du présent arrêté lorsque les circonstances de la mission et les exigences de l’ordre et de la sécurité publics le justifient »
Pour résumer, il suffit donc à la police de considérer que sa mission d’ « ordre » et de « sécurité publique » le justifie, pour ne respecter aucune règle quant à l’utilisation de drones dans l’espace public1Même si l’on peut considérer que, dans le cas où la police traite des données personnelles, elle se retrouve à devoir respecter la directive dite « police-justice » (l’équivalent du RGPD pour ce qui concerne la recherche d’infractions), cela reste une disposition extrêmement permissive pour les pouvoirs de police..
C’est d’autant plus étonnant que le code de la sécurité intérieure prévoit des dispositions spécifiques pour la vidéosurveillance (« vidéoprotection » dans la novlangue d’État) mais également pour les caméras-piétons. L’encadrement de ces dernières avait d’ailleurs fait suite à la pression de la Cnil, en 2015, qui avait considéré, qu’au vu des nouveaux dangers que posaient les caméras-piétons pour la vie privée, « un encadrement légal, spécifique et adapté à de tels dispositifs, est nécessaire ». Aucun appel semblable n’a été fait pour les drones. En l’état du droit, ces déploiements dignes d’un État policier sont tout simplement inadmissibles.
À La Quadrature, nous serions évidemment enclins à attaquer en justice ces déploiements pour y mettre un coup d’arrêt. Mais un tel flou juridique rend plus difficile tout contentieux. Il nous est ainsi très difficile de trouver des autorisations, arrêtés ou autres actes administratifs autorisant ces déploiements, et que nous pourrions contester devant les juridictions (or, faute de tels actes, nos recours sont voués à l’échec)2Du côté des services de secours notamment, on trouve plus facilement des arrêtés d’autorisation permanente de vol de drones.. D’ailleurs, si vous en trouvez, n’hésitez pas à nous le signaler sur le forum de notre campagne Technopolice.
Même si l’on peut considérer que, dans le cas où la police traite des données personnelles, elle se retrouve à devoir respecter la directive dite « police-justice » (l’équivalent du RGPD pour ce qui concerne la recherche d’infractions), cela reste une disposition extrêmement permissive pour les pouvoirs de police.
2.
↑
Du côté des services de secours notamment, on trouve plus facilement des arrêtés d’autorisation permanente de vol de drones.
";s:7:"dateiso";s:15:"20200401_174503";}s:15:"20200328_114300";a:7:{s:5:"title";s:64:"Orange recycle son service de géolocalisation pour la pandémie";s:4:"link";s:103:"https://www.laquadrature.net/2020/03/28/orange-recycle-son-service-de-geolocalisation-pour-la-pandemie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15671";s:7:"pubDate";s:31:"Sat, 28 Mar 2020 10:43:00 +0000";s:11:"description";s:263:"Depuis des années, Orange cherche à commercialiser la mine d’or que sont nos données de géolocalisation (la liste des antennes-relais auxquelles nos téléphones se connectent au fil la journée). La pandémie semble être pour l’entreprise…";s:7:"content";s:21310:"
Depuis des années, Orange cherche à commercialiser la mine d’or que sont nos données de géolocalisation (la liste des antennes-relais auxquelles nos téléphones se connectent au fil la journée). La pandémie semble être pour l’entreprise une bonne occasion d’ouvrir son marché.
Flux Vision
En 2013, Orange a lancé une première offre, Flux Vision, qui propose aux villes et lieux touristiques des statistiques sur les « flux de déplacement » de leurs visiteurs : fréquentation, durée de séjour, provenance, chemins parcourus. Les statistiques fournies ne permettent évidemment pas d’identifier chaque personne, mais elles sont réalisées de façon plus ou moins légale.
Pour mesurer la fréquentation d’un lieu, il suffit de compter le nombre de connexions à une antenne-relais, sans traiter de donnée personnelle. Bien. En revanche, pour évaluer les durées de séjour, la provenance ou les déplacements, Orange doit traiter les données non-anonymes qui révèlent la position de chaque visiteur à différents moments de son séjour. En pratique, il ne s’agit plus seulement de compter le nombre de connexions à une antenne mais, aussi, de s’intéresser à l’identifiant de chaque connexion1Pendant la Féria de Béziers de 2016, Orange a révélé qu’un nombre important de visiteurs venaient de Toulouse, permettant à la ville de mieux cibler sa prochaine campagne publicitaire (voir le témoignage). L’entreprise a aussi suivi la position des personnes autour du lieu de la Féria à différentes heures de la journée, pour révéler par exemple que les personnes qui y vivaient habituellement ont attendu les derniers jours de festivité pour revenir chez elles (voir le graphique illustrant cet article). Ces informations ne peuvent être produites qu’en analysant les données de localisation propres à chaque personne. Peu importe que ces données soient ensuite anonymisées si, avant de l’être, elles sont collectées, examinées ou catégorisées pour une finalité étrangère au service initialement fourni par l’opérateur à ses abonnées..
La directive ePrivacy et la loi française interdisent le traitement de données de localisation non-anonymes sans notre consentement. Dans le cadre de Flux Vision, Orange ne demande jamais ce consentement. Pour des raisons encore obscures2Pour mieux comprendre pourquoi la CNIL tolère Flux Vision, on peut souligner qu’il ne s’agit malheureusement pas d’un cas isolé. À l’article 5 de ses lignes directrices de 2019 sur l’utilisation de traceurs en ligne, la CNIL a, ici aussi, inventé une exception à l’obligation d’obtenir notre consentement. Encore une fois, cette exception concerne l’analyse des visiteurs (sur des sites Web) et autorise à déposer et récupérer des fichiers sur notre ordinateur ou téléphone pour « la production de statistiques anonymes ». Cette exception viole tant l’article 5, §3, de la directive ePrivacy que l’article 82 de la loi informatique et libertés de 1978. Ces deux textes sont parfaitement explicites sur les cas où une personne peut accéder à notre ordinateur pour une chose qu’on ne lui a pas demandée : jamais. En droit, et quoi qu’en dise la CNIL, aucun motif économique ne justifie de porter atteinte à l’inviolabilité de nos équipements informatiques ou de notre domicile. et sans aucune base légale, la CNIL tolère que les opérateurs téléphoniques violent la loi « dans le domaine du tourisme, de l’aménagement du territoire et du trafic routier ». En 2013, Orange avait pu profiter de cette situation mais, coincé entre l’illégalité et la tolérance de la CNIL, l’entreprise n’a plus proposé d’offre nouvelle depuis 7 ans.
Jusqu’à ce que l’occasion se présente enfin. Une crise sanitaire, un gouvernement défaillant, des stratégies à inventer, tout ce qu’il faut pour proposer un nouveau produit.
L’occasion de la crise
Le commissaire européen Thierry Breton, lui aussi, a vu l’occasion d’aider l’industrie qui l’a nourri : il a réuni les huit principaux opérateurs européens (Orange, Deutsche Telekom, Vodafone…) pour annoncer entre grands-techniciens non-médecins leur stratégie pour lutter contre la pandémie en surveillant la population. De quoi mettre en avant leurs offres commerciales.
Et justement, de son côté en France, le PDG d’Orange, Stéphane Richard, enchaîne les interventions média avec une stratégie qui semble assez claire : recycler son offre Flux Vision de 2013 pour la crise actuelle. Si Orange peut déjà informer les villes sur les mouvements de leurs touristes, il le pourra aussi pour leurs malades et leurs confinés. Et si Orange joue les bons élèves en temps de crise, il aura ouvert un nouveau marché durable. Il se sera même rapproché d’autres marchés similaires, encore peu avouables, que ce soit pour tracer les manifestant⋅es, les jeunes des quartiers pauvres, les sans-abris…
Une bien belle occasion pour se diversifier dans le sécuritaire.
Le soutien de la CNIL
Et que fait la CNIL ? Mediapart nous apprend qu’elle pousse le gouvernement vers certaines solutions qui, en pratique, sont principalement celles d’Orange.
Pour se justifier, la CNIL reprend le vocabulaire fallacieux d’Orange, qui se vante de fournir des statistiques « agrégées » afin de donner l’impression qu’il respecte la loi. Or, pour fournir des statistiques de déplacement « anonymes », Orange analyse d’abord des données personnelles, non-anonymes, sans le consentement des personnes. C’est illégal.
La CNIL aurait dû exiger qu’aucune statistique d’Orange ne puisse se fonder sur autre chose que des données purement techniques, sans lien avec les personnes, tel que le nombre de connexions aux antennes-relais. Par exemple, bien qu’on ne sache pas exactement comment Paris a évalué à 17% la baisse de sa population depuis le confinement, la ville aurait simplement pu comparer entre deux dates le nombre de connexions à ses antennes, démontrant qu’il n’est pas nécessaire de violer la loi pour produire des chiffres.
Une surveillance plus poussée
Hélas, la CNIL ne se contente pas de faire la promotion des offres commerciales d’Orange. Elle invite aussi le gouvernement à adopter une nouvelle loi dans l’hypothèse où il faudrait des mesures « plus poussées » – par exemple, cartographier chaque malade ou confiné, sans leur consentement. Pourtant, la directive ePrivacy interdit toute loi de ce type : les données de localisation ne peuvent être collectées sans le consentement des personnes que pour lutter contre les infractions (et seulement les crimes les plus graves, d’après les juges de l’UE) et non pour lutter contre la propagation d’un virus3Au regard de l’article 15 de la directive ePrivacy, les États peuvent demander aux opérateurs de traiter des données de localisation sans le consentement des personnes si cela est justifié par la « sécurité nationale » ou la « sécurité publique ». La « sécurité nationale » est définie à l’article 4, §2, du Traité sur l’UE comme couvrant les domaines pour lesquelles l’Union n’est pas compétente pour agir. Or, l’article 168 du Traité sur le fonctionnement de l’UE prévoit que celle-ci est compétente pour lutter contre les maladies. Ce domaine échappe donc à la « sécurité nationale ». S’il en allait autrement, Thierry Breton et la Commission ne pourraient pas intervenir pour lutter contre le coronavirus sur le territoire des États membres, comme c’est le cas actuellement. La « sécurité publique », elle, est décrite à l’article 1 de la directive 2016/680 comme étant un domaine « compris » dans la lutte contre les infractions. La Cour de justice de l’Union européenne est encore plus rigoureuse, précisant que la « sécurité publique » ne justifie la surveillance que des personnes mêlées à « une infraction grave » (arrêt Tele2 du 21 décembre 2016, point 106). Lutter contre le virus ne consiste pas à lutter contre des « infractions graves » et est donc exclu de la notion de « sécurité publique ».. Contrairement à ce qu’on peut lire dans la presse, le RGPD n’est pas à même d’autoriser le traitement de données de localisation. Seule la directive ePrivacy le pourrait. Elle l’interdit en l’espèce.
On aimerait croire que, si la CNIL invite le gouvernement à violer le droit européen, ce n’est pas simplement pour la grandeur industrielle du pays, mais aussi pour protéger notre santé. Sauf que ni la CNIL, ni Orange, ni personne n’a été capable de démontrer la nécessité médicale de surveiller sans leur accord les personnes confinées ou malades – surtout quand celles-ci sont indétectables en l’absence de test. Alors que Singapour propose une application basée sur un protocole ouvert permettant aux personnes de révéler volontairement leurs déplacements, pourquoi la CNIL défend-t-elle la proposition d’Orange, contraire au droit, beaucoup moins respectueuse de nos libertés et qui, elle, n’a fait aucune preuve de son intérêt contre le virus ?
Pour l’instant, le gouvernement semble insensible aux appels d’Orange, occupé par des choses plus importantes. Bien. Contrairement à la CNIL, nous n’hésiterons pas à l’attaquer s’il cédait aux ambitions hasardeuses des profiteurs de crise.
Pendant la Féria de Béziers de 2016, Orange a révélé qu’un nombre important de visiteurs venaient de Toulouse, permettant à la ville de mieux cibler sa prochaine campagne publicitaire (voir le témoignage). L’entreprise a aussi suivi la position des personnes autour du lieu de la Féria à différentes heures de la journée, pour révéler par exemple que les personnes qui y vivaient habituellement ont attendu les derniers jours de festivité pour revenir chez elles (voir le graphique illustrant cet article). Ces informations ne peuvent être produites qu’en analysant les données de localisation propres à chaque personne. Peu importe que ces données soient ensuite anonymisées si, avant de l’être, elles sont collectées, examinées ou catégorisées pour une finalité étrangère au service initialement fourni par l’opérateur à ses abonnées.
2.
↑
Pour mieux comprendre pourquoi la CNIL tolère Flux Vision, on peut souligner qu’il ne s’agit malheureusement pas d’un cas isolé. À l’article 5 de ses lignes directrices de 2019 sur l’utilisation de traceurs en ligne, la CNIL a, ici aussi, inventé une exception à l’obligation d’obtenir notre consentement. Encore une fois, cette exception concerne l’analyse des visiteurs (sur des sites Web) et autorise à déposer et récupérer des fichiers sur notre ordinateur ou téléphone pour « la production de statistiques anonymes ». Cette exception viole tant l’article 5, §3, de la directive ePrivacy que l’article 82 de la loi informatique et libertés de 1978. Ces deux textes sont parfaitement explicites sur les cas où une personne peut accéder à notre ordinateur pour une chose qu’on ne lui a pas demandée : jamais. En droit, et quoi qu’en dise la CNIL, aucun motif économique ne justifie de porter atteinte à l’inviolabilité de nos équipements informatiques ou de notre domicile.
3.
↑
Au regard de l’article 15 de la directive ePrivacy, les États peuvent demander aux opérateurs de traiter des données de localisation sans le consentement des personnes si cela est justifié par la « sécurité nationale » ou la « sécurité publique ». La « sécurité nationale » est définie à l’article 4, §2, du Traité sur l’UE comme couvrant les domaines pour lesquelles l’Union n’est pas compétente pour agir. Or, l’article 168 du Traité sur le fonctionnement de l’UE prévoit que celle-ci est compétente pour lutter contre les maladies. Ce domaine échappe donc à la « sécurité nationale ». S’il en allait autrement, Thierry Breton et la Commission ne pourraient pas intervenir pour lutter contre le coronavirus sur le territoire des États membres, comme c’est le cas actuellement. La « sécurité publique », elle, est décrite à l’article 1 de la directive 2016/680 comme étant un domaine « compris » dans la lutte contre les infractions. La Cour de justice de l’Union européenne est encore plus rigoureuse, précisant que la « sécurité publique » ne justifie la surveillance que des personnes mêlées à « une infraction grave » (arrêt Tele2 du 21 décembre 2016, point 106). Lutter contre le virus ne consiste pas à lutter contre des « infractions graves » et est donc exclu de la notion de « sécurité publique ».
";s:7:"dateiso";s:15:"20200328_114300";}s:15:"20200326_181347";a:7:{s:5:"title";s:90:"Surveillance publicitaire : la CNIL se défile de nouveau sur le consentement aux cookies";s:4:"link";s:127:"https://www.laquadrature.net/2020/03/26/surveillance-publicitaire-la-cnil-se-defile-de-nouveau-sur-le-consentement-aux-cookies/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15657";s:7:"pubDate";s:31:"Thu, 26 Mar 2020 17:13:47 +0000";s:11:"description";s:241:"La période est à la priorité d’un capitalisme toxique face au respect des libertés. Les entreprises du numérique comptent bien exploiter nos difficultés face à la crise sanitaire pour leurs profits. Si la population reste…";s:7:"content";s:5733:"
La période est à la priorité d’un capitalisme toxique face au respect des libertés. Les entreprises du numérique comptent bien exploiter nos difficultés face à la crise sanitaire pour leurs profits. Si la population reste connectée plus longtemps, il faut lui afficher plus de pub ciblée. La CNIL vient ainsi de repousser encore une fois son rôle d’autorité chargée de faire respecter le RGPD.
Pour rappel, en juillet 2019, la CNIL publiait des lignes directrices où elle rappelait que le RGPD exige que le dépôt de cookie et autres traceurs se fasse avec notre « consentement explicite ». C’est-à-dire que notre consentement ne peut plus être « déduit » du simple fait que nous sommes informé·es par un vulgaire « bandeau cookie ». Tant que nous ne cliquons pas explicitement sur un bouton « J’accepte » (en ayant la même possibilité de refuser), il est strictement interdit de nous pister et de réaliser des profits sur nos données personnelles.
Cette règle était déjà connue et en vigueur depuis l’entrée en application du RGPD, en mai 2018 – date à laquelle ces pratiques délinquantes de l’industrie publicitaire auraient dû cesser et être sanctionnées. Néanmoins, en juillet dernier, la CNIL avait explicitement annoncé qu’elle ne sanctionnerait le non-respect de ces règles qu’à partir de 6 mois après la publication d’une recommandation destinée à décrire les « modalités pratiques possibles de recueil d’un consentement conforme aux règles applicables » (voir notre communiqué de réaction). Un nouveau délai d’un an « bonus » pour la surveillance publicitaire illégale. Nous avions évidemment attaqué cette décision devant le Conseil d’État, qui avait rejeté notre demande (voir notre article).
Or, hier matin, l’industrie publicitaire publiait dans la presse une tribune larmoyante avec une injonction : « Les annonceurs ont mis en suspens leurs investissements. Dans ce contexte, il faut que certaines règles, qui doivent être mises en place par la CNIL sur la protection de la vie privée, dans le prolongement du RGPD, fassent l’objet d’un moratoire ». Quelques heures à peine plus tard, la CNIL s’exécute et décide de reporter de nouveau l’application du RGPD en matière de surveillance publicitaire. Elle nous informe ainsi par courrier que : « Afin d’aborder dans un contexte plus serein ce sujet majeur pour la protection des données personnelles comme pour l’économie de l’écosystème publicitaire, la présentation du projet de recommandation est reportée à une date ultérieure, qui sera fixée en fonction de l’évolution de la situation. »
L’industrie publicitaire pourra donc continuer pendant le confinement et les possibles reprises à traquer les individus en ligne pour les manipuler le mieux possible dans des actes de consommation en violant les libertés.
Si l’on peut tout à fait comprendre que la période soit difficile en termes de travail des agent·es (en remerciant les agent·es consciencieus·es qui souhaitent autant que nous l’arrêt de ces pratiques délictueuses), rien n’empêchait la CNIL d’indiquer que ces règles sur le consentement sont en vigueur depuis 2018, ou même de raccourcir d’autant le délai prévu pour l’application de la recommandation.
La toxicité de la surveillance publicitaire en ligne n’est plus à démontrer tant ses conséquences sociales, écologiques et politiques sont criantes, au point que la question de son interdiction se pose même sérieusement outre atlantique. Il est en effet temps de changer ce système de dépendance à la violation des libertés à des fins publicitaires en économisant aux réseaux ce surcoût indu. C’est aussi le bon moment pour les personnes et les entreprises qui dépendent de ces revenus qui prouvent encore une fois leurs instabilités pour les abandonner et réfléchir aux adaptations requises.
En cette période de confinement et d’augmentation de nos usages d’Internet, La Quadrature du Net et Résistance à l’Agression Publicitaire appelons encore une fois toutes et tous à Bloquer la pub sur le Net en suivant les indications sur bloquelapub.net et en faisant découvrir ces outils à vos proches face à cette industrie délinquante et à ce nouveau recul de l’autorité de contrôle dans l’application de sa mission.
";s:7:"dateiso";s:15:"20200326_181347";}s:15:"20200319_135300";a:7:{s:5:"title";s:57:"Contre le COVID-19, la géolocalisation déjà autorisée";s:4:"link";s:93:"https://www.laquadrature.net/2020/03/19/contre-le-covid-19-la-geolocalisation-deja-autorisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15638";s:7:"pubDate";s:31:"Thu, 19 Mar 2020 12:53:00 +0000";s:11:"description";s:250:"Face au COVID-19, de nombreux États annoncent leur intention de recueillir massivement des données de géolocalisation auprès des opérateurs de communication. En Chine, aux États-Unis, en Italie, en Israël, en Corée du Sud, en Belgique.…";s:7:"content";s:11575:"
Face au COVID-19, de nombreux États annoncent leur intention de recueillir massivement des données de géolocalisation auprès des opérateurs de communication. En Chine, aux États-Unis, en Italie, en Israël, en Corée du Sud, en Belgique. En dépit d’un amendement scélérat proposé par l’opposition, une telle ambition est pour l’heure absente du projet de loi français dédié à l’épidémie, actuellement débattu au Parlement. Et pour cause : depuis 2015, la loi renseignement semble déjà autoriser de telles mesures. L’an dernier, nous avons attaqué cette loi devant le juge de l’Union Européenne, dont nous attendons bientôt la décision. Prenons ici un moment pour en rappeler les dangers.
La loi renseignement adoptée en 2015 permet à l’État de surveiller la population pour une très large variété de finalités, notamment « pour le recueil des renseignements relatifs à la défense [des] intérêts économiques, industriels et scientifiques majeurs de la France ». Si, comme Emmanuel Macron, on admet facilement que « cette crise sanitaire sans précédent aura des conséquences […] économiques majeures », il faut conclure que la loi renseignement autorise déjà l’État à surveiller la population afin de lutter contre l’épidémie. Rien de surprenant au regard de la démesure des pouvoirs que lui a conférés le Parlement en 2015.
Parmi les mesures autorisées par la loi renseignement, l’article L851-1 du code de la sécurité intérieure prévoit que les services de renseignement peuvent exiger la transmission par les opérateurs téléphoniques des « données techniques relatives […] à la localisation des équipements terminaux utilisés » par leurs clients. En application de l’article L851-4, ces données peuvent même être « recueillies sur sollicitation du réseau et transmises en temps réel par les opérateurs ». Pour exiger ces transferts, l’administration agit seule, sans le contrôle ou l’autorisation préalable d’un juge.
L’État n’informe jamais la population quant à la façon dont il utilise concrètement la loi renseignement, celle-ci organisant une totale opacité. Nous n’avons à ce stade aucune information permettant de corroborer l’utilisation de ces pouvoirs de surveillance dans le cadre de la lutte contre l’épidémie du virus COVID-19. Mais, en droit, rien n’interdit à l’État d’user de ces pouvoirs, par exemple, pour identifier les personnes se déplaçant de villes en villes ou ayant visité certains lieux sensibles, voire pour s’assurer que les injonctions de confinement soient suffisamment respectées1L’article L821-2 du code de la sécurité intérieure prévoit que le Premier ministre autorise la mise en œuvre des techniques de renseignement à l’encontre de une ou plusieurs personnes qui, lorsque leur nom n’est pas déjà connu, sont « désignées par leurs identifiants ou leur qualité ». Aucun contingent ne limite le nombre de personnes pouvant être géolocalisées en même temps. Le notion de « qualité » des personnes surveillées est si large et indéfinie qu’il faut redouter quelle soit utilisée pour viser des caractéristiques générales telles « a fréquenté tel lieu » ou « a voyagé entre telle ville et telle ville à telle date ». S’agissant des personnes dont le nom est déjà connu des pouvoirs publics, telles que les malades dépistés, l’autorisation du Premier ministre pourrait les viser plus directement, par exemple pour surveiller leurs déplacements..
Si, aujourd’hui, l’administration utilisait la loi de 2015 en ce sens, serait-ce conforme au règlement général sur la protection des données (RGPD) ? En théorie, les données sensibles, telles que les données de santé que révélerait une telle surveillance (par exemple le fait que, en raison de ses déplacements, une personne présente un haut risque d’avoir contracté le virus), peuvent bien être traitées « pour des motifs d’intérêt public dans le domaine de la santé publique ».
À condition toutefois de respecter le reste du RGPD, ce qui n’est pas du tout le cas de la loi renseignement : une fois ces données collectées, cette loi laisse l’administration les ré-utiliser ensuite pour des finalités étrangères à la lutte contre l’épidémie (fichage politique, lutte contre la fraude, etc.). Si l’article L822-2 du code de la sécurité intérieure impose une suppression des données brutes de localisation au bout de 4 ans, il n’en est rien pour les « fiches » constituées sur la base de ces données : ni la durée de conservation, ni l’utilisation ultérieure de ces fiches n’est limitée. Cette violation du droit européen est une de nos principales critiques contre le texte dans notre affaire devant la Cour de justice de l’Union européenne – dont la décision devrait être rendue dans les mois à venir.
Dans cette situation de crise, en dépit des pressions politiques, le gouvernement doit résister à toute fuite-en-avant sécuritaire. Face au risque d’abus engendré par les pouvoirs démesurés que confère d’ores-et-déjà la loi renseignement à l’État, il doit également s’engager à faire immédiatement la transparence sur toutes les mesures de surveillance de la population mises en œuvre pour lutter contre la propagation du COVID-19. En attendant que les pouvoirs exorbitants que lui octroie la loi renseignement soient battus en brèche.
L’article L821-2 du code de la sécurité intérieure prévoit que le Premier ministre autorise la mise en œuvre des techniques de renseignement à l’encontre de une ou plusieurs personnes qui, lorsque leur nom n’est pas déjà connu, sont « désignées par leurs identifiants ou leur qualité ». Aucun contingent ne limite le nombre de personnes pouvant être géolocalisées en même temps. Le notion de « qualité » des personnes surveillées est si large et indéfinie qu’il faut redouter quelle soit utilisée pour viser des caractéristiques générales telles « a fréquenté tel lieu » ou « a voyagé entre telle ville et telle ville à telle date ». S’agissant des personnes dont le nom est déjà connu des pouvoirs publics, telles que les malades dépistés, l’autorisation du Premier ministre pourrait les viser plus directement, par exemple pour surveiller leurs déplacements.
";s:7:"dateiso";s:15:"20200319_135300";}s:15:"20200312_125416";a:7:{s:5:"title";s:78:"Vidéosurveillance automatisée : le tribunal de Marseille refuse l’urgence";s:4:"link";s:111:"https://www.laquadrature.net/2020/03/12/videosurveillance-automatisee-le-tribunal-de-marseille-refuse-lurgence/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15630";s:7:"pubDate";s:31:"Thu, 12 Mar 2020 11:54:16 +0000";s:11:"description";s:252:"Le tribunal administratif de Marseille vient de rejeter notre action en référé contre la ville de Marseille. Nous lui demandions d’annuler en urgence le déploiement de logiciels d’analyse automatisée sur les caméras de la ville…";s:7:"content";s:3488:"
Le tribunal administratif de Marseille vient de rejeter notre action en référé contre la ville de Marseille. Nous lui demandions d’annuler en urgence le déploiement de logiciels d’analyse automatisée sur les caméras de la ville (voir notre requête et l’ordonnance du juge).
Le tribunal nous rejette au motif que nous aurions dû attaquer le marché public conclu dès 2018 par la ville pour déployer ces dispositifs. Nous serions aujourd’hui hors délai pour les contester, quand bien même nous n’avons pu en prendre effectivement connaissance que très récemment et que leurs caractéristiques ont évolué et continueront d’évoluer.
Il faut bien comprendre que notre recours est rejeté pour une raison purement procédurale. Ce n’est en aucun cas le fond du dispositif qui est validé. La juge des référés n’a pas tranché sur la question de l’atteinte aux libertés que nous dénonçons.
Toutefois, en nous disant hors délai, le tribunal conforte les villes sécuritaires dans leur stratégie anti-démocratique : déployer leurs projets dans l’opacité la plus totale afin de freiner toute contestation, politique comme juridique. La stratégie de la mairie consiste depuis le début à œuvrer dans le silence : c’est au détour d’articles de presse que nous avons appris que cette surveillance serait mise en place d’ici fin 2019. Il aura fallu attendre le dernier moment pour qu’une lettre de la mairie du 31 décembre 2019 nous confirme qu’était mis en œuvre « un environnement test de 50 caméras ».
Mais qu’importe, la lutte est loin d’être terminée. Elle ne fait que commencer et ce recours n’en est que la première étape.
Par cette action en référé, nous espérions pouvoir utiliser une voie rapide et directe pour attaquer de tels systèmes qui se déploient déjà partout en France. Le tribunal a mis un coup d’arrêt à la contestation du dispositif marseillais. Mais, s’il nous faut prendre une autre voie contentieuse pour y parvenir, nous la prendrons, et reviendrons attaquer ce dispositif en surmontant l’obstacle posé aujourd’hui. Au-delà de Marseille, il faudra attaquer bien d’autres systèmes de vidéosurveillance automatisée, que nous avons déjà pu identifier à Valenciennes, à Nice, à Toulouse, à La Défense ou dans les Yvelines.
L’obstacle rencontré aujourd’hui démontre combien il est urgent de déchirer l’opacité imposée par nos adversaires. Inscrivez-vous sur Technopolice.fr pour nous aider à documenter puis déconstruire leur monde sécuritaire. Si vous disposez de documents, nous avons une plateforme pour vous permettre de nous les transmettre en toute discrétion. Enfin, nous avons toujours besoin de vos dons qui nous permettent d’engager de telles actions contentieuses.
";s:7:"dateiso";s:15:"20200312_125416";}s:15:"20200306_155054";a:7:{s:5:"title";s:71:"Loi audiovisuelle : Aurore Bergé s’attaque à la neutralité du Net";s:4:"link";s:103:"https://www.laquadrature.net/2020/03/06/loi-audiovisuelle-aurore-berge-sattaque-a-la-neutralite-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15624";s:7:"pubDate";s:31:"Fri, 06 Mar 2020 14:50:54 +0000";s:11:"description";s:247:"La commission culture de l’Assemblée nationale vient de voter en première lecture le projet de loi audiovisuelle. Cette loi est particulièrement large et dense : nous reviendrons petit à petit sur chaque point plus tard (nous…";s:7:"content";s:6773:"
La commission culture de l’Assemblée nationale vient de voter en première lecture le projet de loi audiovisuelle. Cette loi est particulièrement large et dense : nous reviendrons petit à petit sur chaque point plus tard (nous avons déjà annoncé notre intention de détruire la HADOPI dans ce contexte).
Le vote d’hier a ajouté une nouvelle menace, considérable. Aurore Bergé, rapporteure du texte, a fait adopter une série d’amendements pour lutter contre la diffusion illicite d’événements sportifs. Les entreprises qui possèdent les droits de diffusion (Bein Sport, Canal+, et autres ayants-droit) pourront obtenir du juge de nouvelles mesures.
Depuis 2004, le juge des référés peut exiger des fournisseurs d’accès à Internet (FAI) qu’ils bloquent l’accès à un site Internet diffusant illégalement des contenus1Article 6, §8, de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.. L’article 23 de la loi audiovisuelle reprend ce principe en visant spécifiquement les sites « dont l’objectif principal ou l’un des objectifs principaux est la diffusion sans autorisation de compétitions ou manifestations sportives ». La nouveauté introduite par Aurore Bergé est que le juge pourra désormais exiger que les FAI bloquent tout nouveau site apparaissant au cours d’une période pouvant s’étendre jusqu’à 12 mois, et ce alors même que ce site « n’a pas été identifié à la date » où le juge aura pris sa décision.
Problème : les FAI ne pourront pas savoir quels sites bloquer puisque ceux-ci n’auront « pas été identifié[s] » dans la décision judiciaire. Un autre amendement parachève l’arbitraire et précise que les ayants-droit leur communiqueront « les données d’identification nécessaires ». Un autre problème surgit alors : les ayants-droit n’ont aucune autorité pour qualifier juridiquement des faits et il reviendra donc à chaque FAI d’évaluer seul (sans juge) la licéité des sites signalés. Surtout, les ayants-droit ne pourront pas leur signaler l’intégralité des sites (virtuellement infinis) que le juge a pourtant ordonné de bloquer. Pour respecter l’injonction, le FAI n’aura d’autre choix que de les détecter lui-même, typiquement en analysant les données transmises sur son réseau afin d’y déceler la rediffusion de tel match de foot ou de tel tournoi de pétanque.
Qu’il s’agisse d’évaluer les signalements ou de détecter les sites illicites, un tel système marque une rupture frontale avec la neutralité du Net. Les FAI sont extirpés de leur rôle passif pour endosser, de force, une mission de surveillance et de modification active des informations qu’ils acheminent, hors de tout encadrement judiciaire.
Ce nouveau système viole confortablement les lois européennes, ne serait-ce que l’article 15 de la directive eCommerce qui interdit d’imposer aux FAI « une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Le délire autoritaire d’Aurore Bergé est tel que même Franck Riester, ministre de la culture et auteur de ce projet de loi, s’en est ému en commission : « est-ce qu’on ne va pas trop loin ? […] il faut des garanties sur les libertés, il faut être proportionné ». Piétiner un principe aussi fondamental que la neutralité du Net, oui, c’est aller trop loin.
Le projet de loi sera débattu en séance publique à l’Assemblée nationale à partir du 31 mars. Nous continuerons d’ici-là notre analyse des autres points de ce texte.
Article 6, §8, de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.
";s:7:"dateiso";s:15:"20200306_155054";}s:15:"20200227_150301";a:7:{s:5:"title";s:65:"Première victoire en justice contre la reconnaissance faciale !";s:4:"link";s:119:"https://www.laquadrature.net/2020/02/27/premiere-victoire-en-france-devant-la-justice-contre-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15604";s:7:"pubDate";s:31:"Thu, 27 Feb 2020 14:03:01 +0000";s:11:"description";s:227:"Le 3 février dernier, La Quadrature du Net, La Ligue des Droits de l’Homme, la FCPE et la CGT Educ’Action des Alpes Maritimes étaient en audience devant le tribunal administratif (TA) de Marseille contre la…";s:7:"content";s:3007:"
Le 3 février dernier, La Quadrature du Net, La Ligue des Droits de l’Homme, la FCPE et la CGT Educ’Action des Alpes Maritimes étaient en audience devant le tribunal administratif (TA) de Marseille contre la mise en place d’un système de reconnaissance faciale à l’entrée de deux lycée de la région PACA.
Le TA a rendu sa décision hier, en statuant sur l’incompétence de la région PACA en matière d’encadrement et de surveillance des élèves annulant, de fait, la délibération lançant l’expérimentation du dispositif.
Ensuite, le tribunal reconnaît que cette délibération ne respecte pas le RGPD car les élèves n’ont pas pu donner de « consentement à la collecte de données personnelles de manière libre et éclairée », du fait de la relation d’autorité qui lie les élèves à l’administration de l’établissement.
Enfin, le tribunal, comme l’avait déjà souligné la CNIL à l’automne, a jugé que la reconnaissance faciale est une mesure disproportionnée pour gérer les entrées et sorties d’un lycée, d’autant que des mesures alternatives bien moins attentatoires aux droits existent pour ce faire. À ce sujet, le rapporteur public avait déclaré lors de l’audience que « la région utilise un marteau piqueur pour frapper une fourmi ».
En France, il s’agit de la première décision juridictionnelle sur la reconnaissance faciale, et de la première victoire contre elle ! Nous espérons qu’elle sera suivie d’autres décisions similaires menant à l’interdiction totale de la reconnaissance faciale. Pour rappel, nous publiions en décembre dernier une lettre commune avec 124 organisation appelant à interdire tous ses usages sécuritaires, notamment à l’adresse des équipes candidates aux élections municipales.
Lundi 2 mars 2020, toujours au tribunal administratif de Marseille, aura lieu l’audience de notre autre recours déposé avec la LDH contre la vidéosurveillance automatisée (qui repère entre autres les « comportements suspects » des individus sur la voie publique).
Défendre les libertés, ça n’a pas de prix, mais ça a un coût. Merci de faire un don si vous le pouvez.
";s:7:"dateiso";s:15:"20200227_150301";}s:15:"20200225_152916";a:7:{s:5:"title";s:69:"Gendnotes, faciliter le fichage policier et la reconnaissance faciale";s:4:"link";s:109:"https://www.laquadrature.net/2020/02/25/gendnotes-faciliter-le-fichage-policier-et-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15588";s:7:"pubDate";s:31:"Tue, 25 Feb 2020 14:29:16 +0000";s:11:"description";s:288:"Le gouvernement vient d’autoriser la gendarmerie à déployer une application mobile qui facilite la collecte de photos et d’informations sensibles (religion, politique, sexualité, prétendue origine raciale) et leur transfert dans des fichiers extérieurs – tel…";s:7:"content";s:10062:"
Le gouvernement vient d’autoriser la gendarmerie à déployer une application mobile qui facilite la collecte de photos et d’informations sensibles (religion, politique, sexualité, prétendue origine raciale) et leur transfert dans des fichiers extérieurs – tel que le TAJ, qui permet la reconnaissance faciale, ou les fiches des services de renseignement, qui ont une activité de surveillance politique.
Samedi, a été publié un décret qui autorise les gendarmes à utiliser sur leur tablette l’application Gendnotes.
Cette application existe et est utilisée depuis plusieurs années sans cadre juridique : elle remplace la prise de note sur papier (qui devait être copiée sur ordinateur une fois rentré à la gendarmerie) par une prise de note directement informatique réalisée depuis le terrain.
Le décret précise désormais que, avec Gendnotes, les gendarmes peuvent prendre en photo n’importe quelle personne qu’ils suspectent d’avoir commis une infraction. Ils peuvent aussi enregistrer des informations sur leur religion, politique, sexualité ou prétendue origine raciale, à la simple condition que de telles informations soient « absolument nécessaires » aux fichiers de police judiciaire (pour lutter contre les crimes, délits, et certaines contraventions, telles que le « trouble à la sécurité » ou « l’atteinte à l’autorité de l’État ») ou de police administrative (les fiches des services de renseignement, doit-on redouter). Cette absolue nécessité n’est, en pratique, jamais vérifiée. La CNIL précise aussi « que l’enregistrement du code PIN ou du code PUK pourra être réalisé dans le cadre d’enquêtes afin de déverrouiller l’appareil », sans qu’il n’apparaisse clairement si cet enregistrement est toujours prévu ou non dans le décret.
Comme l’explique la CNIL, ces photos et informations sont au moins transmises au LRPGN (le logiciel de rédaction des PV de la gendarmerie)1La CNIL explique dans son avis du 3 octobre 2019 que Gendnotes « vise à dématérialiser la prise de notes […] en vue notamment d’alimenter de manière automatisée l’application métier « Logiciel de Rédaction des Procédures de la Gendarmerie Nationale » dénommée LRPGN »., qui les transmet à son tour au TAJ (traitement des antécédents judiciaires) si les gendarmes décident d’ouvrir une procédure2La CNIL explique dans son avis du 11 octobre 2012 que « les logiciels de rédaction des procédures de la police (LRPPN) et de la gendarmerie (LRPGN) alimentent, en début de procédure, le traitement d’antécédents TAJ ».. Dans ce cas, les informations seront conservées dans le TAJ pendant 20 ans, accessibles par toute la police et la gendarmerie et les photos pourront être utilisées ultérieurement par un système de reconnaissance faciale pour identifier des personnes (si l’application Gendnotes n’intègre pas de logiciel de reconnaissance faciale, elle facilite le transfert des photos vers le TAJ qui, lui, l’organise).
Par exemple, lors d’une manifestation ou d’un contrôle routier, les gendarmes pourront, lors d’une fouille, d’un contrôle d’identité ou autre interaction avec une personne qu’ils jugent suspecte, inscrire une identité et/ou une photo, avec si besoin plus d’informations, au sein de cette application. Si les gendarmes décident ensuite d’ouvrir une procédure, ces informations seront inscrites au TAJ.
Le décret semble au moins illégal en ce qu’il échoue à définir sa finalité ou en quoi il serait absolument nécessaire au travail des gendarmes. Il indique que le but de Gendnotes est de faciliter la transmission des données enregistrées vers « d’autres traitements de données », sans définir ni limiter ces autres traitements (ce que la CNIL lui avait pourtant demandé de faire). On peut redouter que Gendnotes vienne nourrir une infinité de fichiers, des services de renseignements par exemple, et soit dévoyé à des fins de surveillance politique.
Les conséquences d’un tel dévoiement sont considérablement aggravées par l’automatisation des ces enregistrement et échanges d’informations. Jusqu’alors, le risque de surveillance politique était mécaniquement limité par la dépendance au papier. Cette limite matérielle disparaît aujourd’hui. Les fichiers se multiplient et on automatise les facilités d’échanges entre ces différents fichiers en démultipliant à chaque fois les possibilités d’abus. Encore une fois ce ne sont pas les décrets qui encadrent les pratiques policières, mais les pratiques de la police qui font loi.
La CNIL explique dans son avis du 3 octobre 2019 que Gendnotes « vise à dématérialiser la prise de notes […] en vue notamment d’alimenter de manière automatisée l’application métier « Logiciel de Rédaction des Procédures de la Gendarmerie Nationale » dénommée LRPGN ».
2.
↑
La CNIL explique dans son avis du 11 octobre 2012 que « les logiciels de rédaction des procédures de la police (LRPPN) et de la gendarmerie (LRPGN) alimentent, en début de procédure, le traitement d’antécédents TAJ ».
";s:7:"dateiso";s:15:"20200225_152916";}s:15:"20200224_113749";a:7:{s:5:"title";s:18:"Tremble, HADOPI !";s:4:"link";s:55:"https://www.laquadrature.net/2020/02/24/tremble-hadopi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15583";s:7:"pubDate";s:31:"Mon, 24 Feb 2020 10:37:49 +0000";s:11:"description";s:235:"Le 12 février dernier, le Conseil d’État a accepté notre demande de transmettre au Conseil constitutionnel une question sur la constitutionnalité des pouvoirs de la HADOPI. Cette question porte sur le pouvoir donné à ses…";s:7:"content";s:16928:"
Le 12 février dernier, le Conseil d’État a accepté notre demande de transmettre au Conseil constitutionnel une question sur la constitutionnalité des pouvoirs de la HADOPI. Cette question porte sur le pouvoir donné à ses agents pour accéder aux données permettant d’identifier les internautes à partir de leur adresse IP. Ce même pouvoir qu’à plusieurs reprises, la Cour de justice de l’Union européenne et le Conseil constitutionnel ont déjà jugé contraire aux droits fondamentaux dans d’autres cas semblables. Il ne reste plus au Conseil Constitutionnel qu’à prendre la même décision pour la HADOPI – et ainsi l’enterrer pour de bon !.
Une décision positive du Conseil constitutionnel constituerait une victoire historique. Elle serait un nouveau clou dans le cercueil de la HADOPI, institution que nous combattons depuis sa création il y a plus de dix ans et dont le fonctionnement repose sur la surveillance de masse de la population. Elle serait aussi l’aboutissement d’une longue bataille menée devant les juridictions françaises et européennes et qui pèsera, quoiqu’il arrive, dans le projet de loi audiovisuelle débattu en ce moment à l’Assemblée nationale, lequel vise à fusionner l’HADOPI et le CSA au sein d’une nouvelle instance, l’ARCOM.
Retour au 28 octobre 2009 : la loi « Hadopi 2 » vient d’être promulguée. Elle fait suite à la loi « favorisant la diffusion et la protection de la création sur Internet », adoptée quelques mois plus tôt (dite loi « Hadopi 1 »). Ensemble, ces deux lois créent la HADOPI (pour « Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet ») et, avec elle, le système de « riposte graduée ».
Avec ce système, l’objectif affiché par le gouvernement est le suivant : « assurer le respect du droit d’auteur sur Internet, d’abord par l’envoi d’avertissements et, en cas d’échec, par la transmission à l’autorité judiciaire du dossier révélant des faits de nature à caractériser une infraction ». Ou plutôt, comme nous le disions déjà à l’époque : permettre, sur la base de dénonciations d’acteurs privés, « la tenue de campagnes de traque, d’avertissements et de répression de masse ciblant les internautes partageant sur internet de la musique et des films sans autorisation ». Le tout fait suite à plusieurs mois de débats intenses au Parlement et devant le Conseil constitutionnel. Débats sur l’absurdité et les dangers de cette autorité pour nos libertés. Débats qui continueront après la création de la HADOPI et tout au long de ses années de fonctionnement (voir ici pour l’historique du dossier et la liste des articles publiés par LQDN sur le sujet).
Pour comprendre l’importance de notre recours et de la décision à venir du Conseil constitutionnel, il faut revenir sur le fonctionnement de cette « riposte graduée ».
Riposte graduée, comment ça marche ?
Comment fait la HADOPI pour retrouver une personne ayant partagé une œuvre ? La première étape consiste à collecter l’adresse IP des personnes qui partagent sur un réseau Peer-to-Peer une œuvre soumise à droit d’auteur (la HADOPI ne s’intéresse en effet qu’au partage d’œuvres par réseau Peer-to-Peer). Cette collecte n’est pas faite directement par la HADOPI mais par une entreprise privée, mandatée par les ayants droit (en 2014, il s’agissait de la société TMG, pour « Trend Media Guard »).
À partir de cette collecte, la HADOPI contacte les fournisseurs d’accès à Internet (Orange, SFR, Bouygues, Free) pour leur demander l’identité des personnes derrière chaque adresse IP. C’est seulement sur la base de ces informations (nom, adresse, contact) que la HADOPI peut ensuite envoyer à la personne concernée un premier courriel d’avertissement qui pourra être suivi, si besoin, d’un deuxième courrier, puis d’une lettre de notification et même transmis en fin de course au procureur de la République (voir le schéma et les explications détaillées sur le site de l’autorité). L’étape qui nous intéresse pour notre action contentieuse est celle qui autorise la HADOPI à obtenir, auprès des opérateurs, le nom des personnes à partir des adresses IP. Ce pouvoir lui est donné par l’article L331-21 du code de la propriété intellectuelle.
C’est la constitutionnalité de cet article, qui donne aux « agents publics assermentés » de la HADOPI un accès aux données de connexion conservées par les fournisseurs d’accès à Internet, qui sera discuté, à notre demande, devant le Conseil constitutionnel. Comme on le voit, cette disposition est au centre de la « riposte graduée » de la HADOPI : sans elle, aucun moyen pour l’autorité de remonter à l’identité de la personne ayant partagé une œuvre. Et donc aucun moyen de la contacter et d’envoyer les mails d’avertissement.
Pour comprendre pourquoi cet article du code de la propriété intellectuelle risque une censure, il faut de nouveau revenir en arrière.
La question de l’accès aux données de connexion
L’article L. 331-21 du code de la propriété intellectuelle fait directement référence aux articles du CPCE ( pour « code des postes et communications électroniques ») et la LCEN (pour « loi pour la confiance dans l’économie numérique ») qui organisent le régime français de conservation des données de connexion. En résumé, ce régime impose aux fournisseurs d’accès à Internet et aux hébergeurs Web de conserver pendant un an les données de connexion de l’ensemble de la population. Ce sont ces données qui permettent à la HADOPI d’identifier les personnes à partir de leur adresse IP.
Or, la Cour de Justice de l’Union européenne s’est, par deux arrêts de 2014 et 2016 (les arrêts dits « Digital Rights Ireland » et « Télé 2 Sverige AB »), opposée à un tel régime de conservation généralisée et indifférenciée des données de connexion. Elle a aussi considéré que l’accès par les autorités nationales à ces données de connexion devrait être limité « aux seules fins de lutte contre la criminalité grave », et « subordonné à un contrôle préalable effectué soit par une juridiction soit par une entité administrative indépendante ».
Bien entendu, le régime français de conservation des données, et les accès à ces données par certains agents de l’administration (dont la HADOPI) ne respectent nullement ces obligations (c’est d’ailleurs l’objet d’un autre de nos contentieux porté en ce moment devant la Cour de Justice de l’Union européenne qui tend à faire annuler les lois françaises relatives à de telles obligations de conservation).
En parallèle de ces arrêts de la Cour de Justice de l’Union européenne, le Conseil constitutionnel a commencé lui aussi, et dès 2015, à censurer des dispositions législatives sur le droit d’accès des agents de l’administration à ces données de connexion, en considérant notamment que ces accès n’étaient pas entourés des garanties propres à « assurer une conciliation équilibrée entre, d’une part, le droit au respect de la vie privée et, d’autre part, la prévention des atteintes à l’ordre public et la recherche des auteurs d’infractions ». C’est le cas donc en 2015 sur l’accès aux données de connexion pour les agents de l’Autorité de la concurrence. Même chose en 2017 pour la possibilité des agents de l’Autorité des marchés financiers de se faire communiquer les données de connexion. En février 2019 pour les douanes. Et en juin 2019 pour les agents des organismes de sécurité sociale.
Au fur et à mesure, le Conseil constitutionnel a donc dégagé une position claire et ferme quant à l’inconstitutionnalité des lois autorisant de tels accès aux métadonnées. La HADOPI, qui dispose d’un pouvoir d’accès semblable, devrait être la prochaine sur la liste.
Hadopi et surveillance de masse
Du côté de La Quadrature du Net et des fournisseurs d’accès à Internet associatifs (FFDN, Franciliens.net et FDN) , la stratégie était du coup plutôt enthousiasmante, ces décisions ne laissant pas trop de doute quant à l'[il]légalité de la « riposte graduée » de la HADOPI. Nous sommes donc intervenus à plusieurs reprises devant le Conseil constitutionnel sur ses décisions citées plus haut concernant l’accès aux données de connexion, l’objectif étant de renforcer sa position sur les garanties à apporter à ces accès (voir notamment notre article de février 2019 sur la censure de l’article 65 du code des douanes).
Enfin, en août 2019, La Quadrature, avec FFDN, Franciliens.net et FDN, ont attaqué devant le Conseil d’État le décret n°2010-236 du 5 mars 2010, un des décrets d’application de loi « Hadopi 1 ». Et c’est dans le cadre de ce contentieux que nous en avons demandé au Conseil d’État de poser au Conseil constitutionnel une « question prioritaire de constitutionnalité » sur l’article L. 331-21 du code de propriété intellectuelle. Ce que le Conseil d’État a accepté de faire dans sa décision du 12 février.
Dans notre demande, nous rappelons les jurisprudences citées plus haut sur l’obligation de prévoir des garanties sur l’accès de l’administration aux données de connexion – et nous soulignons que ces garanties sont inexistantes pour la HADOPI (comme pour les autres autorités). Nous y rappelons surtout que, et contrairement à ce qu’exige l’Union européenne, il ne s’agit pas ici de criminalité grave. Au contraire, il ne s’agit, au sens du code pénal, ni d’un crime, ni même d’un délit, mais seulement d’une contravention. Plus précisément, il s’agit sanctionner le manquement à l’obligation de surveillance de son accès à Internet (c’est-à-dire de vérifier que celui-ci n’est pas utilisé pour du partage d’œuvres contraire au droit d’auteur).
Bref, autant de raisons qui nous laissent espérer que le Conseil constitutionnel prendra ici la même décision qu’il a déjà pris pour des cas semblables. Et, du même coup, mettre à mal un des rouages essentiels de la HADOPI en la privant de son pouvoir de surveillance de masse.
Car la « riposte graduée » de la HADOPI est un outil de surveillance de masse. Selon ses propres chiffres, la HADOPI a ainsi envoyé, rien qu’entre les mois de février et août 2019, 319 175 mails de 1er avertissement, ce qui correspond donc à 319 175 personnes identifiées. Or, un tel traitement massif ne peut justement fonctionner que parce que la HADOPI est fondée sur la surveillance massive de la population. En cas de décision en notre faveur du Conseil constitutionnel, il sera d’ailleurs bien difficile au gouvernement de corriger ou d’encadrer une telle pratique : en théorie, un juge pourrait autoriser l’identification de chacune des 300 000 personnes, une à une ; en pratique, cela semble impossible, alors mêmes qu’il s’agirait de la seule correction juridiquement valide.
Interférences dans la loi audiovisuelle
Le timing de notre action n’est évidemment pas innocent : la jurisprudence étant claire depuis plusieurs années, nous aurions pu le faire avant, mais l’objectif est de peser dans les débats législatifs déjà en cours sur le projet de loi audiovisuel. Ce texte est en ce moment en discussion devant la commission des affaires culturelles de l’Assemblée nationale – il concerne de multiples sujets, de la transposition de la directive Copyright (voir notre dernier article sur cette directive), au blocage des sites miroirs en passant donc par la création d’une nouvelle autorité, résultat de la fusion entre le CSA et la HADOPI : l’ARCOM (pour « Autorité de régulation de la communication audiovisuelle et numérique »).
Or, les articles 22 (alinéa 20) et 25 de ce texte organisent justement le transfert des pouvoirs illégitimes de la HADOPI à la nouvelle ARCOM. Ces dispositions, comme d’autres du projet de loi (et sur lesquels nous reviendrons bientôt), doivent donc être supprimées pour que cette autorité, quel que soit son nom, respecte enfin le droit européen et la Constitution. Il sera d’ailleurs intéressant de suivre la réaction de l’actuel ministre de la Culture, Franck Riester, à la décision à venir du Conseil, lui qui porte aujourd’hui ce projet de loi et qui était il y a dix ans… rapporteur des lois HADOPI.
La décision à venir du Conseil constitutionnel pourrait être d’une importance majeure. Elle pourrait participer à la fin d’une autorité absurde et à la destruction de ses pouvoirs fondés sur la surveillance de masse. Elle pourrait aussi réparer l’erreur faite il y a dix ans : celle de refuser l’idée d’une contribution créative et de sanctionner les échanges non marchands d’oeuvres culturelles sur les réseaux P2P.
";s:7:"dateiso";s:15:"20200224_113749";}s:15:"20200219_164943";a:7:{s:5:"title";s:41:"La Quadrature du Net a besoin de vos dons";s:4:"link";s:82:"https://www.laquadrature.net/2020/02/19/la-quadrature-du-net-a-besoin-de-vos-dons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15576";s:7:"pubDate";s:31:"Wed, 19 Feb 2020 15:49:43 +0000";s:11:"description";s:217:"Depuis 2008 La Quadrature du Net existe grâce à vos dons. Merci à vous !
Douze ans plus tard, l’équipe des fondateurs a laissé la place à un collège de membres bénévoles et à une équipe de…";s:7:"content";s:5924:"
Depuis 2008 La Quadrature du Net existe grâce à vos dons. Merci à vous !
Douze ans plus tard, l’équipe des fondateurs a laissé la place à un collège de membres bénévoles et à une équipe de salarié·es qui font vivre l’association au quotidien : parce que les sujets sont innombrables, parce que le numérique est désormais présent dans chaque aspect de nos vies et dans chaque texte de loi, en France comme en Europe, et qu’il faut être au travail tous les jours pour analyser les lois, les faits sociaux, l’évolution des techniques et leur exploitation dévoyée.
Pas chers, mais pas riches
Cette structure a un coût. Notre budget pour une année est d’environ 300 000 € : les deux tiers en salaires et cotisations sociales pour les 6 salarié·es, le reste pour les déplacements, la communication et les locaux. Les salaires sont modestes, le loyer aussi (mais on va devoir déménager avant l’été 2020), quand on sillonne le pays on se loge à l’économie (souvent chez les copains, merci à vous !) et les billets de train sont les moins chers possibles. Bref, ni homard ni champagne à La Quadrature, de toute façon il paraît que ça donne mal à la tête.
Un cinquième du budget
Cette année comme chaque année, au mois de décembre, nous avons donc lancé une campagne de dons dans l’espoir de réunir l’argent nécessaire pour tenir une année de plus. Chaque année on croise les doigts, on se demande si ça va passer, et chaque année jusqu’à présent c’est passé, on est arrivé à boucler le budget et l’année.
Mais chaque année on est inquiet, et ça rend le travail encore plus compliqué. Cette année, par exemple, c’est très lent : on a lancé la campagne de dons le 6 décembre, elle a bien tourné jusqu’au 31 décembre, mais depuis le 1er janvier c’est le calme plat. Nous recevons encore quelques nouveaux dons chaque jour, trois ou quatre environ, merci à vous ! Mais ça ne suffit pas.
Mi-février, on a rassemblé environ 20 % du financement de l’année, un cinquième du budget seulement, l’équivalent d’à peu près 2 mois et demi d’activité… Si on veut que La Quadrature continue d’exister, il faut que les dons reprennent.
Nous avons donc décidé de poursuivre notre appel à dons de manière continue sur toute l’année 2020.
Campagne permanente
Mais on ne peut pas passer notre temps en campagne de dons, sinon on ne fait plus rien d’autre, ce serait absurde. Alors on a besoin de vous ! Vous pouvez nous aider à faire connaître autour de vous La Quadrature et ses combats.
Ne vous fiez pas au faible compteur de vue, en fait ces vidéos ont fait des milliers de vues sur les réseaux sociaux et elles marchent très bien parce qu’elles sont drôles
Abonnez-vous, partagez-les, faites-les tourner, commentez-les, discutez-en avec vos proches et les inconnu·es de passage ! Nos luttes croisent l’actualité sans cesse, il y a mille façons de glisser le nom de La Quadrature du Net dans une conversation. On compte sur vous <3
Comment nous faire un don ?
Et bien sûr, si vous avez gagné au loto, vous pouvez nous faire un don, c’est ici : laquadrature.net/donner.
Blague à part, on sait que c’est difficile. Notre cas n’est pas isolé, toutes les associations à but non lucratif, même les plus grandes, même les plus prestigieuses, se plaignent de la baisse des dons de soutien.
Les personnes généreuses ne sont pas moins nombreuses qu’avant, mais elles sont fauchées… Alors tous les dons sont les bienvenus, même 10 €, même 5 € !
Nous avons bien sûr une grosse préférence pour les dons mensuels : si vous nous donnez 5 € ou 10 € par mois, c’est presque indolore pour vous, et ça nous permet d’envisager l’année qui vient avec une meilleure visibilité. La perspective d’une somme qui arrive chaque mois permet de faire des plans à plus long terme.
Et vous pouvez bien sûr arrêter vos dons mensuels à tout moment en nous envoyant un mail ou en les bloquant du côté de votre banque.
";s:7:"dateiso";s:15:"20200219_164943";}s:15:"20200128_150448";a:7:{s:5:"title";s:82:"Appel aux candidat·es aux municipales à s’opposer à la reconnaissance faciale";s:4:"link";s:180:"https://www.laquadrature.net/2020/01/28/un-refus-unanime-de-la-reconnaissance-faciale-securitaire-appel-aux-candidat%c2%b7es-aux-municipales-a-sopposer-a-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15545";s:7:"pubDate";s:31:"Tue, 28 Jan 2020 14:04:48 +0000";s:11:"description";s:290:"En cette Journée de protection des données, l’Observatoire des libertés numériques1Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH),…";s:7:"content";s:16769:"
En cette Journée de protection des données, l’Observatoire des libertés numériques1Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM). envoie formellement la lettre ouverte demandant l’interdiction de la reconnaissance faciale sécuritaire au gouvernement ainsi qu’aux parlementaires. Cette lettre est désormais signée par 124 organisations.
Dans le même temps, l’OLN invite les listes candidates aux élections municipales à rejoindre cet appel et à s’engager contre ces logiques.
Au delà de la reconnaissance faciale, il est également essentiel d’attirer l’attention des listes candidates sur les autres technologies sécuritaires qui sont aujourd’hui en développement en France (voir à ce titre la campagne Technopolice). C’est le cas notamment pour la vidéosurveillance automatisée qui fait l’objet de nombreux contrats entre industriels et collectivités (et que La Quadrature du Net et la Ligue des Droits de l’Homme viennent d’attaquer en justice à Marseille).
Nous invitons donc également toutes personnes sensibilisées à ces enjeux à contacter les listes candidates aux élections municipales pour leur demander de s’engager contre la reconnaissance faciale sécuritaire par la signature de cette lettre, mais également de prendre position contre l’expansion de la vidéosurveillance et les techniques de vidéosurveillance automatisée.
Pour les organisations et listes candidates souhaitant signer cette lettre, envoyez un message à contact@laquadrature.net en indiquant la ville concernée, son code postal et le nom de la liste ainsi qu’un lien de référence.
Lettre commune : Interdisez la reconnaissance faciale sécuritaire
Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.
Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.
La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.
La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.
Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.
C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.
Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.
Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.
Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).
";s:7:"dateiso";s:15:"20200128_150448";}s:15:"20200122_121748";a:7:{s:5:"title";s:39:"Coup d’État sur la « loi haine »";s:4:"link";s:68:"https://www.laquadrature.net/2020/01/22/coup-detat-sur-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15509";s:7:"pubDate";s:31:"Wed, 22 Jan 2020 11:17:48 +0000";s:11:"description";s:259:"La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et…";s:7:"content";s:7058:"
La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce coup de force du gouvernement, imposé in extremis, est une nouvelle démonstration d’anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.
Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.
De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.
Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.
Enfin, alors que la loi initiale ne prévoyait que des sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.
Une concentration totale des pouvoirs
La concentration des pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.
Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.
Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de censure policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à 1 heure, démultipliant les risques d’abus.
Un coup de force anti-parlementaire
Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.
La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en une heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).
Hier, le débat n’a même pas eu lieu.
Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.
Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.
Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.
";s:7:"dateiso";s:15:"20200122_121748";}s:15:"20200120_095951";a:7:{s:5:"title";s:83:"Safe City à Marseille : Premier recours contre la vidéosurveillance automatisée";s:4:"link";s:136:"https://www.laquadrature.net/2020/01/20/safe-city-a-marseille-premier-recours-contre-la-videosurveillance-automatisee-de-lespace-public/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15497";s:7:"pubDate";s:31:"Mon, 20 Jan 2020 08:59:51 +0000";s:11:"description";s:263:"Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé…";s:7:"content";s:16285:"
Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…
D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.
MAJ-2 : L’audience publique devant le tribunal administratif de Marseille se tiendra le 2 mars à 14h30
MAJ : Le 7 février 2020, le Tribunal administratif de Marseille a rejeté notre requête en référé-suspension. Il a considéré que l’article d’Olivier Tesquet, sur lequel nous nous fondions, ne suffisait pas « à révéler l’existence, à la date alléguée, d’une décision administrative ». Néanmoins, depuis notre recours, nous avons reçu de nouveaux documents, cette fois-ci directement de la part de la mairie de Marseille et qui confirment la décision administrative de mise en place du dispositif. Nous avons donc déposé un nouveau référé sur la base de ces éléments. Par ailleurs, il ne faut pas oublier que la procédure en référé n’est qu’une procédure d’urgence faite à partir de notre demande d’annulation au fond. Cette demande d’annulation faite au fond est elle toujours bien d’actualité et n’a fait l’objet d’aucun rejet.
La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que « la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.
De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine ( « traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles… ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?
Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.
Marseille, ville-test
Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la citée phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.
Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).
Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».
L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.
Un recours contre la vidéosurveillance automatisée, premier du genre en France
Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.
Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.
Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».
Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.
Rejoignez Technopolice.fr pour participer à la veille, l’analyse et la lutte de ces nouveaux dispositifs.
—
[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »
";s:7:"dateiso";s:15:"20200120_095951";}s:15:"20200116_185648";a:7:{s:5:"title";s:42:"Lettre commune contre la loi « haine »";s:4:"link";s:75:"https://www.laquadrature.net/2020/01/16/lettre-commune-contre-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15493";s:7:"pubDate";s:31:"Thu, 16 Jan 2020 17:56:48 +0000";s:11:"description";s:280:"Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi haine.
Nous la signons aux côtés de :
Association des Avocats Conseils d’Entreprises, Change.org, Conseil National des Barreaux, Conseil National du Numérique, Fondation…";s:7:"content";s:5433:"
Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi « haine ».
Nous la signons aux côtés de :
Association des Avocats Conseils d’Entreprises,
Change.org,
Conseil National des Barreaux,
Conseil National du Numérique,
Fondation Internet Nouvelle Génération,
Internet Sans Frontières,
Internet Society France,
Ligue des Droits de l’Homme,
Renaissance Numérique,
Syndicats des Avocats de France,
Wikimédia France
La loi sera examinée par l’Assemblée nationale ce mardi 21 janvier. Vous aussi, contactez les députés pour leur demander de rejeter ce texte en visitant cette page.
Objet : Appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne – Proposition de loi visant à lutter contre la haine sur Internet
Madame la garde des Sceaux,
Monsieur le secrétaire d’État chargé du Numérique,
Madame la Rapporteure,
Mesdames et Messieurs les Député(e)s
En tant que principaux représentants de la société civile numérique française, acteurs de la défense des droits et de la mobilisation citoyenne en ligne, nous partageons une profonde inquiétude quant au risque que ferait encourir à nos droits et libertés fondamentaux la proposition de loi visant à lutter contre la haine sur Internet, si elle imposait aux opérateurs de plateformes un délai de 24h pour décider du retrait des contenus qui leur seront signalés. À l’occasion de sa nouvelle discussion au sein de l’Assemblée nationale, nous portons un appel fort à tenir compte, dans la version finale du texte, des alertes que chacune de nos organisations a pu individuellement ou collectivement porter.
Les opérateurs de plateformes participent désormais grandement à la structuration de l’espace public en ligne. Engagés dans la préservation d’un espace en ligne libre et respectueux de nos valeurs démocratiques et de nos droits fondamentaux, nous partageons la nécessité de questionner le rôle des grandes plateformes dans la lutte contre les contenus haineux sur Internet. Paradoxalement, cette exigence se traduit, dans le texte discuté, par le renforcement du rôle de ces mêmes acteurs dans le contrôle de notre espace public au détriment du premier garant de nos libertés individuelles qu’est le juge. De plus, cette logique tend à renforcer une situation d’oligopole dans laquelle nous nous trouvons déjà, par un encouragement à l’usage de solutions détenues par les acteurs aux ressources les plus grandes.
En contournant les prérogatives du juge judiciaire, l’obligation de retrait des contenus haineux par les opérateurs de plateformes dans un délai de 24 heures porte atteinte aux garanties qui nous permettent aujourd’hui de préserver l’équilibre de nos droits et libertés fondamentaux. Au regard des dispositions du texte, les opérateurs de plateformes seront incités à opter pour de la surcensure afin d’éviter d’être sanctionnés. À ce titre, nous nous inquiétons du rôle confié à des dispositifs technologiques de filtrage automatisés, qui font encore preuve de limites techniques profondes dans leur capacité à modérer, y compris parmi ceux les plus avancés. Ces limites sont d’autant plus prégnantes en ce qui concerne les contenus haineux dont la caractérisation juridique est souvent complexe. Or, le texte porte une acception particulièrement large de ces derniers.
Au regard de ses conséquences sur notre société, et en premier lieu sur les victimes de ces atteintes à la dignité humaine, nous devons considérer avec gravité le phénomène de propagation des contenus haineux en ligne. Il est, à cet égard, primordial d’engager un plan ambitieux d’éducation au numérique et de penser de manière plus transversale la régulation du numérique. Par ailleurs, alors que la France entend jouer un rôle majeur dans la politique numérique future de l’Union européenne, il est essentiel que la proposition visant à lutter contre la haine en ligne puisse se faire en adéquation avec le droit européen, au risque sinon de fragiliser nos dispositifs juridiques ainsi que de fragmenter toujours plus la stratégie numérique pour l’Europe et de mettre à mal son efficience. L’Union européenne se doit de rester au premier rang de la défense de nos valeurs fondamentales dans le champ numérique, et la France se doit d’en demeurer le porte-voix.
Nous vous savons attentifs à l’équilibre entre nos droits fondamentaux, ainsi qu’à la préservation de notre souveraineté. Aussi, nous nous associons collectivement pour vous appeler à en tenir compte dans le cadre de cette nouvelle lecture.
Restant à votre disposition pour contribuer à vos réflexions, nous vous prions d’agréer, Madame la garde des Sceaux, Monsieur le secrétaire d’État chargé du Numérique, Madame la Rapporteure, Mesdames et Messieurs les Député(e)s, l’expression de notre très haute considération.
";s:7:"dateiso";s:15:"20200116_185648";}s:15:"20200115_123517";a:7:{s:5:"title";s:92:"La pire version de la loi haine, adoptée en commission des lois de l’Assemblée nationale";s:4:"link";s:127:"https://www.laquadrature.net/2020/01/15/la-pire-version-de-la-loi-haine-adoptee-en-commission-des-lois-de-lassemblee-nationale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15486";s:7:"pubDate";s:31:"Wed, 15 Jan 2020 11:35:17 +0000";s:11:"description";s:251:"Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près)…";s:7:"content";s:2070:"
Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près) qu’elle avait fait adopter l’été dernier par l’Assemblée nationale. Les timides corrections que le Sénat avait introduites le mois dernier ont été balayées.
Qu’importe : en démocratie, c’est l’Assemblée nationale, entièrement tenue par les fidèles du gouvernement, qui décide seule des lois à adopter. Comme pour la loi « fakenews » de 2018 (adoptée en procédure accélérée et contre deux votes contraires du Sénat), la loi « contre la haine » passera le 30 janvier une dernière fois au Sénat (pour rien) avant un dernier vote final à l’Assemblée nationale début février. C’est ce dernier vote qui aura le dernier mot.
Avant cela toutefois, le 21 janvier, l’Assemblée nationale devra encore confirmer le texte adopté hier en commission des lois. Si nous échouons à l’en dissuader, les chances d’y parvenir en février semblent bien minces.
Et pourtant, en dehors du Parlement, ce texte fait l’unanimité contre lui : Commission européenne, CNNum, ARCEP, ONU, associations de défense des personnes que cette loi prétend défendre (relire notre bilan).
Appelons les députés pour exiger qu’ils rejettent cette loi aussi dangereuse pour nos libertés que contre-productive pour lutter contre la haine.
Rendez-vous sur cette page pour les contacter et relire nos arguments contre ce texte.
";s:7:"dateiso";s:15:"20200115_123517";}s:15:"20191230_080111";a:7:{s:5:"title";s:71:"Le Conseil constitutionnel autorise le fisc à la surveillance de masse";s:4:"link";s:111:"https://www.laquadrature.net/2019/12/30/le-conseil-constitutionnel-autorise-le-fisc-a-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15415";s:7:"pubDate";s:31:"Mon, 30 Dec 2019 07:01:11 +0000";s:11:"description";s:245:"Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la…";s:7:"content";s:5807:"
Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la Constitution.
Comme nous le dénoncions, cet article prévoit une collecte puis une analyse de masse des données publiques des réseaux sociaux. Des données sensibles seront collectées, par exemple sur notre vie sexuelle, politique ou religieuse. Au point 87 de sa décision, le Conseil constitutionnel s’est contenté d’interdire la seule exploitation des données sensibles, laissant possible leur collecte en masse, ce qui est tout aussi dangereux et contraire au droit européen.
L’article 10 de la directive police-justice n° 2016/680 interdit tout traitement de données sensibles qui ne soient pas justifié par une « nécessité absolue ». En l’espèce, la lutte contre les infractions fiscales peut être réalisée par bien d’autres moyens humains déjà mis en œuvre. Ni le gouvernement, ni le Conseil n’ont été capables d’expliquer en quoi la surveillance algorithmique est nécessaire à la lutte contre la fraude fiscale.
Enfin, le Conseil constitutionnel prétend que les contrôles fiscaux ne seront pas déclenchés automatiquement par les algorithmes de détection de fraude, mais reposeraient sur un travail humain. Cette affirmation traduit une grande naïveté et laisse en tout état de cause la porte ouverte à plus d’arbitraire dans les décisions administratives : comment contrôler le résultat d’un algorithme qui ne peut être expliqué et reproduit1Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé. ?
La boîte de Pandore a été ouverte. En validant le principe de surveillance de masse des réseaux sociaux, le Conseil constitutionnel permet aux autres administrations de pouvoir réclamer leur part de surveillance généralisée, voire de se servir directement dans les données collectées par le fisc. Le ministre de l’action et des comptes publics, Gérald Darmanin, défend inlassablement cette nouvelle surveillance et promettait 10 millions d’euros par an pour seulement deux algorithmes. Son joujou désormais approuvé constitue un pas supplémentaire pour remplacer l’humain·e par la machine, le·la citoyen·ne par une ligne dans un tableur.
Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.
";s:7:"dateiso";s:15:"20191230_080111";}s:15:"20191223_120536";a:7:{s:5:"title";s:99:"Flicage fiscal des réseaux sociaux : les parlementaires doivent saisir le Conseil constitutionnel";s:4:"link";s:136:"https://www.laquadrature.net/2019/12/23/flicage-fiscal-des-reseaux-sociaux-les-parlementaires-doivent-saisir-le-conseil-constitutionnel/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15393";s:7:"pubDate";s:31:"Mon, 23 Dec 2019 11:05:36 +0000";s:11:"description";s:248:"Le projet de loi de finances pour 2020 a été adopté la semaine dernière en dernière lecture par l’Assemblée nationale. Il comporte toujours son article 57, désormais 154, qui prévoit une surveillance généralisée des réseaux…";s:7:"content";s:5069:"
Le projet de loi de finances pour 2020 a été adopté la semaine dernière en dernière lecture par l’Assemblée nationale. Il comporte toujours son article 57, désormais 154, qui prévoit une surveillance généralisée des réseaux sociaux afin de lutter contre certains délits fiscaux. Nous appelons aujourd’hui les parlementaires à saisir le Conseil constitutionnel afin de lui demander sa suppression.
Comme nous l’indiquions, le désormais article 154 de la loi de finances pour 2020 prévoit une collecte « de masse » (selon les propres mots du gouvernement) et une analyse des informations publiques des réseaux sociaux. L’objectif du gouvernement est d’autoriser Bercy et les douanes à procéder à de la surveillance algorithmique pour détecter quelques fraudeur·euses. Maintenant que la loi a été adoptée, la prochaine étape se passe devant le Conseil constitutionnel qui se prononcera sur la conformité à la Constitution. Nous avons déposé aujourd’hui au greffe du Conseil constitutionnel une contribution extérieure dans laquelle nous développons nos arguments relatifs à l’atteinte au droit à la vie privée et au droit à la liberté d’expression pour en conclure que cet article doit être supprimé.
Nous y avons souligné que cet article 154 est une atteinte disproportionnée au droit à la vie privée et au droit à la liberté d’expression. Il amplifie la surveillance généralisée sur Internet en permettant à l’administration de traiter des informations qu’elle ne devrait pas connaître : les opinions politiques, religieuses, philosophiques, les appartenances syndicales, les orientations sexuelles, etc., seront analysées. Pire ! L’Assemblée a rétabli une conservation de ces données sensibles inutiles alors que la version du Sénat, à défaut de s’opposer à la collecte, prévoyait une suppression immédiate de ces données.
Également, nous expliquons dans notre contribution extérieure que la surveillance algorithmique que veut le gouvernement conduira in fine à faire confiance aveuglément aux algorithmes. Le Conseil constitutionnel avait déjà indiqué en 2018 que l’administration ne peut prendre de décision individuelle fondée exclusivement sur un algorithme dont elle ne peut expliquer le fonctionnement : cela interdit l’usage d’algorithmes auto-apprenants. Pourtant, aujourd’hui, le fisc et les douanes veulent recourir à ce même type d’algorithme pour lever des alertes sur de potentielles fraudes fiscales. Ces algorithmes sont pudiquement appelés « aide à la prise de décision » alors qu’il ne fait pas de doute qu’ils restent l’élément clé conduisant à une décision de contrôle fiscal : face à un algorithme auto-apprenant dont la nature même est de ne pas pouvoir expliquer ses résultats, que pourront faire les agents du fisc à part déclencher un contrôle en cas de résultat positif ? Nous invitons le Conseil constitutionnel à faire preuve de pragmatisme et à interdire les algorithmes d’aide à la prise de décision auto-apprenants.
Alors que certains groupes parlementaires s’étaient opposés à cet article, nous attendons désormais des actes. Nous regrettons déjà l’hypocrisie du groupe LR de l’Assemblée nationale qui, après avoir déposé plusieursamendementsde suppression dont on savait qu’ils ne seraient pas votés en raison du blocage de la majorité présidentielle, « oublie » d’inclure dans sa saisine du Conseil constitutionnel les éléments de fond justifiant que le Conseil censure cet article.
Nous invitons les élu·es de l’Assemblée nationale et du Sénat à saisir le Conseil constitutionnel sur le fond de cet article et à s’inspirer de nos arguments disponibles dans notre contribution extérieure. Il n’est pas suffisant de s’opposer en hémicycle : aujourd’hui, la balle est dans le camp des oppositions parlementaires.
";s:7:"dateiso";s:15:"20191223_120536";}s:15:"20191219_105629";a:7:{s:5:"title";s:87:"Lettre commune de 80 organisations : Interdisez la reconnaissance faciale sécuritaire";s:4:"link";s:55:"https://www.laquadrature.net/2019/12/19/rf_securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15354";s:7:"pubDate";s:31:"Thu, 19 Dec 2019 09:56:29 +0000";s:11:"description";s:113:"80 organisations signent une lettre commune appelant à l'interdiction de la reconnaissance faciale sécuritaire.";s:7:"content";s:15662:"
L’Observatoire des Libertés Numériques1Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM)., dont fait partie La Quadrature du Net, et 80 organisations signent une lettre commune appelant le gouvernement et le Parlement à interdire toutes les pratiques de reconnaissance faciale sécuritaire présentes et à venir. La liste des signataires relève d’une vraie diversité de type d’organisations et d’engagements qui témoignent du profond rejet de la population envers ces dispositifs et ces volontés politiques liberticides.
Notre lettre commune (aussi en PDF) reste ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre contre la reconnaissance faciale sécuritaire » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !
Mise à jour du 28 janvier 2020 : la lettre est désormais signée par 124 organisations.
Lettre commune : Interdisez la reconnaissance faciale sécuritaire
Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.
Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.
La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.
La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.
Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.
C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.
Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.
Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.
Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).
";s:7:"dateiso";s:15:"20191219_105629";}s:15:"20191218_141610";a:7:{s:5:"title";s:42:"Loi « haine » : la trahison du Sénat";s:4:"link";s:71:"https://www.laquadrature.net/2019/12/18/loi-haine-la-trahison-du-senat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15347";s:7:"pubDate";s:31:"Wed, 18 Dec 2019 13:16:10 +0000";s:11:"description";s:249:"Le Sénat vient d’adopter la loi « contre les contenus haineux sur internet ». Après ce qui semblait être une première victoire la semaine dernière en commission des lois, le Sénat a finalement renoncé à lutter contre…";s:7:"content";s:14166:"
Le Sénat vient d’adopter la loi « contre les contenus haineux sur internet ». Après ce qui semblait être une première victoire la semaine dernière en commission des lois, le Sénat a finalement renoncé à lutter contre les risques de censure abusive de cette proposition de loi. Sur plusieurs points cruciaux, le texte qu’il a adopté est pire que celui initialement proposé par Mme Avia.
Retour de la censure en 24 heures, étendue à d’autres acteurs
En apparence, la victoire de la semaine dernière est maintenue : la principale mesure de la loi, c’est-à-dire l’obligation pour les plateformes de retrait en 24 heures des contenus « haineux » qui leur sont notifiés, a disparu de l’article 1er du texte. Mais il s’agit d’une apparence bien trompeuse.
Hier, cette obligation a refait son apparition sous une autre forme à l’article 2 : le défaut de retrait en 24 heures n’est plus une infraction pénale sanctionnée au cas par cas, mais les plateformes doivent déployer « les diligences proportionnées et nécessaires » pour y parvenir1Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adopté par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation., sans quoi elles s’exposent à une amende administrative du CSA pouvant aller jusqu’à 4% de leur chiffre d’affaire.2L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire.
Contrairement au texte initial, l’obligation de retrait en 24 heures ne vise plus uniquement les grandes plateformes (qui ont plus de 5 millions d’utilisateurs par mois), mais n’importe quel hébergeur que le CSA considérera comme ayant « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé ». Ainsi, le CSA pourra arbitrairement décider quels nouveaux acteurs devront respecter les nouvelles obligations pour lutter contre les contenus illicites. Et certaines de ces obligations seront directement définies par le CSA lui-même, sans débat démocratique.
Les hébergeurs du Web décentralisé et non commercial, qui se trouveraient soumis au CSA en raison de leur succès, ne pourraient certainement pas tenir ces obligations, n’ayant pas les moyens des plateformes géantes. Ce nouveau texte est un signal sans nuance au Web libre et décentralisé : « cessez tous vos efforts, renoncez à votre cause et laissez régner les géants ! ». Ces mêmes géants dont le modèle économique aggrave la haine sur Internet et que le Sénat vient de renforcer — à se demander quel est le véritable objectif de ce texte.
Nous avions déjà souligné les risques de faire du CSA un acteur central de l’Internet : centralisation, éloignement du juge, confusion aberrante entre télévision et Internet… Au lieu d’arranger le texte, le Sénat n’a fait que l’empirer.
Une trahison en cache d’autres
Une autre obligation adoptée hier va dans le même sens : celle de conserver les « contenus illicites retirés ou rendus inaccessibles à la suite d’une notification […] pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales », pour une durée à fixer par décret. Ici, tous les hébergeurs sont concernés, et plus seulement ceux désignés par le CSA. Une autre lourde contrainte technique qui freinera encore le développement d’alternatives aux GAFAM.
Enfin, et toujours s’agissant des obligations qu’appliquera le CSA, les plateformes qu’il régule seront désormais contraintes de veiller à la « suppression des comptes de leurs utilisateurs ayant fait l’objet d’un nombre de notifications par plusieurs personnes faisant apparaître, au vu de ce faisceau d’indices, une contravention sérieuse aux infractions » visées par la lutte contre la haine. Cette modification donne encore et toujours plus de pouvoirs aux plateformes, en leur demandant d’agir comme seules juges dans la détermination de ce qu’est ou non ce « faisceau d’indices » indiquant une « contravention sérieuse aux infractions » visées. Au-delà des dangers considérables que ce changement ajoute à cette proposition de loi, on soulignera qu’il révèle toute l’ignorance du Sénat en matière de Web, qui semble ne connaître que Facebook et Twitter sans savoir que l’on peut s’exprimer sur de nombreuses plateformes sans y avoir de compte.
L’économie de l’attention et l’interopérabilité pourtant au cœur des débats
Cette trahison est d’autant plus frustrante que plusieurs sénatrices et sénateurs ont, dès le début des débats en séance publique, essayé de souligner ce qui devrait être au cœur des discussions : l’économie de l’attention qui fonde le modèle économique des grandes plateformes. Comme nous l’avions auparavant souligné, ce modèle accélère la diffusion des contenus qui nous font rester le plus longtemps et interagir le plus, quitte à favoriser les invectives, conflits et caricatures et à « censurer par enterrement » les propos plus subtils d’écoute et d’entraide.
C’est pour lutter contre ce modèle économique que nous demandons, notamment par des actions contentieuses, l’application du RGPD, qui pourrait remettre fortement en cause ce modèle. C’est également pour cela que nous portons une proposition positive demandant à ce que la loi force les géants du numérique à devenir interopérables : pour nous permettre de les quitter et rejoindre des alternatives moins toxiques et à taille humaine, tout en pouvant continuer à communiquer avec les personnes restées chez les géants, cassant ainsi leur monopole sur les communautés créées dans ces systèmes privateurs.
Néanmoins, ces discussions en séance n’ont pas eu de réels effets. Des amendements sur le sujet de l’interopérabilité avaient déjà été discutés, sans succès, à l’Assemblée nationale. La commission des lois en a adopté une version très légère au moment de son rapport (en prévoyant que le CSA puisse « encourager » l’interopérabilité). Et c’est cette version qui a été adoptée hier. Elle ne suffit évidemment pas à rattraper le reste du texte. Une telle interopérabilité doit être imposée, et non proposée, et ce n’est sûrement pas au CSA qu’il revient de s’en occuper.
Prochaine étape : la commission mixte-paritaire
Maintenant que le texte a été adopté au Sénat, il doit passer en commission mixte-paritaire le 8 janvier, pendant laquelle l’Assemblée nationale et le Sénat essayeront de se mettre d’accord sur une version commune du texte. Il semble improbable que le résultat soit en faveur de nos libertés. Pour cela, il faudrait que chaque chambre renonce à ses pires propositions. Nous redoutons le contraire : que l’Assemblée nationale rétablisse ses ambitions de censure automatisée et que le Sénat conserve l’extension potentielle du texte à l’ensemble du Web sous les pleins pouvoirs du CSA. Le résultat serait bien plus grave que la proposition de loi initiale alors même que la Commission européenne alertait déjà sur l’incompatibilité de la version de l’Assemblée avec le droit de l’Union européenne.
Et si la situation n’était pas déjà assez terrible, le gouvernement en profite pour aller encore plus loin. Dans cette proposition de loi « contre la haine », il a essayé d’intégrer en avance les dispositions d’un autre texte contre lequel nous luttons, au niveau européen cette fois-ci : le règlement sur les contenus terroristes, qui veut forcer l’ensemble des acteurs de l’Internet à censurer en 1 heure tout contenu considéré comme terroriste par les autorités. L’amendement du gouvernement a pour cette fois été rejeté.
La lutte contre cette proposition de loi sera ardue. Nous la reprendrons vivement avec vous dès le début de l’année prochaine.
Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adopté par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation.
2.
↑
L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire
";s:7:"dateiso";s:15:"20191218_141610";}s:15:"20191216_171956";a:7:{s:5:"title";s:53:"Le Sénat doit rejeter la loi « contre la haine »";s:4:"link";s:85:"https://www.laquadrature.net/2019/12/16/le-senat-doit-rejeter-la-loi-contre-la-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15343";s:7:"pubDate";s:31:"Mon, 16 Dec 2019 16:19:56 +0000";s:11:"description";s:275:"Après une victoire en demi-teinte la semaine dernière en commission des lois, l’ensemble du Sénat examinera demain la proposition de loi « contre la haine ». Nous venons d’envoyer le message ci-dessous à l’ensemble des sénateurs pour…";s:7:"content";s:4496:"
Après une victoire en demi-teinte la semaine dernière en commission des lois, l’ensemble du Sénat examinera demain la proposition de loi « contre la haine ». Nous venons d’envoyer le message ci-dessous à l’ensemble des sénateurs pour leur demander de rejeter le texte.
Madame la sénatrice, Monsieur le sénateur,
Demain 17 décembre, vous examinerez la proposition de loi visant à lutter contre les contenus haineux sur internet.
Nous vous appelons à la rejeter dans son ensemble.
Le 13 décembre, la commission des lois du Sénat a corrigé ce texte de façon substantielle :
– suppression à l’article 1er du délai de 24 heures pour censurer les contenus signalés ;
– suppression à l’article 2, alinéa 11, de l’obligation d’empêcher la réapparition de contenus déjà censurés.
Ainsi modifié, le texte n’a presque plus de substance, de sorte qu’il devient inutile de l’adopter. Ses nombreux opposants, dont la Commission européenne, ont déjà invité le législateur français à retirer entièrement cette proposition de loi dont l’approche est erronée depuis le début. L’objectif de lutter contre la haine en ligne devra être poursuivi par d’autres textes législatifs, suivant des approches différentes.
Une interopérabilité insuffisante
Parmi ces autres approches souhaitables, nous nous réjouissons que la commission des lois ait introduit à l’article 4, alinéa 15, de mesures encourageant l’interopérabilité des grandes plateformes Toutefois, de simples « encouragements » ne sauraient suffire pour répondre aux enjeux en cause. L’interopérabilité doit être imposée en tant qu’obligation, et cela plutôt par l’ARCEP que par le CSA. Ainsi, ces « encouragements » sont trop faibles pour justifier à eux-seuls l’adoption de cette proposition de loi, dont les problèmes sont par ailleurs trop nombreux.
Un texte aggravé
Tout en la corrigeant sur certains points, la commission des lois du Sénat a aggravé d’autres aspect de la proposition de loi. Alors que la version initiale du texte ne concernait que les plateformes dont le nombre d’utilisateurs dépasse les 5 millions par mois, la version adoptée en commission des lois étend de façon indéfinie le champ des plateformes concernées. Désormais, la loi s’imposera aussi à n’importe quelle plateforme choisie par le CSA selon des critères si vagues qu’il risque de pouvoir les désigner arbitrairement. Il suffira que le CSA considère qu’une plateforme ait « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé » pour la soumettre à son pouvoir.
La proposition de loi conférait déjà des pouvoirs démesurés au CSA : il choisira seul et sans débat démocratique les règles imposées aux plateformes pour lutter contre les infractions en ligne, sanctionnées jusqu’à 4% de leur chiffre d’affaire. La nouveauté introduite en commission des lois est que, en plus de décider des règles qu’il imposera, le CSA décidera aussi des plateformes auxquelles les imposer. Les risques d’abus, notamment contre les plateformes libres et décentralisées, sont immenses et justifient à eux-seuls de rejeter cette proposition de loi.
Les risques pour les plateformes libres et décentralisées sont au centre de nos inquiétudes. En effet, celles-ci permettent d’échapper aux plateformes gênantes et à leur « culture du buzz » qui favorise tant les conflits en ligne. Lutter contre la haine exige ainsi de favoriser le développement des ces plateformes décentralisées, notamment en s’abstenant d’introduire de nouvelles obligations qui les freineraient, telle que la conservation des contenus supprimés (trop lourd techniquement) ou la soumission à un CSA tout puissant et imprévisible.
Cordialement,
La Quadrature du Net
";s:7:"dateiso";s:15:"20191216_171956";}s:15:"20191211_123836";a:7:{s:5:"title";s:46:"Première victoire contre la loi « haine »";s:4:"link";s:78:"https://www.laquadrature.net/2019/12/11/premiere-victoire-contre-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15315";s:7:"pubDate";s:31:"Wed, 11 Dec 2019 11:38:36 +0000";s:11:"description";s:257:"La commission des lois du Sénat vient de rejeter le délai de 24h que Mme Avia souhaitait imposer aux grandes plateformes pour censurer les contenus illicites sur Internet. Cette première victoire pourrait entraîner l’effondrement d’un…";s:7:"content";s:7624:"
La commission des lois du Sénat vient de rejeter le délai de 24h que Mme Avia souhaitait imposer aux grandes plateformes pour censurer les contenus illicites sur Internet. Cette première victoire pourrait entraîner l’effondrement d’un texte qui fait l’unanimité contre lui.
La commission des lois a vidé de sa substance l’article 1er de la proposition de loi. Cet article imposait aux grandes plateformes de censurer en 24 heures les contenus signalés par leurs utilisateurs ou la police et correspondant à une longue liste d’infractions (relire notre résumé de cette obligation).
Par ailleurs, la commission des lois a aussi supprimé une obligation parfaitement absurde, ajoutée à la dernière minute cet été à l’Assemblée nationale par le groupe LREM, imposant aux plateformes de censurer toute réapparition d’un contenu déjà censuré. Cela aurait impliqué une surveillance constante de l’ensemble des messages qu’elles diffusent, en violation frontale du droit européen.
Autre point positif : comme cela avait déjà été le cas à l’Assemblée nationale en séance plénière, le rapporteur s’est inspiré de nos propositions sur l’interopérabilité en proposant que le CSA puisse « encourager » la mise en œuvre de standards techniques d’interopérabilité pour permettre aux victimes de « se réfugier sur d’autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu’elles avaient noués jusqu’ici ». Cela reste une version très allégée de notre proposition, qui ne suffit pas à sauver le reste du texte.
Enfin, évidemment, les amendements farfelus du sénateur Grand, proposant de sanctionner lourdement la captation et la diffusion d’images de policiers (ici et là), ont été déclarés irrecevables.
Une victoire à confirmer
Les victoires d’aujourd’hui restent à confirmer par l’ensemble du Sénat lors d’un vote en séance plénière prévu pour le 17 décembre. Mais il faut que le Sénat aille encore plus loin qu’aujourd’hui en rejetant le texte dans son ensemble.
En effet, après le vote du 17, la proposition de loi ira en commission mixte paritaire, où l’Assemblée nationale et le Sénat tenteront de trouver un accord sur le texte en partant de leur version respective.
Un tel accord est ici peu probable vu les différences entre les textes adoptés par chacune des chambres. La loi reviendra donc manifestement à l’Assemblée nationale, avec le risque sérieux qu’elle renverse entièrement la victoire d’aujourd’hui.
Le Sénat doit marquer le plus fortement possible son opposition à la proposition de Mme Avia, en la rejetant purement et simplement.
Ce rejet est d’autant plus indispensable que, tout en améliorant le texte, la commission des lois du Sénat y a ajouté de nouveaux risques majeurs. Si les dangers initiaux de la loi revenaient après la commission mixte paritaire, s’y ajouteraient ces nouveaux risques-ci et la situation serait encore plus désastreuse qu’au départ.
Les tous pouvoirs du CSA
Les nouveaux dangers que le Sénat vient d’introduire concernent le champ des plateformes auxquelles la loi s’appliquera (voir l’amendement).
Initialement, la loi ne concernait que les plateformes dont le nombre d’utilisateurs dépassait un seuil fixé par décret, qu’on nous annonçait à 2 millions. Désormais, la loi s’imposera aussi à n’importe quelle plateforme choisie par le CSA selon des critères si vagues qu’il risque de pouvoir les désigner arbitrairement. Il suffira que le CSA considère qu’une plateforme ait « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé ».
Toutes ces plateformes devront respecter les « règles » que le CSA définira pour lutter contre les infractions en ligne. Le CSA pourra sanctionner la violation de ses propres règles par une amende pouvant aller jusqu’à 4% du chiffre d’affaire des plateformes.
Le contenu de ces futures « règles » est encore inconnu, mais il faut redouter que le CSA songe à y inclure des techniques de censure automatisée ou de restriction de l’anonymat. C’est du moins la direction générale vers laquelle pousse le gouvernement, que ce soit au prétexte de la lutte contre le terrorisme (pour justifier l’automatisation de la censure) ou de la protection des enfants (pour commencer à s’attaquer à l’anonymat en ligne). Ces nouvelles « règles » seraient actées sans aucun débat démocratique, le CSA étant ici le seul à décider.
Ce pouvoir démesuré n’est pas nouveau dans cette proposition de loi. Nous le dénonçons depuis l’été dernier. La nouveauté du jour est que, en plus de décider des règles qu’il imposera, le CSA décidera aussi des plateformes auxquelles les imposer. Les risques d’abus, notamment contre les plateformes indépendantes et contre le Web libre et décentralisé, sont décuplés.
À ces risques, il faut ajouter celui évoqué plus tôt : si, après la commission mixte paritaire, l’Assemblée nationale parvenait à réintroduire l’obligation de censure en 24h, cette obligation pourrait aussi s’imposer à n’importe quelle plateforme désignée par le CSA, et non plus aux seuls « géants » initialement visés. De quoi détruire n’importe quelle plateforme indépendante d’un battement de cil du CSA.
Toutes ces raisons exigent que le Sénat rejette l’ensemble de cette proposition de loi. Comme nous l’avons déjà dit aux côtés de nombreuses institutions et associations, si la lutte contre la haine est un enjeu majeur, il devra être traité dans un autre texte, par une approche radicalement différente de celle proposée par Mme Avia.
";s:7:"dateiso";s:15:"20191211_123836";}s:15:"20191209_155053";a:7:{s:5:"title";s:53:"Tout le monde déteste la loi « contre la haine »";s:4:"link";s:85:"https://www.laquadrature.net/2019/12/09/tout-le-monde-deteste-la-loi-contre-la-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15281";s:7:"pubDate";s:31:"Mon, 09 Dec 2019 14:50:53 +0000";s:11:"description";s:241:"La proposition de loi de Mme Avia s’apprête à être examinée en commission des lois du Sénat le 11 décembre. Elle fait l’unanimité contre elle. L’ensemble de ses détracteurs, tout en partageant son objectif de…";s:7:"content";s:9418:"
La proposition de loi de Mme Avia s’apprête à être examinée en commission des lois du Sénat le 11 décembre. Elle fait l’unanimité contre elle. L’ensemble de ses détracteurs, tout en partageant son objectif de lutter contre la haine, lui reprochent un manque total de méthode, qui a conduit à un texte à la fois confus, inutile voire contre-productif, dangereux et contraire au droit de l’Union européenne.
Nous venons d’envoyer une lettre aux membres de la commission des lois pour leur demander de renoncer à ce texte. Si l’objectif initial de la loi était louable, il devra être poursuivi plus tard, sur des bases nouvelles, débarrassées des orientations erronées proposées par Mme Avia.
Parmi les pistes possibles, nous défendons l’obligation pour les grandes plateformes de devenir interopérables afin de nous libérer de leur « économie de l’attention » si nocive (lire notre analyse l’interopérabilité contre la haine). Ce projet pourra être porté tant au niveau français, telle qu’une récente proposition de loi du Sénat le prévoit, qu’au niveau européen, tel que la direction générale du Trésor vient de le suggérer à la Commission européenne.
Peu importe ces futurs projets, il faut rejeter l’actuelle proposition de loi « contre la haine ». Pour en comprendre les dangers, nous vous invitons à lire ce résumé de nos craintes. Le présent article vise à montrer qu’elles sont partagées par un vaste ensemble d’intervenants.
La Commission européenne contre la loi
Dans un courrier transmis la semaine dernière par la Commission européenne au gouvernement français (tel que publié par NextInpact), l’institution fait la même demande que nous.
Pour la Commission, la loi présente un risque trop important de censure abusive, en raison du délai de 24 heures qu’elle impose pour censurer des contenus, de la promotion de la censure automatisée ou pour son application à une trop large variété d’acteurs. Autant de violations du droit de l’Union. Dans sa lettre, la Commission invite le gouvernement à renoncer à ce texte afin de reprendre la lutte des contenus illicites en ligne au niveau européen l’année prochaine, sur des bases nouvelles et mieux posées. En effet, la nouvelle présidente de la Commission a annoncé une large réforme du droit européen en matière de régulation du Web, par un texte nommé Digital Service Act.
Les institutions contre la loi
Sébastien Soriano, président de l’ARCEP (l’autorité de régulation des télécoms), a qualifié la proposition de loi contre la haine de « naufrage de méthode » lors d’un colloque tenu le 26 novembre, tel que le rapporte Contexte. Tout comme nous, Sébastien Soriano espère que « l’avis incendiaire » de la Commission européenne « permettra de rebondir et de repartir sur de bons rails ».
Dès mars dernier, le Conseil national du numérique (CNNum) avait déjà condamné la loi, déplorant l’absence de juge dans la modération ainsi que la promotion de la censure automatisée.
Cet été, David Kaye, rapporteur spécial de l’ONU sur la protection de la liberté d’expression, partageait les mêmes critiques : « les États ne devraient limiter la publication de contenus qu’en vertu d’une ordonnance délivrée par un organe judiciaire » ; « les courts délais, associés aux sanctions sévères susmentionnées, pourraient conduire les réseaux sociaux à sur-réguler l’expression, par mesure de précaution ».
En juillet, suite à l’adoption du texte par l’Assemblée nationale, la Commission nationale consultative des droits de l’homme (CNCDH) a appelé « à revoir entièrement la proposition de loi » compte tenu « des risques qu’une telle loi ferait peser sur les libertés fondamentales ».
Les associations contre la loi
Parmi les nombreuses associations qui ont dénoncé cette loi, certaines défendent les personnes que la loi « contre la haine » prétend protéger. L’Inter-LGBT s’alarme : « les mesures envisagées par cette proposition de loi ne sont ni conformes à l’état de droit ni adaptées à la situation ».
L’Union des Juifs pour la Résistance et l’Entraide ainsi que Mémoire des Résistants juifs de la MOI ont déclaré leur « ferme opposition à cette initiative » législative qui opère « une véritable sous-traitance à des intérêts privés d’une activité de type judiciaire ».
Évidemment, les associations de défense de libertés sont toutes opposées à la loi. En France, La Ligue des droits de l’Homme, le Conseil national des barreaux, Internet sans frontières, Renaissance numérique et l’Internet society France ont conjointement dénoncé ce texte. À l’international, on retrouve les mêmes critiques sévères de la part d’article 19 ou de plusieurs articles d’EDRi et d’Access Now.
Au tour du Sénat
Le 17 octobre 2018, la commission des lois du Sénat avait rendu un rapport incendiaire contre la proposition de loi Fakenews, qu’elle avait alors simplement refusé de voter. La synthèse de son rapport dénonce une propositon qui « réunit contre elle une rare unanimité », un dispositif « inabouti, inefficace et dangereux » ainsi qu’un « problème à traiter au niveau européen ». Le rapport pointait au passage le « modèle économique des plateformes » dont « les algorithmes visent en effet essentiellement à capter l’attention des internautes par des informations « sensationnelles » », sans que ce problème ne soit abordé par la loi Fakenews.
Autant de critiques aujourd’hui tournées vers le texte de Mme Avia. À l’époque, c’est le sénateur Christophe-André Frassa (du groupe LR) qui était rapporteur sur la loi Fakenews. Aujourd’hui, c’est ce même sénateur qui est rapporteur sur la loi « contre la haine ». Il nous a reçu en audition, au cours de laquelle nous l’avons vigoureusement invité à faire preuve de la même rigueur : rejeter de nouveau un texte inutile et dangereux.
Une perspective renforcée par les récentes déclarations du sénateur Bruno Retailleau, président du groupe majoritaire LR : « On ne va certainement pas voter ce qui nous est arrivé de l’Assemblée. Pas question de confier la police de notre liberté d’expression aux GAFA ». Dans la foulée, le rapporteur Frassa a déposé un amendement proposant de supprimer la mesure phare du texte – le retrait en 24h des contenus signalés. Un tel changement justifierait à lui seul de ne pas examiner plus loin cette proposition de loi.
La suite au 11 décembre devant la commission des lois.
";s:7:"dateiso";s:15:"20191209_155053";}s:15:"20191206_185445";a:7:{s:5:"title";s:54:"SUIVEZ LES GOÉLANDS, SOUTENEZ LA QUADRATURE DU NET !";s:4:"link";s:60:"https://www.laquadrature.net/2019/12/06/suivez-les-goelands/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15250";s:7:"pubDate";s:31:"Fri, 06 Dec 2019 17:54:45 +0000";s:11:"description";s:276:"
Depuis dix ans, La Quadrature du Net lutte pour qu’Internet reste un outil d’émancipation. Face à la censure généralisée, utilisant le prétexte de la lutte contre le « piratage », le terrorisme et maintenant la « haine ». Face…";s:7:"content";s:6158:"
Depuis dix ans, La Quadrature du Net lutte pour qu’Internet reste un outil d’émancipation. Face à la censure généralisée, utilisant le prétexte de la lutte contre le « piratage », le terrorisme et maintenant la « haine ». Face à la surveillance politique permise par la loi renseignement. Face aux ambitions hégémoniques de l’industrie numérique, combattues grâce à la neutralité du Net et au RGPD. Tout cela en France comme en Europe, au Parlement, devant les juges ou dans les média, tous les jours. Pour défendre notre Internet idéal.
Puis nous avons mesuré combien défendre Internet ne suffirait plus. Les mêmes menaces arrivaient dans nos rues, dans nos écoles. Si l’informatique était devenu un outil d’oppression et de contrôle en ligne, il le deviendra partout ailleurs aussi. Et nous devrons y faire face collectivement. C’est pourquoi nous avons lancé la campagne Technopolice, qui a déjà réuni tant d’énergies nouvelles.
Mais comment garder courage ? Avec nos cinq salariées et notre trentaine de membres, nous peinons déjà tellement à courir derrière chaque nouvelle menace qui frappe Internet. Où trouver la rage et l’ambition d’aller défendre tout le reste ? En manifestation contre les drones, dans les écoles contre la reconnaissance faciale, dans le métro contre la détection de mouvement… Nos mains sont déjà si pleines, et nos yeux si lourds.
Quand soudain, la nature frappa l’ennemi. Des oiseaux s’en prirent aux drones de la police, renvoyés au sol. Les humains n’étaient plus seuls. Le front de notre lutte n’a cessé de s’étendre en dix ans, mais nous le tiendrons, avec vous, car nous ne sommes pas seuls.
Nous commençons aujourd’hui notre campagne de dons et la dédions au courage que ce clin d’œil de la nature nous a rendu.
La Quadrature du Net est en campagne de financement pour 2020 : aidez-nous à tenir une année encore, nos libertés le méritent ! <3
Vous pouvez faire un don par CB, ou bien par chèque ou par virement. Et si vous pouvez faire un don mensuel (même de 5 € !), n’hésitez pas, ce sont nos préférés : en nous assurant des rentrées d’argent tout au long de l’année, les dons mensuels nous permettent de travailler avec plus de confiance dans la pérennité de nos actions.
En plus, le cumul des dons donne droit à des contreparties <3
DE NOUVEAUX PALIERS POUR LES CONTREPARTIES
Cette année, les paliers de dons qui donnent accès à des contreparties ont changé.
Si vous êtes un·e habitué·e, vous verrez qu’ils ont augmenté (ça marche rarement dans l’autre sens), pour s’adapter aux coûts de la fabrication et de l’expédition.
Dorénavant, pour recevoir un piplôme il faudra cumuler 42€ de dons, pour un (piplôme)+sac 64€, pour un (piplôme+sac)+t-shirt 128€, et pour un (piplôme+sac+t-shirt)+hoodie 314€.
Attention, l’envoi n’est pas automatique, il faut faire la demande sur votre page personnelle de donateur !
Et si les contreparties tardent un peu à arriver, ce qui n’est pas rare, c’est parce qu’on est débordé·es, ou qu’on attend le réassort dans certaines tailles, et qu’on fait tout ça nous-même avec nos petites mains. Mais elles finissent toujours par arriver ! Merci encore pour votre générosité, et merci beaucoup pour votre patience <3
À QUOI SERVENT VOS DONS ?
Ils servent tout simplement à faire exister l’association ! La Quadrature du Net compte une trentaine de membres bénévoles et emploie une équipe de six salarié·es à plein temps. C’est minuscule, pour tout le boulot à abattre. Quand on se présente à nos collègues à l’étranger, l’étonnement est toujours le même : « Vous êtes aussi peu nombreux pour faire tout ça ? » Ben oui, on est aussi peu nombreux, et non on n’a pas le temps de s’ennuyer…
En 2019, on a récolté 240 000 € sur les 320 000 € qu’on s’était fixé comme objectif. Nous n’avons pas atteint cet objectif, comme beaucoup d’autres associations en France. Nos dépenses pour l’année 2019 se montent environ à 262 000€.
Les dons recueillis servent principalement à payer les salaires des permanents (79% des dépenses). Le restant couvre le loyer et l’entretien du local, les déplacements des un·es et des autres en France et à l’étranger (en train uniquement) et les divers frais matériels de l’activité militante (affiches, stickers, papier, imprimante, t-shirts, etc.).
Quand on ventile toutes les dépenses (salaires inclus) sur les campagnes, en fonction du temps passé par chacun·e sur les sujets de nos luttes, ça ressemble à ça :
";s:7:"dateiso";s:15:"20191206_185445";}s:15:"20191127_130000";a:7:{s:5:"title";s:104:"[NextINpact] EDRi et les FAI européens démolissent la proposition de loi Avia contre la haine en ligne";s:4:"link";s:141:"https://www.laquadrature.net/2019/11/27/nextinpact-edri-et-les-fai-europeens-demolissent-la-proposition-de-loi-avia-contre-la-haine-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15171";s:7:"pubDate";s:31:"Wed, 27 Nov 2019 12:00:00 +0000";s:11:"description";s:232:"Deux rapports ont été adressés à la Commission européenne. European Digital Rights et les FAI européens critiquent vertement la proposition de loi de la députée LREM. Le texte sera examiné bientôt au Sénat, mais il…";s:7:"content";s:1357:"
Deux rapports ont été adressés à la Commission européenne. European Digital Rights et les FAI européens critiquent vertement la proposition de loi de la députée LREM. Le texte sera examiné bientôt au Sénat, mais il devra, avant toute application, passer entre les fourches européennes. […]
L’association EDRi ou European Digital Rights estime ainsi qu’il présente un sérieux risque d’entrave à la liberté d’expression et d’opinion. « Il risque également de fragmenter le marché unique numérique au moment même où la commission cherche à harmoniser les règles qui régissent les intermédiaires ». Elle plaide pour un débat non pas national, mais européen sur le sujet de la modération. […]
";s:7:"dateiso";s:15:"20191127_130000";}s:15:"20191127_110000";a:7:{s:5:"title";s:52:"[Liberation] Vie numérique : Place à l’éthique";s:4:"link";s:82:"https://www.laquadrature.net/2019/11/27/liberation-vie-numerique-place-a-lethique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15172";s:7:"pubDate";s:31:"Wed, 27 Nov 2019 10:00:00 +0000";s:11:"description";s:280:"Face aux dérives du monde numérique, et tandis que l’appareil législatif, vite dépassé, se construit tant bien que mal, le débat éthique prend de l’ampleur, obligeant tous les acteurs à se questionner. […]
« Les données personnelles mobilisent…";s:7:"content";s:2075:"
Face aux dérives du monde numérique, et tandis que l’appareil législatif, vite dépassé, se construit tant bien que mal, le débat éthique prend de l’ampleur, obligeant tous les acteurs à se questionner. […]
« Les données personnelles mobilisent des enjeux éthiques colossaux. A ce titre, le RGPD a quelques défauts, mais c’est un socle intéressant… si seulement il était respecté », explique Sylvain Steer, enseignant en droit et culture numérique à l’IUT d’Orsay (Université Paris Sud), et membre de la Quadrature du Net (LQDN), association de défense des droits et libertés sur Internet. Parmi les principaux droits entérinés par le RGPD la portabilité des données (art. 20), leur effacement (art. 17), la possibilité d’actions de groupe (art. 80), ou encore une collecte et un traitement des données personnelles soumis au consentement « libre, explicite, spécifique, informé » de l’internaute (art. 7). La loi n’est, de fait, pas encore tout à fait passée dans les mœurs… « Pour la seule page d’accueil de Libération, j’identifie 28 trackers tiers, dont Facebook, Google ou BFM TV, qui collectent des données des visiteurs sans les en informer, repère, cruel, Sylvain Steer (1). Et ne parlons pas des Gafam (Google, Apple, Facebook, Amazon et Microsoft), qui continuent de violer impunément le RGPD .» […]
";s:7:"dateiso";s:15:"20191127_110000";}s:15:"20191126_130000";a:7:{s:5:"title";s:95:"[GrafHit] RadioPicasoft La Voix est libre, Technopolice, la surveillance dans l’espace public";s:4:"link";s:129:"https://www.laquadrature.net/2019/11/26/grafhit-radiopicasoft-la-voix-est-libre-technopolice-la-surveillance-dans-lespace-public/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15169";s:7:"pubDate";s:31:"Tue, 26 Nov 2019 12:00:00 +0000";s:11:"description";s:275:"« Partout sur le territoire français, la « Smart City » révèle son vrai visage : celui d’une mise sous surveillance totale de l’espace urbain à des fins policières. En juin 2019, des associations et collectifs militants ont donc…";s:7:"content";s:1424:"
« Partout sur le territoire français, la « Smart City » révèle son vrai visage : celui d’une mise sous surveillance totale de l’espace urbain à des fins policières. En juin 2019, des associations et collectifs militants ont donc lancé la campagne Technopolice, afin de documenter ces dérives et d’organiser la résistance. https://technopolice.fr » […]
NDLRP : interview de Klorydryk, membre deLa Quadrature du Net.
";s:7:"dateiso";s:15:"20191126_130000";}s:15:"20191126_110000";a:7:{s:5:"title";s:66:"[FranceCulture] Digital Labor : tout clic mérite-t-il salaire ?";s:4:"link";s:98:"https://www.laquadrature.net/2019/11/26/franceculture-digital-labor-tout-clic-merite-t-il-salaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15170";s:7:"pubDate";s:31:"Tue, 26 Nov 2019 10:00:00 +0000";s:11:"description";s:258:"À quoi correspond le digital labor ? Dans quelle mesure peut-on considérer les internautes comme producteurs de valeur sans le savoir ? En tant qu’internaute, chacun d’entre nous n’aurait-il pas tendance à devenir à notre insu plus…";s:7:"content";s:2201:"
À quoi correspond le digital labor ? Dans quelle mesure peut-on considérer les internautes comme producteurs de valeur sans le savoir ? En tant qu’internaute, chacun d’entre nous n’aurait-il pas tendance à devenir à notre insu plus micro-travailleur que consommateur ?
Serions-nous tous tombés dans le panneau ? Les géants d’internet nous ont-ils eus jusqu’à la moelle, au point de nous transformer, à notre insu, en travailleurs non-rémunérés ? A chaque like, à chaque note attribuée, à chaque commentaire rédigé, nous produisons de la valeur et nous engraissons ces services qui nous apparaissent comme gratuit. Ça c’est pour la voie passive. A la voix active, ce sont ces gens contraints au micro-travail : le tâcheronnat 2.0 qui consiste à aider les Intelligences Artificielles à apprendre, à reconnaître, à déchiffrer ou dans le pire des cas, les fermes de clics dans les pays pauvres. Bienvenus à l’ère du digital labor. […]
Et pour décrire, analyser et comprendre les enjeux de ce « digital labor » qui est, comme on le verra, difficilement traduisible en français, nous avons le plaisir de recevoir aujourd’hui Antonio Casilli, professeur à Telecom Paris, Institut Polytechnique de Paris, co-auteur notamment de « Qu’est-ce que le digital labor » avec Dominique Cardon aux éditions INA et Benjamin Bayart, président de la fédération des fournisseurs d’accès à Internet associatifs et co-fondateur de la Quadrature du Net. […]
";s:7:"dateiso";s:15:"20191126_110000";}s:15:"20191125_130000";a:7:{s:5:"title";s:62:"[RadioCampusParis] La Matinale de 19h – La Quadrature du Net";s:4:"link";s:97:"https://www.laquadrature.net/2019/11/25/radiocampusparis-la-matinale-de-19h-la-quadrature-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15166";s:7:"pubDate";s:31:"Mon, 25 Nov 2019 12:00:00 +0000";s:11:"description";s:239:"Ce soir nous recevons Arthur Messaud, juriste à La Quadrature du Net pour parler de Technopolice, une campagne lancée pour s’opposer aux smart cities policières, celle qui utilisent les nouveaux moyens offerts par les avancées…";s:7:"content";s:1373:"
Ce soir nous recevons Arthur Messaud, juriste à La Quadrature du Net pour parler de Technopolice, une campagne lancée pour s’opposer aux smart cities policières, celle qui utilisent les nouveaux moyens offerts par les avancées technologiques pour surveiller et punir.
« La technologie est un super bon alibi pour détruire le service public. »
";s:7:"dateiso";s:15:"20191125_130000";}s:15:"20191125_110000";a:7:{s:5:"title";s:118:"[FranceCulture] Du masque à la reconnaissance faciale : le visage est-il le dernier lieu de résistance politique ?";s:4:"link";s:149:"https://www.laquadrature.net/2019/11/25/franceculture-du-masque-a-la-reconnaissance-faciale-le-visage-est-il-le-dernier-lieu-de-resistance-politique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15167";s:7:"pubDate";s:31:"Mon, 25 Nov 2019 10:00:00 +0000";s:11:"description";s:229:"Alors que la figure du Joker a été reprise par des manifestants du monde entier, les discussions sur la mise en place de la reconnaissance faciale questionnent les libertés publiques. Le visage, moyen d’expression des…";s:7:"content";s:2783:"
Alors que la figure du Joker a été reprise par des manifestants du monde entier, les discussions sur la mise en place de la reconnaissance faciale questionnent les libertés publiques. Le visage, moyen d’expression des colères sociales, désormais utilisé à des fins politiques ? Une zone à défendre ?
Des manifestants de Hong Kong aux spectateurs du film Joker qui met en scène une révolte urbaine menée par un clown grimaçant, le visage semble être devenu un enjeu d’identification et de reconnaissance. Les états comme les grandes sociétés qui collectent des données informatiques sont intéressés en effet à cette reconnaissance faciale que refuse une partie des citoyens, pour qui se couvrir le visage grâce au maquillage, ou cagoule ou masque est une façon de préserver ses libertés. Le visage est-il le dernier lieu de résistance politique ? […]
Les intervenants :
François-David Sebbah, philosophe, professeur de philosophie à l’Université Paris Nanterre, membre associé des Archives Husserl et du laboratoire « Connaissance organisation et systèmes techniques » de l’Université de technologie de Compiègne
Félix Tréguer, Chercheur associé au Centre Internet et Société du CNRS, membre fondateur de l’association La Quadrature du Net.
Jacques Barthélémy, Conseiller d’Etat et ancien préfet
Pierre Piazza, maître de conférence en sciences politiques à l’université de Cergy-Pontoise et membre du Centre de recherches sociologiques sur le droit et les institution pénales (CESDIP)
";s:7:"dateiso";s:15:"20191125_110000";}s:15:"20191122_134602";a:7:{s:5:"title";s:51:"Reconnaissance faciale : le bal des irresponsables";s:4:"link";s:89:"https://www.laquadrature.net/2019/11/22/reconnaissance-faciale-le-bal-des-irresponsables/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15140";s:7:"pubDate";s:31:"Fri, 22 Nov 2019 12:46:02 +0000";s:11:"description";s:292:"Nous le répétons depuis plusieurs semaines : la reconnaissance faciale continue à se déployer en France sous la pression combinée du gouvernement, d’élus et d’industriels. Elle est encouragée par des nombreux rapports d’administrations qui multiplient les…";s:7:"content";s:20999:"
Nous le répétons depuis plusieurs semaines : la reconnaissance faciale continue à se déployer en France sous la pression combinée du gouvernement, d’élus et d’industriels. Elle est encouragée par des nombreux rapports d’administrations qui multiplient les préconisations pour faciliter son acceptation par la population.
Le dernier en date, rendu par l’INHESJ et que nous publions ici, a profité de la participation d’une des directrices de la CNIL – Florence Fourets. Le fantasme d’une technologie régulée, juridiquement bordée, ne tient pas. L’histoire récente de la surveillance d’État le démontre amplement. C’est pourquoi il est urgent d’interdire la reconnaissance faciale.
Avant de s’intéresser aux éléments de langage utilisés par les promoteurs de la reconnaissance faciale et à la stratégie qu’ils souhaiteraient nous imposer, revenons rapidement sur les dispositifs déjà déployés en France.
Retour sur les dispositifs déployés en France
Comme nous le dénoncions le mois dernier, le débat que propose le gouvernement sur la reconnaissance faciale pour faciliter les « expérimentations » est faussé : la technologie est d’ores et déjà largement déployée en France.
Outre les portiques d’authentification par reconnaissance faciale « PARAFE » (pour « passage automatisé rapide des frontières extérieures », présents dans cinq aéroports français, deux gares et au départ d’Euro-tunnel pour les bus), le fichier de traitement des antécédents judiciaires (dit « TAJ ») permet depuis 2012 à la police et à la gendarmerie (entre autres) de faire de la reconnaissance faciale à partir de photographies de personnes « mises en cause » lors d’une enquête (nous avons demandé ce lundi son abrogation au ministère de l’Intérieur en vue d’un éventuel contentieux – voir notre article détaillé).
D’autres expérimentations ont été réalisées ou sont en cours de réalisation : par la société Aéroports de Paris, pendant plusieurs mois à Orly-Ouest en salles d’embarquement ou dans des zones délimitées dans des terminaux de Roissy-Charles-de-Gaulle et Orly-Sud. À Nice, en 2019, un test a été mené pour la première fois en France sur la voie publique, pendant trois jours lors du Carnaval. L’application d’identité numérique du gouvernement Alicem, qui devrait être lancée en janvier 2020, comporte elle-aussi un dispositif de reconnaissance faciale (nous avons engagé un contentieux contre cette application qui ne respecte pas le RGPD). Enfin, si le projet de portiques de reconnaissance faciale prévu dans deux lycées de la Région Sud, à Nice et Marseille (contre lequel nous avions aussi engagé une action contentieuse) est pour l’instant à l’arrêt depuis l’avis négatif de la CNIL, Christian Estrosi et Renaud Muselier ont déjà signalé qu’ils reviendraient à la charge.
La multiplicité de ces dispositifs, à titre expérimental ou pérenne, n’empêche pourtant pas nombre d’acteurs publics et d’industriels de considérer que l’on ne va encore pas assez loin, ni assez vite. Le discours est toujours le même, fondé sur le caractère « inéluctable » de la technologie : en raison du cadre juridique actuel, qui serait selon eux trop strict, les industriels français ne pourraient pas expérimenter la reconnaissance faciale aussi facilement qu’ils le voudraient, prenant alors du retard sur leurs concurrents étasuniens ou chinois. Une « loi d’expérimentation » serait alors nécessaire pour faciliter le développement de ces dispositifs et créer une « reconnaissance faciale éthique » à la française.
Didier Baichère, un promoteur à l’Assemblée Nationale
En mars 2019, nous rencontrions Didier Baichère, député du groupe LaREM et membre de l’OPECST (Office parlementaire d’évaluation des choix scientifiques et technologiques) qui commençait à réfléchir sur le sujet sans y connaître grand-chose. Quelques mois plus tard, il est devenu spécialiste auto-proclamé et rend une note de huit pages sur la reconnaissance faciale où l’on retrouve déjà le vocabulaire et les arguments qui reviendront ensuite à chaque fois que le sujet sera abordé par l’un de ses promoteurs. Il y conclut en effet que « la généralisation [de la reconnaissance faciale] semble inéluctable », qu’il faut « élaborer rapidement un cadre législatif permettant d’accompagner les expérimentations au profit de l’écosystème industriel et universitaire français », « mener des études sur l’acceptabilité de ces technologies par les différentes catégories de la population et « améliorer la formation à l’économie de la donnée pour permettre aux décisions d’être prises de façon éclairée et en s’affranchissant des mythes auxquels renvoient ces technologies ». Sur la nécessité d’expérimentation, il développe son propos précisant que le RGPD « ne permet pas à l’heure actuelle aux acteurs français d’être compétitifs sur la scène internationale ».
Compétitivité contre libertés
Cette friction entre compétitivité et libertés se retrouve donc dans la plupart des notes et rapports publics rendus sur le sujet. Cédric O, secrétaire d’État au numérique, après avoir souligné que « la reconnaissance faciale entre dans nos vies sans que son cadre d’utilisation n’ait encore été clarifié » proclame pourtant que « expérimenter la reconnaissance faciale est nécessaire pour que nos industriels progressent ». Ou la revue du CREOGN (pour « Centre de recherche des officiers de la gendarmerie nationale ») qui énonce que « dans un cadre juridique suffisamment souple, les expérimentations permettraient aux industriels français de développer des solutions souveraines».
Les mots « concurrence », « souveraineté » et « industriels » prennent toute la place dans ce soi-disant « débat ». Ce sont d’ailleurs le Forum économique mondial avec le Conseil national du numérique qui sont chargés de « co-construire un cadre de régulation de la reconnaissance faciale »[1] . Ils expliquent que « le cœur de l’expérimentation consiste à tester nos recommandations sur des systèmes de reconnaissance faciale existants en partenariat avec des acteurs industriels ». La France, qui fait déjà partie des premiers exportateurs mondiaux d’armes, semble désormais vouloir expérimenter sur sa population sa nouvelle génération d’outils de surveillance à vendre à ses partenaires commerciaux, faisant fi de leur passif de violations des libertés fondamentales. Les industriels français, au premier rang desquels Thales et Idemia, pourraient alors se vanter d’être en mesure de proposer des solutions co-constuites dans le pays se disant des droits de l’homme…
La Chine prise en exemple
Tout récemment a été publiée une note de l’Institut National des Hautes Études de la Sécurité et de la Justice (INHESJ) [2]. Elle est rédigée par le « Groupe de diagnostic stratégique n°8 », composé d’une avocate (Sharone Franco), de salariés d’Airbus, du CEA (Commissariat à l’énergie atomique), de SANOFI (groupe pharmaceutique), et vice-présidé par… Florence Fourets, « directrice chargée de projets régaliens » de la CNIL. Dans ce rapport de 50 pages, les auteurs préconisent « une démarche où le potentiel recours à la reconnaissance faciale se veut pragmatique, et volontairement gradué ». L’insistance sur la compétition économique y est encore une fois pleinement assumée : les auteurs pointent d’ailleurs du doigt le « cadre réglementaire plus contraint dans notre pays », qui explique que « les solutions développées par les industriels français sont majoritairement commercialisées en dehors de la France, ce qui n’est pas sans poser des problèmes pour des groupes français qui ne peuvent pas mettre en avant de références hexagonales ». Ainsi, expliquant que « les algorithmes doivent être entraînés à partir de bases contenant un très grand nombre d’images de visages variés provenant d’origines différentes » et que « la réglementation française contraint fortement l’utilisation de telles bases de données », le rapport vient prendre en exemple à suivre « la société chinoise Cloudwalk [qui] a acheté au Zimbabwe la totalité de sa base de données contenant des visages de ses citoyens ».
Le reste du rapport est malheureusement dans la même veine. Il propose notamment une analyse de la situation en Chine où, selon eux, « la culture chinoise est plus encline à accepter une intrusion de surveillance de la vie privée que la culture française ». Après cet exemple choquant de relativisme culturel qui fait fi des formes de résistance opposées par la société chinoise au régime, il se poursuit avec des préconisations pour « une meilleure acceptation » de la population… Le fait qu’un agent de la CNIL participe à la rédaction d’un tel rapport illustre bien l’un des problèmes fondamentaux de la CNIL : pour elle, dans le dilemme entre innovation technologique et libertés, il semble que ce soit la première qui doit nécessairement avoir gain de cause.
La conclusion du rapport de l’INHESJ recoupe tristement les discours de Cédric O et de Didier Baichère : les auteurs du rapport appellent à une « adaptation du cadre juridique actuel (…) pour faciliter les expérimentations », au « soutien aux industriels français » et à un texte législatif permettant l’instauration de dispositifs de reconnaissance faciale dont « il pourrait être notamment prévu de limiter les périodes d’utilisation en termes de durée mais également d’un point de vue géographique ». On y apprend enfin que Renaud Vedel (Préfet coordinateur ministériel en matière d’intelligence artificielle et autre promoteur régulier de la technologie) propose de « constituer un fichier permanent de données biométriques qui ne serait activé que sur des périodes temporaires déterminées, dans des contextes prévus ou sur des zones particulièrement exposées ».
Et la CNIL dans tout ça ?
La CNIL est l’une des seules autorités (avec les juges) qui devraient normalement contrôler et limiter le déploiement de ces dispositifs. En octobre 2018, elle publie un communiqué appelant à la tenue d’un « débat démocratique » sur le sujet. Ensuite, pendant presque une année, pas grand-chose, jusqu’à sa récente recommandation sur l’expérimentation de portiques de reconnaissance faciale. Elle s’y décide enfin à appliquer les principes de nécessité et de proportionnalité qui sont au cœur du RGPD. Notons néanmoins que cette recommandation, ainsi que celles rendues précédemment sur le même dossier, ne sont pas publiques : il s’agit de courriers entre administrations que nous sommes obligés d’aller réclamer à l’aide de demandes CADA (voir à ce titre les documents récupérés pour les portiques dans les lycées). Plus tristement, quand elle soulève des craintes et arguments juridiques contre un décret prévoyant la mise en place d’un dispositif de reconnaissance faciale (comme ce fut le cas pour Alicem), le gouvernement ne l’écoute pas. Et la présidente de la CNIL, Marie-Laure Denis, semble se satisfaire de cette impuissance.
Son récent « code de la route » de la reconnaissance faciale n’est pas des plus encourageants : si la CNIL y souligne bien les dangers intrinsèques à la technologie, elle ne semble pas avoir le courage politique suffisant pour en tirer la conclusion logique, c’est-à-dire son interdiction. Les lignes « rouges » qu’elle entend tracer semblent d’ailleurs bien faibles, et ses mises en garde tout aussi timorées. Dire, par exemple, que « la reconnaissance faciale à la volée, qui repose sur une captation indifférenciée des visages dans un espace déterminée, appelle à une vigilance toute particulière », n’est en aucun cas une ligne rouge. Une telle « audace » n’aura sans doute pas effrayé outre mesure les élus comme Christian Estrosi qui font leur beurre électoral de ces technologies sécuritaires. Ce dernier s’est d’ailleurs dit en partie « satisfait » de cette note. Comme les promoteurs précédemment cités, et bien que son discours se veuille plus soucieux des libertés publiques que d’autres, la CNIL semble pourtant se forcer à croire une voie médiane entre protection des droits et objectifs sécuritaires, et se résigner comme les autres au caractère à la fois nécessaire et inéluctable de ces nouveaux dispositifs.
Devant cette avalanche de volontés univoques, pour qui la compétitivité commerciale vaut mieux que toutes les libertés fondamentales, les citoyens qui ne veulent pas être surveillés se sentent bien isolés. Par qui faudra-t-il passer pour que quelqu’un redise enfin que la surveillance de tous les visages n’est proportionnée à aucun crime, mais seulement à un fantasme de dirigeant totalitaire ?
La nécessité d’une interdiction
La prochaine étape paraît donc être cette « loi d’expérimentation » qui devrait logiquement apporter certains assouplissements au RGPD ou à la directive police-justice. La future loi renseignement sera-t-elle le véhicule législatif privilégié pour l’expérimentation de ces technologies de surveillance massive ?
Il faudra le répéter, encore et encore : la reconnaissance faciale est une technologie exceptionnellement invasive, déshumanisante et élaborée à terme pour la surveillance et le contrôle permanente de l’espace public. Comme nous le disions il y a déjà quelques semaines, elle « attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation ». Elle promet un contrôle invisible et indolore (on ne sait pas quand une caméra prend notre visage, contrairement au relevé des empreintes ou de l’ADN par exemple) pour nous imposer une vérification d’identité « permanent[e] et général[e] ». Et ne tombons pas dans le piège de la confusion lexicale organisée entre « reconnaissance faciale » et « comparaison faciale », où la seconde serait moins importante que la première : en plus de participer à l’entraînement des algorithmes, l’authentification par reconnaissance faciale prépare, banalise et nous entraîne vers l’identification constante et généralisée sur la voie publique.
Il n’existe pas de « reconnaissance faciale éthique » ou d’usage raisonné d’une surveillance biométrique intrinsèquement totalitaire. Seule l’interdiction est envisageable.
—-
[1] Ce cadre pourrait d’ailleurs servir de référence pour la pseudo-consultation citoyenne promise par le gouvernement.
[2] L’INHESJ a publié sur son site un rapide résumé de son rapport.
";s:7:"dateiso";s:15:"20191122_134602";}s:15:"20191118_142003";a:7:{s:5:"title";s:71:"La reconnaissance faciale des manifestant⋅e⋅s est déjà autorisée";s:4:"link";s:102:"https://www.laquadrature.net/2019/11/18/la-reconnaissance-faciale-des-manifestants-est-deja-autorisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15032";s:7:"pubDate";s:31:"Mon, 18 Nov 2019 13:20:03 +0000";s:11:"description";s:289:"Depuis six ans, le gouvernement a adopté plusieurs décrets pour autoriser l’identification automatique et massive des manifestants. Cette autorisation s’est passée de tout débat démocratique. Elle résulte de la combinaison insidieuse de trois dispositifs : le…";s:7:"content";s:35813:"
Depuis six ans, le gouvernement a adopté plusieurs décrets pour autoriser l’identification automatique et massive des manifestants. Cette autorisation s’est passée de tout débat démocratique. Elle résulte de la combinaison insidieuse de trois dispositifs : le fichier TAJ (traitement des antécédents judiciaires), le fichier TES (titres électroniques sécurisés) et la loi renseignement.
L’hypocrisie du gouvernement est totale lorsqu’il prétend aujourd’hui ouvrir un débat démocratique sur la reconnaissance faciale : il en a visiblement tiré les conclusions depuis longtemps, qu’il nous impose déjà sans même nous en avoir clairement informés.
Nous venons de lui demander formellement d’abroger ce système et l’attaquerons devant le Conseil d’État s’il le refuse.
Pour bien comprendre le montage juridique qui autorise le fichage massif des manifestants, il faut retracer l’évolution historique de ses trois composantes – le fichier TAJ (I), le fichier TES (II) et la loi renseignement (III) – puis en interroger les conséquences concrètes (IV).
I. Le fichier TAJ
La première brique de l’édifice est le fichier de police appelé TAJ, pour « traitement des antécédents judiciaires ». Rappeler son origine (A) nous permet de mieux comprendre son fonctionnement actuel (B) et la façon dont il a ouvert la voie à la reconnaissance faciale policière (C).
A. Les origines du TAJ
Dans son rapport sur la loi de sécurité du 21 janvier 1995, le gouvernement explique son projet de modernisation de la police. Le futur fichier nommé « système de traitement de l’information criminelle (S.T.I.C.) » est alors présenté comme une grande nouveauté, « le projet prioritaire pour l’informatisation des services de police » : il « permettra de fédérer au niveau national l’ensemble des fichiers de police et de documentation criminelle ».
Ce fichier ne sera officialisé que six ans plus tard, par un décret du 5 juillet 2001. Le gouvernement de Lionel Jospin crée ainsi un fichier nommé « système de traitement des infractions constatées (STIC) ». Concrètement, dans son avis préalable, la CNIL explique que le STIC centralisera un ensemble « d’informations actuellement conservées dans des fichiers manuels ou informatiques épars, le plus souvent cantonnés au niveau local », et donc peu exploitables. Désormais, pour l’ensemble du territoire français, le STIC réunira toute la mémoire de la police sur les personnes mises en cause dans des infractions, auteurs comme complices, ainsi que leurs victimes : noms, domicile, photographie, faits reprochés…
Il faudra attendre une loi du 18 mars 2003 pour que ce fichier soit clairement endossé par le législateur. À la suite du STIC, créé pour la police nationale, un décret du 20 novembre 2006 crée un fichier équivalent pour la gendarmerie, dénommé « système judiciaire de documentation et d’exploitation» (JUDEX).
Cinq ans plus tard, l’article 11 de la loi du 14 mars 2011 (dite LOPPSI 2) prévoit de fusionner le STIC et le JUDEX au sein d’un fichier unique, que le gouvernement envisage alors d’appeler ARIANE. Cette loi de 2011 est une loi de « programmation » et se voit donc accompagnée d’un « rapport sur les objectifs et les moyens de la sécurité intérieure à horizon 2013 ». D’importantes évolutions sont attendues : « la police déploiera son programme de minidrones d’observation », « une recherche en sécurité au service de la performance technologique […] visera notamment à trouver les solutions innovantes dans des domaines tels que […] la miniaturisation des capteurs, la vidéoprotection intelligente, la transmission de données sécurisée, la fouille des données sur internet, la reconnaissance faciale, les nouvelles technologies de biométrie… ».
La fusion du STIC et du JUDEX est formellement réalisée par un décret du 4 mai 2012. Le fichier unique n’est finalement pas nommé ARIANE mais TAJ, pour « traitement des antécédents judiciaires ». L’une des principales différences entre, d’une part, le STIC et le JUDEX et, d’autre part, le TAJ, concerne la reconnaissance faciale. Alors que les fiches du STIC et du JUDEX ne comprenaient qu’une simple « photographie » des personnes surveillées, le TAJ va bien plus loin. Il est explicitement destiné à contenir toute « photographie comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) », ainsi que toutes « autres photographies ».
Dans son avis de 2011 sur le décret TAJ, la CNIL « relève que c’est la première fois qu’elle est saisie par un service de l’État d’une demande d’avis sur un traitement reposant sur […] ces technologies de reconnaissance faciale ». Elle explique que ce système « permettra de comparer à la base des photographies signalétiques du traitement, les images du visage de personnes impliquées dans la commission d’infractions captées via des dispositifs de vidéoprotection », ce qui « présente des risques importants pour les libertés individuelles, notamment dans le contexte actuel de multiplication du nombre des systèmes de vidéoprotection ».
B. Le fonctionnement du TAJ aujourd’hui
Un rapport parlementaire de 2018 explique qu’il « existe 18,9 millions de fiches de personnes mises en cause et plus de 87 millions d’affaires répertoriées dans le TAJ », et que « le TAJ comprend entre 7 et 8 millions de photos de face ». En théorie, l’article R40-25 du code de procédure pénale prévoit que le TAJ ne devrait ficher que des personnes contre lesquelles existent des indices graves et concordants d’avoir participé à la commission d’une infraction, comme auteur ou complice. En pratique, il s’agit davantage d’un outil de communication interne aux forces de l’ordre, qu’elles utilisent pour échanger un maximum d’informations pratiques, indépendamment de la véracité ou de la pertinence de celles-ci. Comme l’explique la CNIL en 2012, les policiers et gendarmes remplissent eux-mêmes les fiches, choisissant les qualifications juridiques et les faits à retenir.
Lorsque la photographie du visage d’une personne y figure, elle peut avoir été prise au commissariat ou à la gendarmerie, mais les policiers et gendarmes peuvent tout aussi bien avoir simplement photographié un document d’identité de la personne concernée dans un autre cadre, par exemple dans la rue lors d’un contrôle, ou bien encore, après tout, collecté une photo sur Internet.
En théorie encore, la tenue du TAJ devrait être contrôlée par les magistrats du parquet. Pourtant, Vincent Charmoillaux, vice-procureur de Lille et secrétaire général du Syndicat de la magistrature, expliquait le 28 septembre dernier lors d’un colloque sur le fichage des étrangers organisé par le Syndicat des avocats de France à Lille, que pendant plus de 15 ans, contrairement à la loi, les procureurs n’ont eu aucun accès direct au TAJ qu’ils sont pourtant chargés de contrôler, et que le déploiement des outils informatiques nécessaires à un accès effectif n’était qu’une annonce très récente.
Il ajoutait que, par manque de temps, les services des parquets omettent aussi trop souvent de faire mettre à jour le TAJ lorsqu’une affaire conduit à un classement sans suite, un non-lieu ou une relaxe. Ainsi, une personne peut être fichée pendant 20 ans pour une infraction pour laquelle elle a été mise hors de cause par la justice. Selon lui, si l’utilisation du TAJ par la police, la gendarmerie et l’administration s’est autant développée, c’est en raison des règles bien plus strictes qui encadrent l’utilisation du casier judiciaire et qui ne leur permettent pas de satisfaire ce qu’elles jugent être leurs besoins opérationnels.
C. La reconnaissance faciale dans le TAJ
La police entretient l’absence de transparence au sujet de la reconnaissance faciale, de sorte que celle-ci reste peu documentée, et que ces pratiques ne peuvent être perçues qu’à travers une multitudes de faits divers (et désormais aussi par la campagne Technopolice, par exemple ici ou là).
Dès 2013, des gendarmes niçois se réjouissent auprès de Nicematin : « un homme ayant perdu la tête a été trouvé dans le jardin d’une propriété et il s’est révélé incapable de donner son nom. Les gendarmes l’ont pris en photo et nous l’ont envoyé. Et « bingo », sa fiche est sortie. Il a pu être identifié, puisqu’il était connu des fichiers ». Les gendarmes évoquent aussi le cas « d’un escroc ayant acquis une voiture d’occasion avec un passeport volé et falsifié mais comportant sa photo », retrouvée dans le TAJ par reconnaissance faciale.
En 2014, le Figaro rapporte à Lille un cas d’identification automatisée d’un adolescent, déjà fiché au TAJ, qui s’est vanté sur Snapchat et à visage découvert d’avoir volé un téléphone : « une fois la photo en notre possession, il n’a fallu que quelques minutes pour que 30 ou 40 visages apparaissent à l’écran, explique un commandant ».
En 2018, le Parisien explique que la police a exploité les photographies du TAJ par reconnaissance faciale afin d’identifier un terroriste mort. Plus récemment, une affaire judiciaire en cours à Lyon concerne l’utilisation d’un logiciel pour rapprocher l’image prise par une caméra sur le lieu d’un cambriolage à la photographie d’une personne connue des services de la police et fichée dans le TAJ.
Ces seules anecdotes laissent comprendre que la reconnaissance faciale réalisée à partir du TAJ serait déjà largement déployée en France et depuis longtemps.
Pour résumer, en France, une personne sur dix pourrait avoir sa photo dans le TAJ. La police et la gendarmerie peuvent l’analyser automatiquement afin de la rapprocher d’images prises sur des lieux d’infraction, notamment par des caméras de surveillance. On appelle cette approche la « comparaison faciale ». C’est déjà bien trop de pouvoir pour la police, qui agit ici sans aucun contre-pouvoir effectif. Mais le fichier TES a conduit à l’extension de cette technique à l’ensemble de la population française et donc, à terme, bien au-delà des 8 millions de photographies contenus dans le TAJ.
II. Le fichier TES
La deuxième brique de l’édifice est le fichier TES, pour « titres électroniques sécurisés ». Alors que le TES n’avait à l’origine qu’un champ réduit (A), il s’est finalement étendu à l’ensemble de la population (B) pour en ficher tous les visages (C).
A. Le premier fichier TES (2004 – 2012)
Un règlement européen du 13 décembre 2004 impose aux États membres de délivrer des passeports biométriques qui, notamment, « comportent un support de stockage qui contient une photo faciale ». En pratique, le passeport intègre une puce qui contient une photo du visage. Elle n’est stockée nulle part ailleurs et il faut accéder physiquement au document pour la consulter. À première vue, rien qui puisse directement déboucher sur de la surveillance de masse.
Un an plus tard, le gouvernement français adopte le décret du 30 décembre 2005 qui crée les passeports électroniques afin d’appliquer ce règlement. Au passage, et sans qu’il s’agisse ici d’une exigence européenne, ce décret crée le fichier des « titres électroniques sécurisés » (TES) qui centralise, pour chaque personne détentrice d’un passeport électronique, ses noms, domicile, taille et couleur d’yeux. Guère plus.
Deux décrets ultérieurs changent la donne. Un premier du 23 janvier 2007 permet à la police et à la gendarmerie de consulter le fichier TES pour lutter contre le terrorisme. Un deuxième décret du 30 avril 2008 ajoute au fichier TES « l’image numérisée du visage ». Depuis 2005, l’image du visage n’était enregistrée que sur la puce du passeport. Par cette évolution, le visage tombe dans les mains de l’État.
Cette évolution ne concerne alors pas les cartes d’identité. Depuis un décret de 1987, le ministère de l’Intérieur est autorisé à réaliser un traitement de données personnelles pour fournir des cartes d’identité. Ce système centralise nom, prénoms, date de naissance, etc., mais pas la photo, qui n’apparaît que sur la carte. Un décret du 21 mars 2007 permet à la police et à la gendarmerie de consulter ce fichier des cartes d’identités pour lutter contre le terrorisme – tel que cela a été autorisé pour les passeports deux mois plus tôt – mais sans leur donner accès à ces images.
B. Le nouveau fichier TES (2012-2016)
Une proposition de loi, soumise par deux sénateurs et adoptée par le Parlement le 6 mars 2012, prévoit de fusionner le « TES passeport » et le fichier des cartes d’identité en un méga-fichier unique. De plus, ce fichier unique contiendra désormais aussi les photographies présentes sur les cartes d’identité (jusqu’ici, seul le « TES passeport » contenait des photos).
Le texte suscite d’importants débats : il prévoit aussi de centraliser dans ce fichier les empreintes digitales de l’ensemble de la population, tout en permettant à la police d’y accéder pour identifier une personne à partir d’une empreinte retrouvée sur les lieux d’une infraction. De nombreux parlementaires saisissent le Conseil constitutionnel qui, dans une décision du 22 mars 2012, déclare la plupart des dispositions de cette loi contraire à la Constitution. La loi, presque entièrement dépouillée, n’est jamais appliquée.
Toutefois, le gouvernement semble avoir été séduit par cette initiative parlementaire. Quatre ans plus tard, il reprend l’essentiel de cette loi avortée dans un décret du 28 octobre 2016, qui intègre au sein du fichier « TES passeport » toutes les données relatives aux cartes d’identité. Le nouveau « méga-fichier TES » comprend désormais les photographies de l’ensemble de la population ou presque : celles de toute personne demandant un passeport ou une carte d’identité.
C. Les visages du TES (2016-aujourd’hui)
Même si ce décret échappe au contrôle du Conseil constitutionnel (qui n’examine que les lois et non les décrets), le gouvernement a manifestement retenu les leçons de l’échec de 2012 : le décret prévoit explicitement que la police ne peut pas accéder aux empreintes digitales conservées dans le fichier TES.
Toutefois, dans le même temps, ce décret a largement étendu le nombre de photographies accessibles aux policiers et gendarmes (pour rappel, les photographies des cartes d’identité n’étaient jusqu’alors ni centralisées ni donc facilement exploitables par la police).
Contrairement au TAJ, le fichier TES ne prévoit pas en lui-même de fonctionnalité de reconnaissance faciale. Mais cette limite est purement technique : il ne s’agit pas d’une interdiction juridique. Rien n’interdit que les photos du TES soient utilisées par un logiciel de reconnaissance faciale extérieur. Ainsi, dans certaines conditions, la police peut consulter le TES pour obtenir l’image d’une personne, la copier dans le TAJ et, à partir de là, traiter cette photo de façon automatisée pour la comparer à d’autres images, telles que celles prises par des caméras de surveillance.
Cette évolution est d’autant plus inquiétante que, contrairement au cadre initial du « TES passeport » et du fichier des cartes d’identité, la police peut accéder aux photos contenues dans ce nouveau fichier pour des raisons qui vont bien au-delà de la seule lutte contre le terrorisme.
III. La loi renseignement
La troisième brique de l’édifice est constituée des lois de sécurité qui permettent à la police de faire le lien entre le TAJ et le TES. Initialement limitées à la lutte antiterroriste, ces lois ont insidieusement étendu leur champ à d’autres domaines (A), jusqu’à ce que la loi renseignement consacre les « intérêts fondamentaux de la Nation » (B).
A. L’extension des règles d’exceptions
C’est une loi du 23 janvier 2006 sur le terrorisme qui avait autorisé la police et la gendarmerie à accéder au « TES passeport » et au fichier des cartes d’identité « pour les besoins de la prévention et de la répression des actes de terrorisme ». Cette loi autorisait aussi les services de renseignement à y accéder pour prévenir ces actes. Cette disposition a été appliquée par deux décrets de janvier et mars 2007, déjà cités plus tôt.
La loi du 14 mars 2011 (la même qui avait créé le TAJ) a modifié cette loi de 2006, permettant à la police et à la gendarmerie de consulter ces fichiers pour bien d’autres finalités que celles motivées par le terrorisme : atteintes à l’indépendance de la Nation, à la forme républicaine de ses institutions, aux éléments essentiels de son potentiel scientifique et économique…
La loi de programmation militaire de 2013 poursuit cette extension. La liste de finalités est entièrement remplacée par le vaste ensemble des « intérêts fondamentaux de la Nation ». Il faut attendre la loi renseignement de 2015 pour bien cerner ce que recouvrent ces « intérêts fondamentaux de la Nation », dont elle donne une liste explicite.
B. Les intérêts fondamentaux de la Nation
Cette liste se retrouve à l’article L811-3 du code de la sécurité intérieure
On y trouve des « intérêts » assez classiques, liés à la sécurité : indépendance nationale, prévention du terrorisme ou de la prolifération d’armes de destruction massive. On y trouve aussi des « intérêts » d’ordre purement politico-économiques : politique étrangère et exécution des engagements européens de la France, intérêts économiques, industriels et scientifiques. Enfin, un troisième groupe est bien plus ambigu : « atteintes à la forme républicaine des institutions » et « violences collectives de nature à porter gravement atteinte à la paix publique ».
Juste après son vote au Parlement, la loi renseignement a été examinée par le Conseil constitutionnel. Dans sa décision du 23 juillet 2015, celui-ci a défini concrètement ce à quoi renvoient certaines de ces notions. Les « violences collectives » recouvrent ainsi les « incriminations pénales définies aux articles 431-1 à 431-10 du code pénal ». Parmi ceux-ci, l’article 431-4 sanctionne le fait de « continuer volontairement à participer à un attroupement après les sommations » de se disperser. L’article 431-9 sanctionne le fait d’organiser une manifestation non-déclarée ou interdite. Pour toutes ces situations, policiers et gendarmes sont donc à présent autorisés à accéder aux photographies contenues dans le fichier TES.
IV. Le fichage des manifestants
Maintenant que toutes les briques de l’édifice sont posées, il s’agit de voir comment la police peut l’utiliser pour identifier les manifestants par reconnaissance faciale. Deux cas sont facilement envisageables – la lutte contre les attroupements (A) et contre les manifestations illégales (B) – qui nous permettent d’interroger la situation concrète du dispositif (C).
A. Fichage après sommations
Prenons un exemple concret. Une manifestation se tient dans une grande ville. La police intervient pour disperser le cortège. Elle fait deux sommations puis photographie la foule. Les personnes dont le visage est visible sur le cliché n’étaient manifestement pas en train de se disperser. Les policiers considèrent qu’il s’agit d’indices graves et concordants selon lesquels ces personnes commettent le délit défini à l’article 431-4 du code pénal, à savoir « continuer volontairement à participer à un attroupement après les sommations ». Une fiche est ouverte dans le TAJ pour chacune d’elle : leur nom est encore inconnu et la fiche ne contient donc que leur photo, accompagnée de la date et du lieu de l’événement.
La police est autorisée à utiliser des logiciels de reconnaissance faciale pour établir un lien entre la photo contenue dans le TAJ à une autre photo collectée ailleurs. Lutter contre cette infraction constitue un « intérêt fondamental de la Nation » (la prévention des violences collectives) qui permet à la police de collecter ces autres photos dans le fichier TES, où presque toute la population sera à terme fichée (au gré des renouvellements de cartes d’identité et de passeports).
Pour obtenir une photo dans le TES, il faut avoir le nom de la personne concernée. Ainsi, pour identifier les manifestants, la police techniquement peut interroger le fichier TES à partir du nom de chaque personne dont elle estime qu’elle a pu participer à la manifestation. Cette liste de noms peut être constituée de nombreuses façons : renseignements policiers en amont, groupes Facebook, personnes ayant retweeté un appel à manifester, etc. Après tout, si elle veut arriver à ses fins, la police peut directement utiliser la liste de noms des habitant⋅e⋅s d’une ville ou d’un quartier.
Une fois la liste de noms constituée, celle-ci permet à la police de réunir au sein du TES un ensemble de photographies. Chaque photo est comparée de façon automatisée aux photos ajoutées dans TAJ à l’issue de la manifestation, afin d’établir des correspondances. Chaque fois que le logiciel de comparaison faciale trouve une correspondance, les données (noms, prénoms, date de naissance, adresse, etc.) issues de la fiche TES d’une personne peuvent être transférées dans le fichier TAJ pour venir garnir la fiche du manifestant qui, jusqu’ici, était resté anonyme.
Ce processus se renforce au fur et à mesure des manifestations : dès que des participantes ont été fichés au TAJ avec leur photographie, il devient toujours plus aisé de les retrouver lors des manifestations suivantes en allant les chercher directement dans le TAJ sans plus avoir à passer par le TES.
B. Fichage des complices
Le refus de se dissiper après sommation n’est pas la seule infraction qui permet de ficher massivement les manifestants. Comme vu ci-dessus, la lutte contre l’organisation de manifestations interdites ou non-déclarées est, d’après le Conseil constitutionnel, un autre « intérêt fondamental de la Nation » qui permet de fouiller le TES. Or, tel que vu plus haut, toute personne peut être fichée au TAJ en simple qualité de complice d’un délit, et notamment de celui-ci.
Dès lors, que penser de ce qu’a déclaré Emmanuel Macron lors des mouvements sociaux de l’an dernier : « Il faut maintenant dire que lorsqu’on va dans des manifestations violentes, on est complice du pire » ? De même, que penser de ces propos de Gérard Collomb, ministre de l’Intérieur au même moment : « Il faut que les [manifestants] puissent s’opposer aux casseurs et ne pas, par leur passivité, être d’un certain point de vue, complices de ce qui se passe » ?
Ne s’agit-il pas d’autorisations données aux forces de l’ordre de considérer presque tous les manifestants comme complices de chaque manifestation partiellement interdite ou non-déclarée à laquelle ils participent ? Leur fichage massif dans le TAJ à partir du fichier TES en serait permis. Dans ce cas de figure, la police serait autorisée à chercher à identifier toutes les personnes figurant sur des photos prises au cours de manifestations.
C. Que se passe-t-il en pratique ?
Ces différents exemples illustrent le fait que le droit actuel permet déjà la généralisation de la reconnaissance faciale des manifestants. Sans contre-pouvoir effectif, difficile d’y voir clair sur les pratiques réelles des policiers et gendarmes.
Peu importe que ce fichage soit ou non déjà généralisé en pratique, il est déjà autorisé, ne serait-ce qu’en théorie, et cela de différentes façons. Dans ces conditions, difficile d’imaginer que ces techniques ne soient pas déjà au moins expérimentées sur le terrain. Difficile d’imaginer que, parmi la dizaine de drones déployés dernièrement au-dessus des manifestations, aucun n’ait jamais participé à une telle expérimentation, si tentante pour les forces de l’ordre et soumise à si peu de contrôle effectif. C’est d’autant plus probable quand on voit à quel point « l’analyse vidéo » a été présentée comme cruciale dans la répression des manifestations de l’hiver dernier (2018-2019).
De plus, la présente démonstration concerne le fichage massif des manifestants. Elle s’intéresse à l’hypothèse selon laquelle n’importe quelle personne peut faire l’objet d’un fichage policier particulièrement intrusif grâce à la reconnaissance faciale. C’est pour cette raison que nous nous sommes attardé⋅e⋅s à démontrer comment la police pouvait accéder au TES, où la quasi-totalité de la population est fichée.
Toutefois, une démonstration plus simple pourrait se limiter à la seule utilisation du TAJ, qui autorise à lui seul et depuis 2012 la reconnaissance faciale des manifestants. Certes, cette reconnaissance faciale ne concernerait alors que les personnes dont le visage est déjà contenu dans le TAJ, suite à une interaction antérieure avec la police. Mais, comme nous l’avons vu, le fichier TAJ concerne déjà une part significative de la population.
Conclusion
Les conséquences découlant du fait d’être fiché dans le TAJ en tant que « participant à une manifestation violente » sont suffisamment graves pour dissuader une large partie de la population d’exercer son droit de manifester.
L’article R40-29 du code de procédure pénal prévoit que le TAJ est consultable dans le cadre d’« enquêtes administratives » : l’administration peut vérifier qu’une personne n’y est pas fichée avant de l’embaucher dans de nombreuses fonctions publiques, pour encadrer certaines professions privées liées à la sécurité ainsi que pour délivrer ou renouveler des titres de séjour aux personnes étrangères.
Une personne raisonnable pourrait tout à fait vous déconseiller de participer à des manifestations à l’avenir. Elle vous inviterait à renoncer à ce droit fondamental : les risques sont trop importants, surtout si vous imaginez rejoindre un jour la fonction publique ou que vous n’êtes pas de nationalité française.
Une personne encore plus raisonnable vous dirait l’inverse : ce système est intolérable et il nous faut le déconstruire.
Nous venons d’envoyer au gouvernement une demande d’abrogation des dispositions du décret TAJ qui autorisent la reconnaissance faciale. Ce décret permet de recourir massivement à cette technique sans que la loi ne l’ait jamais autorisée, ce que la CNIL a récemment et clairement rappelé être illégal dans des affaires similaires. Si le gouvernement rejette notre demande, nous attaquerons le décret TAJ devant le Conseil d’État.
";s:7:"dateiso";s:15:"20191118_142003";}s:15:"20191117_110000";a:7:{s:5:"title";s:63:"[LCI] Reconnaissance faciale : peut-on vraiment y échapper ?";s:4:"link";s:95:"https://www.laquadrature.net/2019/11/17/lci-reconnaissance-faciale-peut-on-vraiment-y-echapper/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15024";s:7:"pubDate";s:31:"Sun, 17 Nov 2019 10:00:00 +0000";s:11:"description";s:224:"[…] Révolutionnaire, pour les uns. Liberticide et dangereuse, pour les autres. La reconnaissance faciale divise. Pour vous aider à y voir plus clair dans ce débat, LCI a confronté les points de vue de l’un…";s:7:"content";s:1945:"
[…] Révolutionnaire, pour les uns. Liberticide et dangereuse, pour les autres. La reconnaissance faciale divise. Pour vous aider à y voir plus clair dans ce débat, LCI a confronté les points de vue de l’un de ses partisans, Didier Baichère, député (LaREM) des Yvelines, vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, et de l’un de ses détracteurs, Martin Drago, juriste à la Quadrature du net, association de défense des droits et libertés des citoyens sur Internet. […]
Martin Drago (juriste à la Quadrature du net) : La reconnaissance faciale pose des difficultés majeures en termes de protection de la vie privée et d’exercice des libertés publiques. Qui dit « reconnaissance », dit aussi « connaissance préalable » et donc fichage. Le but de ces technologies, à terme, c’est une surveillance de masse, invisible et indolore. Il faut bien comprendre que les données biométriques ne sont pas des données personnelles comme les autres, car elle est intrinsèquement liée à votre corps. Lorsqu’on recueille vos empreintes ou votre ADN, vous le savez. Avec la reconnaissance faciale, c’est beaucoup plus insidieux. Vous ne savez pas forcément qu’une caméra vous filme et compare votre visage à une base de données. […]
";s:7:"dateiso";s:15:"20191117_110000";}s:15:"20191116_110000";a:7:{s:5:"title";s:111:"[LesEchos] Le fisc pourrait automatiser la surveillance des réseaux sociaux avec l’intelligence artificielle";s:4:"link";s:146:"https://www.laquadrature.net/2019/11/16/lesechos-le-fisc-pourrait-automatiser-la-surveillance-des-reseaux-sociaux-avec-lintelligence-artificielle/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15025";s:7:"pubDate";s:31:"Sat, 16 Nov 2019 10:00:00 +0000";s:11:"description";s:299:"Un article du Projet de loi finances 2020 prévoit que l’administration fiscale puisse être capable d’analyser automatiquement les données publiques sur les réseaux sociaux pour détecter d’éventuelles fraudes. […]
La Cnil (Commission nationale de l’informatique et des…";s:7:"content";s:1756:"
Un article du Projet de loi finances 2020 prévoit que l’administration fiscale puisse être capable d’analyser automatiquement les données publiques sur les réseaux sociaux pour détecter d’éventuelles fraudes. […]
La Cnil (Commission nationale de l’informatique et des libertés) avait rendu un avis sévère, mais non contraignant, sur ce projet, s’inquiétant d’un « changement d’échelle significatif » : « La seule circonstance que les données soient accessibles sur internet […] ne suffit pas pour que les administrations qui souhaitent les exploiter soient exonérées de l’obligation de collecter ces données de manière loyale et licite ». Des préoccupations concernant de possibles atteintes à la vie privée ont aussi été émises par l’association La Quadrature du net : « L’outil [que le gouvernement] envisage est disproportionné, avec les risques d’atteintes à nos droits et libertés qui s’en suivent. » […]
";s:7:"dateiso";s:15:"20191116_110000";}s:15:"20191114_110000";a:7:{s:5:"title";s:54:"[korii.] À Lyon, la reconnaissance faciale en procès";s:4:"link";s:89:"https://www.laquadrature.net/2019/11/14/korii-a-lyon-la-reconnaissance-faciale-en-proces/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15026";s:7:"pubDate";s:31:"Thu, 14 Nov 2019 10:00:00 +0000";s:11:"description";s:248:"Oui, il est possible d’utiliser la reconnaissance faciale depuis le décret de 2012. Mais est-ce pour autant recevable? Arthur Messaud, de La Quadrature du net, soulève plusieurs problèmes. « Avec le TAJ, les citoyens ne savent…";s:7:"content";s:1848:"
Oui, il est possible d’utiliser la reconnaissance faciale depuis le décret de 2012. Mais est-ce pour autant recevable? Arthur Messaud, de La Quadrature du net, soulève plusieurs problèmes. « Avec le TAJ, les citoyens ne savent souvent pas s’ils sont fichés. » Jusqu’à ce qu’ils soient arrêtés ou qu’on leur refuse un poste dans l’administration ou le renouvellement d’une carte de séjour. Un élément également avancé par Hervé Banbanaste, qui dénonce un problème de liberté individuelle en citant l’article 8 de la Convention européenne des droits de l’homme.
« La question ici est celle de la recevabilité de la preuve », souligne Arthur Messaud. « À partir des deux photos, c’est au juge de dire s’il s’agit de la même personne. » Pour le membre de La Quadrature du net, le Règlement européen sur la protection des données (RGPD) indique bien que, par défaut, l’utilisation des données biométriques n’est pas autorisée. Et si elle l’est, il faut que son usage soit proportionné. […]
";s:7:"dateiso";s:15:"20191114_110000";}s:15:"20191113_110000";a:7:{s:5:"title";s:84:"[FranceCulture] Projet d’article 57 : les prémices d’une surveillance de masse";s:4:"link";s:113:"https://www.laquadrature.net/2019/11/13/franceculture-projet-darticle-57-les-premices-dune-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15027";s:7:"pubDate";s:31:"Wed, 13 Nov 2019 10:00:00 +0000";s:11:"description";s:257:"[…] La Quadrature du Net alerte sur les risques d’une surveillance de masse en France. L’association vient de lancer un appel et demande au gouvernement de renoncer à l’article 57 du Projet de loi de finances 2020. Cet…";s:7:"content";s:1945:"
[…] La Quadrature du Net alerte sur les risques d’une surveillance de masse en France. L’association vient de lancer un appel et demande au gouvernement de renoncer à l’article 57 du Projet de loi de finances 2020. Cet article 57 permettra à l’administration fiscale et aux douanes de surveiller en masse les réseaux sociaux pour lutter contre la fraude fiscale. L’article prévoit une collecte généralisée de toutes les données personnelles disponibles sur les plateformes – puis de les analyser via une intelligence artificielle. En août, la CNIL – La Commission Nationale de l’Informatique et des Libertés – avertissait déjà des risques d’atteinte au droit à la vie privée et au droit à la liberté d’expression.
Interview avec Arthur Messaud est juriste à la Quadrature du Net […]
";s:7:"dateiso";s:15:"20191113_110000";}s:15:"20191112_110000";a:7:{s:5:"title";s:65:"[RFI] Reconnaissance faciale, sécurité ou liberté en danger ?";s:4:"link";s:97:"https://www.laquadrature.net/2019/11/12/rfi-reconnaissance-faciale-securite-ou-liberte-en-danger/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15028";s:7:"pubDate";s:31:"Tue, 12 Nov 2019 10:00:00 +0000";s:11:"description";s:312:"[…] La reconnaissance faciale fait déjà partie du quotidien de nombreuses personnes, ne serait-ce que débloquer son téléphone, mais les expériences se multiplient pour d’autres usages : l’identification pour accéder aux sites internet administratifs, pour embarquer dans…";s:7:"content";s:1919:"
[…] La reconnaissance faciale fait déjà partie du quotidien de nombreuses personnes, ne serait-ce que débloquer son téléphone, mais les expériences se multiplient pour d’autres usages : l’identification pour accéder aux sites internet administratifs, pour embarquer dans un avion, mais aussi pour des raisons de sécurité dans l’espace public ou comme en Chine pour mettre en place un outil de contrôle social. Et c’est cela qui inquiète, au point que certaines villes américaines ont interdit l’utilisation par leur forces de sécurité. Reconnaissance faciale, sécurité ou liberté en danger ? C’est la question du jour.
Pour en débattre :
Benoit Piédallu, membre de la Quadrature du Net
Didier Baichère, député (LRM) des Yvelines, vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques.
";s:7:"dateiso";s:15:"20191112_110000";}s:15:"20191108_130000";a:7:{s:5:"title";s:158:"[20Minutes] Reconnaissance faciale : « C’est un outil de surveillance de masse qui va déshumaniser les rapports sociaux », estime la Quadrature du Net";s:4:"link";s:181:"https://www.laquadrature.net/2019/11/08/20minutes-reconnaissance-faciale-cest-un-outil-de-surveillance-de-masse-qui-va-deshumaniser-les-rapports-sociaux-estime-la-quadrature-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15014";s:7:"pubDate";s:31:"Fri, 08 Nov 2019 12:00:00 +0000";s:11:"description";s:284:"INTERVIEW. Benjamin Sonntag, co-fondateur de la Quadrature du Net, explique à « 20 Minutes » pourquoi la mise en place de dispositifs de reconnaissance faciale un peu partout en France peut s’avérer très dangereuse pour les citoyens. […]
« Les…";s:7:"content";s:1523:"
INTERVIEW. Benjamin Sonntag, co-fondateur de la Quadrature du Net, explique à « 20 Minutes » pourquoi la mise en place de dispositifs de reconnaissance faciale un peu partout en France peut s’avérer très dangereuse pour les citoyens. […]
« Les dispositifs de reconnaissance faciale sont surtout un outil de surveillance de masse, de surveillance généralisée à la Big Brother. Ils exploitent votre visage – quelque chose que vous ne pouvez pas cacher – ce qui fait que vous êtes surveillé constamment dans l’espace public, sans pouvoir vous y opposer. Ces technologies biométriques augurent un réel changement de paradigme dans l’histoire de la surveillance. Ce sont des dispositifs totalement disproportionnés et liberticides… » […]
";s:7:"dateiso";s:15:"20191108_130000";}s:15:"20191108_120000";a:7:{s:5:"title";s:64:"[RFI] La France entre dans l’ère de la reconnaissance faciale";s:4:"link";s:99:"https://www.laquadrature.net/2019/11/08/rfi-la-france-entre-dans-lere-de-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15015";s:7:"pubDate";s:31:"Fri, 08 Nov 2019 11:00:00 +0000";s:11:"description";s:255:"La France veut devenir le premier pays européen à utiliser la reconnaissance faciale. La Commission nationale de l’informatique et des libertés a jugé illégale la demande effectuée par la Région Sud de l’utiliser dans différents…";s:7:"content";s:1372:"
La France veut devenir le premier pays européen à utiliser la reconnaissance faciale. La Commission nationale de l’informatique et des libertés a jugé illégale la demande effectuée par la Région Sud de l’utiliser dans différents lycées, mais le ministère de l’Intérieur teste déjà une application appelée Alicem pour Authentification en ligne certifiée sur mobile. […]
";s:7:"dateiso";s:15:"20191108_120000";}s:15:"20191108_110000";a:7:{s:5:"title";s:95:"[Telerama] Des micros dans la rue : la CNIL tire les oreilles (intelligentes) de Saint-Etienne";s:4:"link";s:129:"https://www.laquadrature.net/2019/11/08/telerama-des-micros-dans-la-rue-la-cnil-tire-les-oreilles-intelligentes-de-saint-etienne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15016";s:7:"pubDate";s:31:"Fri, 08 Nov 2019 10:00:00 +0000";s:11:"description";s:257:"Le gendarme des données personnelles a adressé un avertissement à la métropole de la Loire, qui a développé un système d’écoute dans l’espace public. […]
En cause ? Un dispositif de captation et d’analyse des sons que la…";s:7:"content";s:2002:"
Le gendarme des données personnelles a adressé un avertissement à la métropole de la Loire, qui a développé un système d’écoute dans l’espace public. […]
En cause ? Un dispositif de captation et d’analyse des sons que la mairie envisage de déployer sur la voie publique. Révélée en mars dernier par Le Parisien, cette expérimentation inédite en France consiste en l’installation d’une cinquantaine de micros « pas plus gros qu’une pièce de deux euros », à l’affût du moindre bruit suspect, qu’il s’agisse de cris, de verre brisé, de klaxons, de crépitements ou de coups de feu (la Quadrature du Net dresse une liste exhaustive ici). Une fois enregistrés, ceux-ci sont passés à la moulinette d’un algorithme qui les compare avec « l’un des modèles préenregistrés dans la mémoire du nano-ordinateur embarqué dans le boîtier », détaille encore la CNIL dans sa lettre courroucée. […]
";s:7:"dateiso";s:15:"20191108_110000";}s:15:"20191107_130000";a:7:{s:5:"title";s:69:"[FranceInter] L’intelligence artificielle est-elle notre ennemie ?";s:4:"link";s:102:"https://www.laquadrature.net/2019/11/07/franceinter-lintelligence-artificielle-est-elle-notre-ennemie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15011";s:7:"pubDate";s:31:"Thu, 07 Nov 2019 12:00:00 +0000";s:11:"description";s:248:"Mardi, la CNIL a fait savoir qu’elle s’opposait à la mise en place de systèmes de reconnaissance faciale dans les lycées. C’est indéniable : les algorithmes font partie de nos vies. Mais sont-ils compatibles avec l’éthique,…";s:7:"content";s:1931:"
Mardi, la CNIL a fait savoir qu’elle s’opposait à la mise en place de systèmes de reconnaissance faciale dans les lycées. C’est indéniable : les algorithmes font partie de nos vies. Mais sont-ils compatibles avec l’éthique, avec nos libertés ? […]
L’intelligence artificielle a quelque chose de fascinant, mais aussi quelque part, de dangereux. Comment peut-on concilier ces technologies nouvelles avec les libertés individuelles ? Jusqu’où ces algorithmes vont-ils s’infiltrer dans notre quotidien ? Faut-il réguler l’IA ? Est-ce vraiment possible ?
Les invités
Arthur Messaud Juriste pour la Quadrature du Net (association de défense des droits et libertés fondamentales à l’ère du numérique)
Laurence Devillers Chercheuse au CNRS et maître de Conférences HDR en informatique
";s:7:"dateiso";s:15:"20191107_130000";}s:15:"20191107_120000";a:7:{s:5:"title";s:85:"[FrenchWeb] [DECODE] Reconnaissance faciale: une technologie qui vous veut du bien ?";s:4:"link";s:118:"https://www.laquadrature.net/2019/11/07/frenchweb-decode-reconnaissance-faciale-une-technologie-qui-vous-veut-du-bien/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15012";s:7:"pubDate";s:31:"Thu, 07 Nov 2019 11:00:00 +0000";s:11:"description";s:243:"Le gouvernement français compte s’emparer très rapidement de la reconnaissance faciale. Il teste en ce moment l’application Alicem qui permettra à chaque citoyen de se créer une identité numérique en ligne en passant par cette…";s:7:"content";s:1240:"
Le gouvernement français compte s’emparer très rapidement de la reconnaissance faciale. Il teste en ce moment l’application Alicem qui permettra à chaque citoyen de se créer une identité numérique en ligne en passant par cette technologie. Que faut-il savoir sur Alicem ? Et où en est-on réellement en France vis-à-vis de l’utilisation de la reconnaissance faciale ?
Décryptage avec Martin Drago, chargé d’analyses juridiques et politique pour La Quadrature du Net, l’association de défense des droits et libertés des citoyens sur Internet, et Guillaume Vassault-Houlière, CEO de la plateforme de bug bounty Yes We Hack. […]
";s:7:"dateiso";s:15:"20191107_120000";}s:15:"20191107_110000";a:7:{s:5:"title";s:109:"[BFM/RMC] ‘Une arnaque totale !’ : la Cnil retoque un projet de reconnaissance faciale dans les lycées";s:4:"link";s:135:"https://www.laquadrature.net/2019/11/07/bfm-rmc-une-arnaque-totale-la-cnil-retoque-un-projet-de-reconnaissance-faciale-dans-les-lycees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15013";s:7:"pubDate";s:31:"Thu, 07 Nov 2019 10:00:00 +0000";s:11:"description";s:270:"La Cnil a jugé illégale la mise en place de portiques de reconnaissance faciale dans les lycées, destinés à empêcher les intrusions et les usurpations d’identité. […]
Une victoire pour Arthur Messaud, juriste au sein de l’association…";s:7:"content";s:1684:"
La Cnil a jugé illégale la mise en place de portiques de reconnaissance faciale dans les lycées, destinés à empêcher les intrusions et les usurpations d’identité. […]
Une victoire pour Arthur Messaud, juriste au sein de l’association « La quadrature du Net », qui défend les droits et libertés sur internet: « Ce qui nous peine le plus c’est de voir que les enfants sont instrumentalisés pour rendre acceptable une technologie parce qu’on prétend que c’est pour les protéger et que la technologie est pour les plus faibles« . […]
";s:7:"dateiso";s:15:"20191107_110000";}s:15:"20191106_130000";a:7:{s:5:"title";s:149:"[FranceInfo] Reconnaissance faciale : ‘Il va falloir qu’on arrête de considérer les citoyens comme des cobayes’, estime La Quadrature du Net";s:4:"link";s:173:"https://www.laquadrature.net/2019/11/06/franceinfo-reconnaissance-faciale-il-va-falloir-quon-arrete-de-considerer-les-citoyens-comme-des-cobayes-estime-la-quadrature-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15008";s:7:"pubDate";s:31:"Wed, 06 Nov 2019 12:00:00 +0000";s:11:"description";s:254:"La Cnil s’oppose à l’expérimentation du dispositif dans deux lycées à Nice et Marseille. Benoît Piedallu, membre de La Quadrature du Net juge que « cette technologie est inacceptable dans notre champ politique » et « ne doit…";s:7:"content";s:2206:"
La Cnil s’oppose à l’expérimentation du dispositif dans deux lycées à Nice et Marseille. Benoît Piedallu, membre de La Quadrature du Net juge que « cette technologie est inacceptable dans notre champ politique » et « ne doit pas être utilisée« . […]
La reconaissance faciale à l’entrée des lycées porte une atteinte trop grande à la vie privée selon la Cnil, le gendarme français des données personnelles, qui s’oppose mercredi 30 octobre à une expérimentation qui devait avoir lieu dans deux lycées de la région Paca, à Nice et à Marseille. « Il va falloir qu’on arrête de considérer les citoyens comme des cobayes« , estime mercredi 30 octobre sur franceinfo Benoît Piedallu, membre de la Quadrature du Net, l’une des associations qui ont formé un recours contre ce dispositif. […]
";s:7:"dateiso";s:15:"20191106_130000";}s:15:"20191106_120000";a:7:{s:5:"title";s:62:"[Usbek&Rica] Données biométriques : menace ou sécurité ?";s:4:"link";s:90:"https://www.laquadrature.net/2019/11/06/usbekrica-donnees-biometriques-menace-ou-securite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15009";s:7:"pubDate";s:31:"Wed, 06 Nov 2019 11:00:00 +0000";s:11:"description";s:307:"Reconnaissance faciale, empreinte digitale, reconnaissance vocale… Quels risques représentent vraiment les données biométriques ? Comment les prévenir ? Et la biométrie pourrait-elle être utilisée à des fins de sécurité dans un cadre protégé ? À l’occasion des Assises…";s:7:"content";s:1904:"
Reconnaissance faciale, empreinte digitale, reconnaissance vocale… Quels risques représentent vraiment les données biométriques ? Comment les prévenir ? Et la biométrie pourrait-elle être utilisée à des fins de sécurité dans un cadre protégé ? À l’occasion des Assises de la Sécurité, rendez-vous annuel des experts de la cybersécurité qui s’est tenu du 9 au 12 octobre à Monaco, nous avons tenté de faire le point sur le sujet. […]
Une réflexion d’autant plus cruciale que se pose aussi la question de l’efficacité-même des dispositifs biométriques. Dans une tribune publiée dans Le Monde, le juriste Martin Drago et le chercheur Félix Tréguer, s’inquiètent ainsi d’un manque de prise de recul sur le sujet, et de garanties encore « illusoires ». « En dépit de leurs effets politiques délétères, ces coûteuses machines seront incapables d’apporter la sécurité vantée par leurs promoteurs, écrivent-ils. Les milliards d’euros dépensés depuis plus de vingt ans au nom du “solutionnisme technologique” en vogue dans les milieux de la sécurité devraient là encore nous en convaincre : la technologie s’est avérée inopérante pour enrayer les formes de violence qui traversent nos sociétés. » […]
";s:7:"dateiso";s:15:"20191106_120000";}s:15:"20191105_130000";a:7:{s:5:"title";s:60:"[FranceCulture] Jusqu’où ira la reconnaissance faciale ?";s:4:"link";s:92:"https://www.laquadrature.net/2019/11/05/franceculture-jusquou-ira-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15002";s:7:"pubDate";s:31:"Tue, 05 Nov 2019 12:00:00 +0000";s:11:"description";s:306:"#ReconnaissanceFacialePourLeMeilleurOuPourLePire |C’est une technologie déjà omniprésente en Chine. Là-bas, la reconnaissance faciale permet de payer, d’ouvrir des portes à l’hôtel mais aussi de verbaliser les piétons qui traversent au feu rouge. En France, le système…";s:7:"content";s:1866:"
#ReconnaissanceFacialePourLeMeilleurOuPourLePire |C’est une technologie déjà omniprésente en Chine. Là-bas, la reconnaissance faciale permet de payer, d’ouvrir des portes à l’hôtel mais aussi de verbaliser les piétons qui traversent au feu rouge. En France, le système s’implante petit à petit et suscite de nombreuses interrogations. […]
La Quadrature du Net a par ailleurs aussi exercé un recours devant le juge administratif contre l’expérimentation d’un portique à reconnaissance faciale souhaitée dans deux lycées de Marseille et Nice. Martin Drago, juriste à la Quadrature juge la technologie « trop attentatoire à nos libertés« , « dangereuse » car « basée sur notre corps, notre visage« . […]
";s:7:"dateiso";s:15:"20191105_130000";}s:15:"20191105_120000";a:7:{s:5:"title";s:87:"[Mediapart] La Cnil juge illégale la reconnaissance faciale à l’entrée des lycées";s:4:"link";s:119:"https://www.laquadrature.net/2019/11/05/mediapart-la-cnil-juge-illegale-la-reconnaissance-faciale-a-lentree-des-lycees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15003";s:7:"pubDate";s:31:"Tue, 05 Nov 2019 11:00:00 +0000";s:11:"description";s:255:"La Région Sud avait demandé à la Cnil d’analyser son projet d’installation de dispositifs biométriques à l’entrée de deux lycées situés à Nice et à Marseille. « Ce dispositif ne saurait être légalement mis en œuvre »,…";s:7:"content";s:1444:"
La Région Sud avait demandé à la Cnil d’analyser son projet d’installation de dispositifs biométriques à l’entrée de deux lycées situés à Nice et à Marseille. « Ce dispositif ne saurait être légalement mis en œuvre », affirme la Commission dans sa réponse, obtenue par Mediapart. […]
Contacté par Mediapart, Martin Drago, de la Quadrature du Net, fait part de sa satisfaction. « C’est une très bonne analyse très large et contraignante de la Cnil, se réjouit-il. Mais on peut souligner qu’elle ne fait que rappeler les dispositions du RGPD et de la loi de 1978 et que cela fait des mois que nous avançons ces mêmes arguments sans succès. Cependant, la Cnil fait son travail et on ne peut que s’en réjouir. » […]
";s:7:"dateiso";s:15:"20191105_120000";}s:15:"20191105_113404";a:7:{s:5:"title";s:64:"Le Parlement doit rejeter le flicage fiscal des réseaux sociaux";s:4:"link";s:104:"https://www.laquadrature.net/2019/11/05/le-parlement-doit-rejeter-le-flicage-fiscal-des-reseaux-sociaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14986";s:7:"pubDate";s:31:"Tue, 05 Nov 2019 10:34:04 +0000";s:11:"description";s:244:"Le gouvernement, à travers l’article 57 du projet de loi de finances pour 2020 (PLF2020), veut permettre à l’administration fiscale et aux douanes de surveiller les plateformes Internet. Le texte est encore en discussion à…";s:7:"content";s:12567:"
Le gouvernement, à travers l’article 57 du projet de loi de finances pour 2020 (PLF2020), veut permettre à l’administration fiscale et aux douanes de surveiller les plateformes Internet. Le texte est encore en discussion à l’Assemblée nationale mais cet article 57 doit être rejeté en bloc. Auditionné·es la semaine dernière à ce sujet par le rapporteur (Philippe Latombe, groupe MoDem) de la commission des lois, saisie pour avis, nous avons demandé la suppression de cet article. Notre appel n’a pas été entendu et nous le déplorons fortement. Désormais, nous appelons l’ensemble des député·es à supprimer cet article.
Ce que prévoit l’article 57 du PLF2020
L’article 57 du PLF2020 devrait permettre, en l’état actuel des discussions parlementaires, de surveiller les plateformes sur Internet (sites de e-commerce et réseaux sociaux) afin de lutter contre la fraude fiscale. Sont visés de très nombreux délits, listés de manière exhaustive par l’article de loi dont, par exemple, le fait d’omettre des éléments pour minorer son impôt, ou encore la vente illicite de produits comme le tabac. Le gouvernement veut ainsi autoriser l’administration fiscale et les douanes à collecter toutes les informations publiquement accessibles sur les plateformes en ligne, pour ensuite les faire analyser par leurs algorithmes.
La CNIL, saisie en urgence en août, a rendu un avis particulièrement critique, estimant que le texte comporte d’importants risques d’atteinte disproportionnée aux droits et libertés dont le droit à la vie privée et le droit à la liberté d’expression. Nous partageons ses craintes et sommes encore plus explicites : ces risques ne peuvent être évités d’aucune autre façon qu’en rejetant ce texte. Le gouvernement explique lui-même dans l’exposé des motifs de la loi que les données publiquement accessibles des sites web visés seront collectées « en masse » et analysées par l’administration. Cela signifie que la totalité des internautes utilisant ces sites seront potentiellement concerné·es, peu importe leur nationalité, peu importe la nature des propos tenus, peu importe que les propos aient été retirés de la place publique ensuite, peu importe l’utilité et la pertinence des données collectées. Cela signifie également que l’administration traitera des données sensibles, y compris celles pouvant révéler une opinion politique, philosophique ou religieuse, y compris des propos relatifs à l’orientation sexuelle des personnes, y compris des propos mis par erreur sur la place publique. Il est inévitable que d’une telle surveillance résultera une auto-censure. Également, puisque l’administration pourra traiter des données privées qui n’ont pas été rendues publiques par les personnes directement concernées, l’atteinte au droit à la vie privée sera massive. Ce que dira votre voisin·e pourra être retenu contre vous.
Il s’agit ici de prendre un bazooka pour tuer une mouche. Les types de délits sont précis — bien que trop nombreux — mais, pour cela, le gouvernement sort la grosse artillerie. L’outil qu’il envisage est disproportionné, avec les risques d’atteintes à nos droits et libertés qui s’en suivent.
Certes, la lutte contre la fraude fiscale est légitime et reconnue par le Conseil constitutionnel comme un objectif de valeur constitutionnelle. À ce titre, il est juridiquement possible d’admettre certaines atteintes aux droits et libertés pour poursuivre un tel objectif. Mais ce que nous propose le gouvernement est contraire à la Constitution, au droit de l’Union européenne et au droit de la CEDH. Au-delà du juridique, accepter ce texte serait une grave faute morale : il n’est pas admissible, dans une démocratie, d’accepter de surveiller toute une population pour retrouver, éventuellement, quelques fraudeur·euses.
Rejeter ce texte n’est pas un cadeau aux fraudeur·euses
Le gouvernement veut nous faire croire que cet article de loi lui permettra de découvrir des fraudeur·ses jusqu’alors inconnu·es de l’administration fiscale et douanière. Pourtant, l’exposé des motifs est laconique. Aucun chiffre, aucune évaluation. Le gouvernement est bien incapable d’estimer les effets positifs de sa mesure.
Les gains en efficacité pourraient donc être nuls, l’administration pouvant déjà faire ce travail de lutte contre la fraude fiscale correctement. Ce qui est envisagé dans le PLF2020 est déjà fait manuellement : les fonctionnaires du fisc et des douanes scrutent déjà les fraudeur·euses sur internet, manuellement, au cas par cas, et dans le respect des droits et libertés. Une analyse humaine permet de préserver la qualité de la collecte et le respect des droits de chacun·e. L’automatisation d’un tel travail risque simplement d’augmenter les faux positifs à vérifier et de détourner l’administration de sa mission concrète.
Il serait désastreux, dans un contexte de réduction drastique des effectifs chargés de la lutte contre la fraude fiscale, de laisser croire au législateur et à l’opinion publique que la surveillance généralisée et automatisée, confiée à des algorithmes approximatifs et grossiers, peut remplacer le savoir-faire de contrôleur·ses expérimenté·es.
En outre, la loi du 23 octobre 2018 de lutte contre la fraude impose déjà aux plateformes de e-commerce de transmettre au fisc et aux douanes des données relatives à l’activité commerciale des utilisateur·rices. Ces données sont limitées, contrairement au système de surveillance que veut imposer le gouvernement. Pourtant, cette loi de 2018 comportait déjà d’importants risques pour les libertés fondamentales : plutôt que de l’évaluer convenablement, d’en mesurer les risques et les bénéfices afin, éventuellement, de la remettre en cause, le gouvernement s’empresse d’y ajouter un système inutile et encore plus dangereux. Le Parlement doit s’opposer à cet empressement absurde.
La commission des lois n’a pas fait son travail
Le rapporteur de l’article 57 pour la commission des lois, Philippe Latombe, a rendu un avis le 28 octobre 2019 dans lequel il recommandait à la commission la suppression de cet article. Pour lui, l’atteinte aux droits et libertés était disproportionnée à l’objectif poursuivi. C’était également son discours la semaine dernière lorsqu’il nous a reçu·es.
Mais, devant ses collègues de la commission des lois, changement de ton : certes, le texte est toujours une atteinte disproportionnée, mais il n’était désormais plus question de le supprimer. Le rapporteur a retiré son amendement de suppression et donné un avis défavorable à celui, identique, de ses collègues du groupe LR. Il a appelé, à travers des amendements presque tous rejetés, à augmenter l’encadrement de cette surveillance, sans s’y opposer par principe.
Le rapporteur l’avait annoncé au début de la séance de la commission des lois : s’il n’est pas possible de mieux encadrer le texte lors des travaux de sa commission, il proposera un amendement de suppression pour la séance en hémicycle. Nous attendons donc désormais des actes : non seulement cet article existe toujours dans l’avis de la commission des lois, mais les quelques modifications apportées ne changeront rien à la gravité des atteintes aux droits et libertés.
Dans l’avis de la commission des lois, les données inutiles (et potentiellement sensibles car relatives aux opinions politiques, religieuses, philosophiques, à l’orientation sexuelle, etc.) sont toujours conservées 30 jours alors que l’administration n’a pas le droit de les collecter. Les données rendues publiques par d’autres personnes que celles concernées sont toujours exploitables. L’intelligence artificielle (alors même que ses résultats ne sont pas reproductibles car fortement dépendants de la manière dont l’algorithme a été entraîné) est toujours permise, et même envisagée si l’on en croit la majorité présidentielle. Les personnes trouvées par l’algorithme ne sont toujours pas notifiées. L’administration n’est toujours pas soumise à un contrôle extérieur de sa manière de collecter et de traiter les données. L’algorithme utilisé n’est toujours pas transparent.
Mais il importe probablement assez peu que toutes ces choses ne soient pas corrigées : c’est le principe même de cet article qu’il faut rejeter. Il est présenté comme une « expérimentation » dont le but est d’évaluer les risques et bénéfices de la pratique qu’il autorise. En vérité, il ne s’agit en rien d’une expérimentation : déployée pendant 3 ans sur l’ensemble du territoire et des sites concernés, contre toute la population, il s’agit d’une pure et simple autorisation. Un blanc-seing donné avant toute évaluation concrète, et donc toute discussion possible — l’inverse de la logique du RGPD et du débat démocratique. La commission des lois aurait dû rejeter le texte pour cette seule raison.
Elle a seulement proposé, dans son avis, de limiter cette surveillance aux sites de e-commerce, alors qu’étaient auparavant également visés les réseaux sociaux. Cette limitation est largement insuffisante puisque l’objectif du gouvernement est de surveiller les communications publiques. La suppression de l’article est la seule issue satisfaisante.
Les discussions en commission des lois ont montré un groupe MoDem sans aucun courage et un groupe LaREM hostile à tout encadrement. Le groupe présidentiel veut imposer coûte que coûte cette surveillance de masse. La stratégie du rapporteur en commission des lois était surprenante, puisqu’il relevait lui-même dans son rapport les risques d’absence de conformité à la Constitution, au droit de l’Union européenne, et à la CEDH. Nous attendons que, face à ce blocage du groupe LaREM en commission des lois, le rapporteur et son groupe MoDem actent de l’impossibilité d’encadrer cet article et proposent la suppression de l’article 57 du PLF2020.
C’est désormais au tour de la commission des finances d’étudier cet article. La commission des lois a été incapable de comprendre l’erreur que serait l’adoption de cet article. Nous appelons la commission des finances à le supprimer.
L’écoute des plateformes reste un outil de surveillance de masse. Autoriser son utilisation pour lutter contre la fraude fiscale n’est que la première étape d’un plan de surveillance globale de la population. Demain, cette méthode pourrait être utilisée pour repérer la fraude aux allocations, pour identifier des résidents étrangers ou encore faire du fichage politique — si ce n’est pas déjà le cas.
";s:7:"dateiso";s:15:"20191105_113404";}s:15:"20191105_110000";a:7:{s:5:"title";s:112:"[Marianne] Lancement de la reconnaissance faciale en France : mais qu’allons-nous faire dans cette galère ?";s:4:"link";s:141:"https://www.laquadrature.net/2019/11/05/marianne-lancement-de-la-reconnaissance-faciale-en-france-mais-quallons-nous-faire-dans-cette-galere/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=15004";s:7:"pubDate";s:31:"Tue, 05 Nov 2019 10:00:00 +0000";s:11:"description";s:266:"Alicem, le projet d’identification par reconnaissance faciale de l’Etat français, est attendu dans les mois à venir. Curieux, que la France se porte à la pointe d’une telle technologie tandis qu’en Californie, par exemple, plusieurs…";s:7:"content";s:2002:"
Alicem, le projet d’identification par reconnaissance faciale de l’Etat français, est attendu dans les mois à venir. Curieux, que la France se porte à la pointe d’une telle technologie tandis qu’en Californie, par exemple, plusieurs villes interdisent déjà son usage par les services publics au nom des libertés civiles… […]
Encore en phase de test, Alicem attise déjà les inquiétudes. Le 15 juillet, La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler le dispositif. L’association de défense des libertés sur Internet s’alarme du traitement des données biométriques (c’est-à-dire des caractéristiques physiques propres à un individu) « ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat« . Avant même la publication du décret introduisant Alicem, en octobre, la Commission nationale de l’informatique et des libertés (Cnil) avait elle aussi rendu un avis sceptique, s’alarmant déjà de l’absence d’alternative à l’identification par reconnaissance faciale sur le portail. Une telle mise en œuvre, prévenait la Cnil, serait non-conforme au règlement européen de protection des données (RGPD), entré en application en mai 2018. […]
";s:7:"dateiso";s:15:"20191105_110000";}s:15:"20191104_130000";a:7:{s:5:"title";s:64:"[France24] Reconnaissance faciale : la résistance s’organise";s:4:"link";s:96:"https://www.laquadrature.net/2019/11/04/france24-reconnaissance-faciale-la-resistance-sorganise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14980";s:7:"pubDate";s:31:"Mon, 04 Nov 2019 12:00:00 +0000";s:11:"description";s:227:"Vous connecter aux impôts, à la sécurité sociale ou encore à la caisse de retraite grâce à votre visage : en France, ce sera possible dès janvier 2020. Une première en Europe. Mais la reconnaissance faciale…";s:7:"content";s:1589:"
Vous connecter aux impôts, à la sécurité sociale ou encore à la caisse de retraite grâce à votre visage : en France, ce sera possible dès janvier 2020. Une première en Europe. Mais la reconnaissance faciale n’est pas du goût du tout le monde. De Paris à Hong Kong, en passant par San Francisco, associations, artistes et startups organisent la résistance. Quadrature du Net dénonce notamment une banalisation du recours à l’identification faciale. Son juriste, Martin Drago, nous en dit plus. […]
";s:7:"dateiso";s:15:"20191104_130000";}s:15:"20191104_120000";a:7:{s:5:"title";s:88:"[DigitalSociety] « La défense du projet émancipateur lié à Internet a échoué »";s:4:"link";s:113:"https://www.laquadrature.net/2019/11/04/digitalsociety-la-defense-du-projet-emancipateur-lie-a-internet-a-echoue/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14981";s:7:"pubDate";s:31:"Mon, 04 Nov 2019 11:00:00 +0000";s:11:"description";s:269:"Chercheur et militant, Félix Tréguer a longtemps cru dur comme fer aux pouvoirs émancipateurs de l’Internet. Aujourd’hui, l’enthousiaste des années 2000 est devenu technocritique. Pour comprendre comment le médium de tous les possibles des années…";s:7:"content";s:1108:"
Chercheur et militant, Félix Tréguer a longtemps cru dur comme fer aux pouvoirs émancipateurs de l’Internet. Aujourd’hui, l’enthousiaste des années 2000 est devenu technocritique. Pour comprendre comment le médium de tous les possibles des années 1990 est devenu si intrinsèquement lié à la surveillance, il a adopté une démarche d’historien. Il en a tiré une thèse et un ouvrage passionnant, L’Utopie déchue : une contre-histoire d’Internet (Fayard). Entretien. […]
";s:7:"dateiso";s:15:"20191104_120000";}s:15:"20191028_210057";a:7:{s:5:"title";s:77:"Lycées Nice Marseille : première victoire contre la reconnaissance faciale";s:4:"link";s:113:"https://www.laquadrature.net/2019/10/28/lycees-nice-marseille-premiere-victoire-contre-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14972";s:7:"pubDate";s:31:"Mon, 28 Oct 2019 20:00:57 +0000";s:11:"description";s:223:"La CNIL vient de rendre un avis déclarant que le système de reconnaissance faciale dans deux lycées de la région Sud « ne saurait être légalement mis en œuvre ». La CNIL ne propose pas de correctif…";s:7:"content";s:8813:"
La CNIL vient de rendre un avis déclarant que le système de reconnaissance faciale dans deux lycées de la région Sud « ne saurait être légalement mis en œuvre ». La CNIL ne propose pas de correctif et rejette par principe le dispositif. Cette première victoire contre la reconnaissance faciale en France ne peut que nous rendre optimistes dans la lutte qui nous oppose aux systèmes déjà existants (comme la reconnaissance faciale dans les aéroports via PARAFE) ou futurs (l’application d’identité numérique Alicem).
Nous en parlions encore la semaine dernière : en décembre 2018, le conseil de la région Sud a autorisé une expérimentation pour installer des portiques de reconnaissance faciale dans deux lycées, Les Eucalyptus à Nice et Ampère à Marseille. Cette expérimentation est entièrement financée par l’entreprise américaine Cisco qui profite ici de la politique sécuritaire des élus locaux pour tester ses technologies de surveillance sur les lycéens de l’établissement. L’objectif affiché par le conseil régional, et en particulier par son président Christian Estrosi, était d’étendre, au terme de cette expérimentation, ce dispositif à l’ensemble des lycées de la région.
En février 2019, La Quadrature du Net, la Ligue des Droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes ont déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de cette délibération. Les arguments s’appuient essentiellement sur le règlement général sur la protection des données personnelles (RGPD) : absence d’analyse d’impact en amont du processus, absence de cadre juridique à la reconnaissance faciale, traitement des données biométriques manifestement disproportionné par rapport à l’objectif poursuivi…
C’est ce dernier argument qu’a repris la CNIL dans le cinglant avis qu’elle a rendu aujourd’hui : « Les dispositifs de reconnaissance faciale envisagés, quand bien même ceux-ci seraient mis en œuvre à titre expérimental et reposeraient sur le consentement des élèves, pour contrôler l’accès à deux lycées de votre région, ne sont pas conformes aux principes de proportionnalité ».
La CNIL considère en effet que la finalité de ce système de reconnaissance faciale, qui consiste soi-disant à « sécuriser et fluidifier les entrées au sein des deux lycées », aurait pu être « raisonnablement atteinte par d’autres moyens » tels que « la présence de surveillants à l’entrée des lycées ».
C’est le principe même de la reconnaissance faciale qui pourrait être ainsi rejeté : trop dangereux pour nos libertés, ces systèmes automatisés devraient toujours être écartés au profit de pratiques humaines1Même si la CNIL met en avant la présence de surveillants humains en alternative préférable à la reconnaissance faciale, il faut regretter qu’elle propose aussi, comme exemple d’alternative à la reconnaissance faciale, le recours à un système de badges qui causerait pourtant, lui aussi, une atteinte excessive et non nécessaire à la vie privée des lycéens..
Il ne s’agit ici que d’un avis de la CNIL : la région peut toujours décider de ne pas le respecter et de continuer son expérimentation. Néanmoins, il serait très risqué pour la Région de ne pas en tenir compte, et cela notamment au vu de la conclusion de l’autorité qui a clairement énoncé que : « il résulte de cet examen que ce dispositif ne saurait être légalement mis en œuvre ». Et même dans le cas où la Région passerait outre, nous ne manquerions pas d’utiliser cet avis dans le contentieux qui nous oppose à elle devant le tribunal administratif de Marseille.
Hélas, l’autorisation de la CNIL n’est plus requise depuis le RGPD pour autoriser de tels systèmes, et nous devrons saisir la justice chaque fois qu’une région ou une administration décidera de violer la loi de nouveau. Toutefois, il faut anticiper que le gouvernement pourra difficilement se satisfaire de cette situation et qu’il devra réagir. L’avis de la CNIL conteste largement la légalité de sa stratégie en matière de reconnaissance faciale, qu’il s’agisse de son projet d’identification en ligne Alicem ou même de systèmes plus anciens, telle que la reconnaissance faciale dans les aéroports (via PARAFE) contre laquelle s’appliqueraient à l’identique les reproches retenus aujourd’hui par la CNIL contre les lycées.
Certes, la décision d’aujourd’hui semble tardive : elle n’intervient qu’après de multiples appels des défenseurs des libertés. La CNIL n’a eu qu’à rappeler la lettre du RGPD, chose qu’on attendrait plus souvent de sa part. Mais cette décision est suffisamment ferme pour stopper les velléités de recourir à la reconnaissance faciale et pour contraindre l’État à légiférer s’il veut poursuivre sa stratégie. La bataille sera ardue, et nous sommes nombreu·ses à l’attendre de pied ferme.
Rejoignez nous sur Technopolice.fr pour documenter et lutter contre l’usage policier des nouvelles technologies.
Même si la CNIL met en avant la présence de surveillants humains en alternative préférable à la reconnaissance faciale, il faut regretter qu’elle propose aussi, comme exemple d’alternative à la reconnaissance faciale, le recours à un système de badges qui causerait pourtant, lui aussi, une atteinte excessive et non nécessaire à la vie privée des lycéens.
";s:7:"dateiso";s:15:"20191028_210057";}s:15:"20191025_164357";a:7:{s:5:"title";s:86:"Pour imposer la reconnaissance faciale, l’État et les industriels main dans la main";s:4:"link";s:122:"https://www.laquadrature.net/2019/10/25/pour-imposer-la-reconnaissance-faciale-letat-et-les-industriels-main-dans-la-main/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14967";s:7:"pubDate";s:31:"Fri, 25 Oct 2019 14:43:57 +0000";s:11:"description";s:234:"Nous republions la tribune de Félix Tréguer et Martin Drago parue dans Le Monde du 25 octobre 2019.
L’inévitable débat sur la reconnaissance faciale arrive enfin en France, et le gouvernement esquisse sa réponse. Dans un…";s:7:"content";s:5940:"
Nous republions la tribune de Félix Tréguer et Martin Drago parue dans Le Monde du 25 octobre 2019.
L’inévitable débat sur la reconnaissance faciale arrive enfin en France, et le gouvernement esquisse sa réponse. Dans un entretien paru dans Le Monde du 15 octobre, le secrétaire d’Etat au numérique Cédric O, ancien cadre du groupe Safran, a notamment estimé qu’« expérimenter » la reconnaissance faciale était « nécessaire pour que nos industriels progressent ».
Mais cette prise de parole au plus haut niveau politique n’est que la partie émergée de l’iceberg. Car depuis des mois, notes et rapports officiels se succèdent pour souligner le défi que constitue l’« acceptabilité sociale » de ces technologies. Pour leurs auteurs, l’objectif est clair : désarmer les résistances à ces nouvelles modalités d’authentification et d’identification biométriques dont la prolifération est jugée inéluctable, et permettre à des industriels français comme Thales ou Idemia [une entreprise de sécurité numérique] de se positionner face à la concurrence chinoise, américaine ou israélienne.
L’enjeu est d’autant plus pressant que, contrairement à ce que laisse entendre Cédric O, les dispositifs de reconnaissance faciale sont déjà en place sur le territoire français. Depuis plusieurs années, des entreprises développent et testent ces technologies grâce à l’accompagnement de l’Etat et l’argent du contribuable. Le tout sans réel encadrement ni transparence.
La campagne participative de recherche-action Technopolice.fr, lancée début septembre par des associations de défense des libertés, a commencé à documenter les projets lancés au niveau national et local – à Paris, Nice, Marseille, Toulouse, Valenciennes et Metz notamment. Outre la reconnaissance faciale, d’autres applications greffées aux flux de vidéosurveillance et fondées elles aussi sur des techniques d’« intelligence artificielle » font également l’objet d’expérimentations, comme l’analyse des émotions ou la détection de « comportements suspects ».
« Rassurer » l’opinion publique
Alors, face aux oppositions portées sur le terrain et jusque devant les tribunaux par les collectifs mobilisés contre ces déploiements, les représentants de l’Etat et les industriels font front commun. Leur but n’est pas tant d’expérimenter que de tenter de « rassurer » l’opinion publique, le temps d’œuvrer à la banalisation de ces technologies et de mettre la population devant le fait accompli.
Les garanties mises en avant dans la communication gouvernementale – instance de supervision sous l’égide de la Commission nationale de l’informatique et des libertés (CNIL), pseudo-consultation et adoption future de règles juridiques qui dessineraient un modèle « acceptable » de reconnaissance faciale « à la française » – sont tout bonnement illusoires. L’histoire récente l’illustre amplement. La loi « informatique et libertés », adoptée en 1978 en réaction aux premiers scandales liés au fichage d’Etat, n’a de toute évidence pas permis, comme c’était pourtant son objectif, de juguler l’avènement d’une société de surveillance.
Pire, dans ce domaine, la CNIL a vu ses pouvoirs systématiquement rognés depuis quinze ans, donnant le change à des présidents successifs ayant souvent contribué à cette impuissance. Quant à l’exemple des fichiers de police, il suffirait à démontrer que, même une fois inscrites dans la loi, les dispositions destinées à protéger les droits fondamentaux sont systématiquement contournées.
Or ces technologies biométriques augurent un changement de paradigme dans l’histoire de la surveillance. A terme, elles reviennent à instaurer un contrôle d’identité permanent et généralisé, exigeant de chaque personne qu’elle se promène en arborant une carte d’identité infalsifiable, qui pourra être lue sans qu’elle ne le sache par n’importe quel agent de police. L’histoire devrait nous servir de leçon : si nos grands-mères et nos grands-pères avaient dû vivre au début des années 1940 dans un monde saturé de tels dispositifs, ils n’auraient pas pu tisser des réseaux clandestins capables de résister au régime nazi.
Déshumaniser les rapports sociaux
En dépit de leurs effets politiques délétères, ces coûteuses machines seront incapables d’apporter la sécurité vantée par leurs promoteurs. Les milliards d’euros dépensés depuis plus de vingt ans au nom du « solutionnisme technologique » en vogue dans les milieux de la sécurité devraient là encore nous en convaincre : la technologie s’est avérée inopérante pour enrayer les formes de violence qui traversent nos sociétés. Sous couvert d’efficacité et de commodité, elle conduit à déshumaniser encore davantage les rapports sociaux, tout en éludant les questions politiques fondamentales qui sous-tendent des phénomènes tels que la criminalité.
C’est pourquoi, contre cette offensive concertée de l’Etat et des industriels qui, à tout prix, cherchent à imposer la reconnaissance faciale, nous devons dire notre refus. Aux Etats-Unis, après les mobilisations citoyennes, plusieurs municipalités, ainsi que l’Etat de Californie, ont commencé à en proscrire les usages policiers.
A notre tour, nous appelons à l’interdiction de la reconnaissance faciale.
";s:7:"dateiso";s:15:"20191025_164357";}s:15:"20191017_135112";a:7:{s:5:"title";s:56:"Le Conseil d’État autorise la CNIL à ignorer le RGPD";s:4:"link";s:92:"https://www.laquadrature.net/2019/10/17/le-conseil-detat-autorise-la-cnil-a-ignorer-le-rgpd/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14910";s:7:"pubDate";s:31:"Thu, 17 Oct 2019 11:51:12 +0000";s:11:"description";s:239:"Hier, le Conseil d’État a rejeté notre demande contre la CNIL en matière de consentement au dépôt de cookie. En sous-titre, le Conseil d’État pourrait désavouer la CNIL dans son rôle de protectrice des libertés,…";s:7:"content";s:10994:"
Hier, le Conseil d’État a rejeté notre demande contre la CNIL en matière de consentement au dépôt de cookie. En sous-titre, le Conseil d’État pourrait désavouer la CNIL dans son rôle de protectrice des libertés, réservant ce rôle aux seuls juges judiciaires.
Ce revirement historique s’inscrit dans une série de démissions opérées ces derniers mois par la CNIL. Il est urgent d’exiger collectivement que celle-ci redevienne ce pour quoi elle a été créée : pour nous défendre du fichage d’entreprises et de l’État.
La décision
En juillet 2019, la CNIL publiait (enfin !) de nouvelles lignes directrice pour rappeler que le RGPD, en application depuis mai 2018, exige que le dépôt de cookie et autres traceurs se fasse avec notre « consentement explicite ». Les bandeaux du type « En poursuivant votre navigation sur ce site, vous acceptez d’être surveillé⋅e – Ok » sont illégaux. Toutefois, la CNIL annonçait en même temps qu’elle ne sanctionnerait cette illégalité qu’après mi-2020.
Nous avons attaqué cette décision devant le Conseil d’État, qui vient de rejeter notre demande. Il considère que la décision de la CNIL n’est pas une violation excessive du RGPD : le délai d’un an ne serait pas si long, et la CNIL continuerait de sanctionner d’autres atteintes au RGPD. Certes, mais le caractère explicite du consentement a été une des rares avancées du RGPD, qui se trouve de facto privée d’effet pendant deux ans (de mai 2018 à juillet 2020).
Que dire à toutes les entreprises qui ont investi pour se mettre entièrement en conformité au RGPD dès 2018 ? Si ces règles sont systématiquement repoussées, comment faire peser une menace sérieuse contre toutes les autres entreprises qui, elles, n’ont jamais respecté le RGPD ? Rien. Le Conseil d’État ne répond même pas à ces questions.
Une autorité administrative est désormais capable de décider seule qu’une règle votée par des élu·es ne s’appliquera à personne pendant un an.
Le juge judiciaire, voie de secours
Le Conseil d’État ne détaille pas beaucoup son raisonnement dans sa décision, mais celle-ci suit fidèlement les conclusions présentées par son rapporteur public lors de l’audience du 30 septembre. Le rapporteur public est un membre du Conseil d’État qui assiste celui-ci en analysant les affaires et en lui proposant une solution, généralement suivie, comme c’est le cas ici.
À l’audience, donc, le rapporteur public a extensivement détaillé son raisonnement. Parmi les éléments qui l’ont convaincu de conclure au rejet de notre demande, et ce après de multiples hésitations clairement exprimées, il a invoqué un argument particulièrement surprenant et intéressant. Est-il vraiment si grave que la CNIL renonce à ses pouvoirs de sanction si, dans le même temps, l’autorité judiciaire peut aussi sanctionner les mêmes manquements ? Autrement dit, est-il grave qu’une autorité établie pour s’acquitter d’une tâche se donne le droit d’y renoncer si une autre autorité est compétente ?
En effet, le code pénal, par ses articles 226-16 à 226-24, sanctionne lourdement un certain nombre d’infractions qui, ensemble, couvrent une large partie des compétences de la CNIL. En plus du juge pénal, le juge civil est aussi compétent pour ordonner à une entreprise de cesser une atteinte au RGPD.
Somme toute, voilà un argument qui n’est pas si absurde : la CNIL peut bien renoncer à sa mission historique, qu’importe, nous pouvons toujours saisir la justice pour défendre nos libertés.
Mais quel abandon ! La CNIL a remis sa lettre de démission, nous l’avons contestée devant le Conseil d’État. Celui-ci l’a malheureusement acceptée, considérant que ses services n’étaient plus requis…
C’est d’ailleurs ce que vient confirmer une phrase très explicite de la décision du Conseil d’État qui considère que « l’exercice du pouvoir de sanction ne serait, en tout état de cause, pas susceptible de faire respecter plus rapidement » le RGPD. Comprendre : selon le Conseil d’État, le pouvoir de sanction de la CNIL ne serait pas requis pour faire respecter les droits auxquels elle a pourtant la charge de veiller.
Une série du démissions
Cette démission n’a rien de surprenant. Depuis un an, l’autorité enchaîne les renoncements à sa mission.
Notre plainte collective de plus de 10 000 personnes contre Google, après avoir entraîné une première et relativement faible sanction de 50 millions d’euros, semble au point mort. La CNIL est manifestement incapable de se décider à confier ou non l’affaire à son homologue irlandaise, alors même que celle-ci croule sous les affaires visant les géants du Web en dépit de ses effectifs encore plus réduits qu’en France.
Alors que la reconnaissance faciale commence à être expérimentée et installée un peu partout en France, la CNIL s’est empressée d’exiger un débat public sur la question, comme si elle renonçait par avance à mener ici la défense de nos libertés. Son renoncement s’est depuis confirmé. Quand la ville de Nice a annoncé déployer cette technologie au cours de son carnaval, au mépris de la loi, la CNIL s’est contentée d’un simple tweet réprobateur… Quand, à Nice ou à Marseille, la reconnaissance faciale a été annoncée pour s’imposer à des lycéens, elle s’est contentée de conseiller et d’accompagner.
Quand le gouvernement a adopté son décret Alicem en dépit de l’avis négatif de la CNIL, celle-ci s’en est tenue là (voir notre article). Elle a refusé d’utiliser le pouvoir que lui confère l’article 58, §5, du RGPD de saisir la justice pour faire annuler ce décret. À la place, elle a préféré laisser partir au front une petite association de six salarié⋅es (La Quadrature du Net) pour attaquer Alicem afin, ensuite, tel que nous l’avons appris avant-hier, de venir se greffer à la procédure en tant qu’« observatrice ».
Sur tous les fronts, la CNIL semble avoir abandonné son rôle de gendarme, ce que la décision du Conseil d’État confirme.
Quel avenir pour la CNIL ?
La tentation est grande d’oublier la CNIL et de ne plus se tourner que vers la justice pour faire appliquer le RGPD. L’option est clairement envisageable au moins en matière de cookies et de traceurs en ligne. Le rapporteur public du Conseil d’État nous y a clairement invité. Nous y reviendrons sûrement bientôt.
Toutefois, faut-il définitivement enterrer la CNIL ? Nous espérons qu’elle soit encore utile dans la bataille qui s’ouvre contre la reconnaissance faciale. Qu’elle soit utile pour faire appliquer le RGPD au sein de l’Union européenne, notamment pour imposer sa vision historiquement forte des libertés (en théorie du moins…) à ses homologues européens, dont certains seraient tentées de s’offrir en forum shopping aux GAFAM et ce contre quoi la justice seule ne peut rien. Dans tous les cas et quel que soit le sujet, mettre tous nos œufs dans l’unique panier judiciaire serait un pari bien risqué.
Si enterrer la CNIL n’est pas une option idéale, l’urgence serait donc de la sortir de sa torpeur. C’est ainsi, notamment, que nous avons accepté l’invitation de la CNIL de participer depuis deux mois à l’élaboration de ses nouvelles recommandations en matière de consentement aux cookies. Oui, ces mêmes recommandations qui détermineront la fin du « blanc-seing » que nous attaquions au même moment devant le Conseil d’État. Nous exigeons que les autorités mises en places pour faire respecter nos libertés fondamentales fassent leur travail et fassent appliquer la loi.
Si notre attitude peut sembler paradoxale, elle marque surtout notre refus d’accepter les pires situations. La lâcheté récurrente des dirigeant·es de la CNIL est aussi la conséquence des manques de moyens chroniques de l’administration et de la diminution récente de ses pouvoirs par la loi. Nous serons moins lâches que ses dirigeant·es et ne démissionnerons pas de notre volonté de la rappeler à l’ordre aussi régulièrement et fermement qu’il le faudra. Nous espérons que le contentieux qui vient de s’achever devant le Conseil d’État, même si nous l’avons formellement perdu, y aura contribué.
";s:7:"dateiso";s:15:"20191017_135112";}s:15:"20191016_130000";a:7:{s:5:"title";s:35:"[RevueProjet] Okhin, hacker battant";s:4:"link";s:73:"https://www.laquadrature.net/2019/10/16/revueprojet-okhin-hacker-battant/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14904";s:7:"pubDate";s:31:"Wed, 16 Oct 2019 11:00:00 +0000";s:11:"description";s:267:"Okhin est un « hacktiviste » : il détourne, contourne, défait les systèmes qui contreviennent aux libertés des citoyens sur Internet. Pour tenter de changer le monde avec des lignes de code. […]
Grand et fin, une casquette de la…";s:7:"content";s:1247:"
Okhin est un « hacktiviste » : il détourne, contourne, défait les systèmes qui contreviennent aux libertés des citoyens sur Internet. Pour tenter de changer le monde avec des lignes de code. […]
Grand et fin, une casquette de la NSA sur sa crête de cheveux orangés, Okhin parle vite, très vite. Il dénote quelque peu dans les locaux sages de la Revue Projet. Entre deux gorgées de café, il raconte l’univers dans lequel il évolue depuis presque vingt ans, du ministère de l’Intérieur à la Quadrature du Net. Il parle de ses engagements, de ses victoires, de ses coups durs… Bienvenue dans le monde des pirates informatiques ! […]
";s:7:"dateiso";s:15:"20191016_130000";}s:15:"20191016_120000";a:7:{s:5:"title";s:108:"[LaReleveetlaPeste] Un logiciel de reconnaissance faciale déployé par le gouvernement va arriver en France";s:4:"link";s:145:"https://www.laquadrature.net/2019/10/16/lareleveetlapeste-un-logiciel-de-reconnaissance-faciale-deploye-par-le-gouvernement-va-arriver-en-france/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14905";s:7:"pubDate";s:31:"Wed, 16 Oct 2019 10:00:00 +0000";s:11:"description";s:278:"Conçue par le ministère de l’Intérieur, Alicem est une application mobile destinée à s’identifier via une photo ou vidéo pour faire ses démarches administratives. […]
« Sur Alicem, la CNIL (le gendarme des données personnelles) a bien dit…";s:7:"content";s:1409:"
Conçue par le ministère de l’Intérieur, Alicem est une application mobile destinée à s’identifier via une photo ou vidéo pour faire ses démarches administratives. […]
« Sur Alicem, la CNIL (le gendarme des données personnelles) a bien dit que le décret n’est pas conforme à la loi, donc illégal. Pourtant, le gouvernement a quand même lancé son utilisation. Et la CNIL, plutôt que de saisir le Conseil d’Etat, n’a rien fait. Elle n’a pas rempli sa mission. C’est pourquoi la Quadrature du Net a déposé un recours devant le Conseil d’Etat pour demander l’annulation du décret en juillet. » explique Arthur Messaud, juriste pour La Quadrature du Net, à La Relève et La Peste. […]
";s:7:"dateiso";s:15:"20191016_120000";}s:15:"20191016_110000";a:7:{s:5:"title";s:68:"[NextINpact] Quand la France se lance dans la reconnaissance faciale";s:4:"link";s:107:"https://www.laquadrature.net/2019/10/16/nextinpact-quand-la-france-se-lance-dans-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14906";s:7:"pubDate";s:31:"Wed, 16 Oct 2019 09:00:00 +0000";s:11:"description";s:256:"Si des expériences locales de reconnaissance faciale ont été fortement médiatisées, d’autres pratiques restent plus discrètes. En coulisses, les industriels poussent pour que la France ne soit pas à la traîne et l’Intérieur est sensible…";s:7:"content";s:1216:"
Si des expériences locales de reconnaissance faciale ont été fortement médiatisées, d’autres pratiques restent plus discrètes. En coulisses, les industriels poussent pour que la France ne soit pas à la traîne et l’Intérieur est sensible aux arguments. L’idée d’une loi pour encadrer les expérimentations progresse rapidement et selon nos informations, un texte pourrait être déposé dès cet automne. Enquête.
La reconnaissance faciale n’est pas quelque chose d’inédit en France. Récemment, le décret qui impose cette technologie pour l’outil d’authentification en ligne ALICEM a été attaqué par La Quadrature du Net. […]
";s:7:"dateiso";s:15:"20191016_110000";}s:15:"20191015_175755";a:7:{s:5:"title";s:63:"Reconnaissance faciale dans les lycées : débat impossible ?";s:4:"link";s:96:"https://www.laquadrature.net/2019/10/15/reconnaissance-faciale-dans-les-lycees-debat-impossible/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14896";s:7:"pubDate";s:31:"Tue, 15 Oct 2019 15:57:55 +0000";s:11:"description";s:257:"En septembre dernier, La Quadrature du Net, avec des militants locaux associés à la campagne Technopolice.fr, est allée rencontrer des lycéennes et des lycéens de l’établissement Ampère à Marseille, où doit avoir prochainement lieu une…";s:7:"content";s:8869:"
En septembre dernier, La Quadrature du Net, avec des militants locaux associés à la campagne Technopolice.fr, est allée rencontrer des lycéennes et des lycéens de l’établissement Ampère à Marseille, où doit avoir prochainement lieu une expérimentation de reconnaissance faciale. Retour sur cette action et point d’étape sur notre recours contre ce projet de la région Sud.
En décembre 2018, le conseil de la région Sud (anciennement PACA) a autorisé une expérimentation pour installer des portiques de reconnaissance faciale dans deux lycées : le lycée des Eucalyptus à Nice et le lycée Ampère à Marseille. Comme nous l’expliquions dans un article en décembre, et à l’aide de l’analyse des documents obtenus auprès de la CNIL, cette expérimentation est entièrement financée par l’entreprise américaine Cisco qui profite ici de la politique sécuritaire des élus locaux pour tester ses technologies de surveillance sur les lycéens de l’établissement. L’objectif affiché par le conseil régional, et en particulier par son président Christian Estrosi, était on ne peut plus clair : étendre, au terme de cette expérimentation, ce dispositif à l’ensemble des lycées de la région.
Le recours formé contre l’expérimentation
Le 19 février 2019, La Quadrature du Net, la Ligue des Droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes ont déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de cette délibération. Les arguments s’appuient essentiellement sur le règlement général sur la protection des données personnelles (RGPD) : absence d’analyse d’impact en amont du processus, absence de cadre juridique à la reconnaissance faciale, traitement des données biométriques manifestement disproportionné par rapport à l’objectif poursuivi… Nous n’avons toujours aucune réponse de la Région dans le cadre de ce contentieux. Pendant ce temps, des travaux ont commencé devant le lycée des Eucalyptus à Nice : de nouvelles barrières ont été construites, mais elles ne contiennent pas encore les caméras nécessaires à la reconnaissance faciale.
L’actualité récente pourrait néanmoins laisser penser que notre recours a des chances d’aboutir. Le 21 août dernier, l’autorité suédoise de protection des données personnelles (l’équivalent de la CNIL) a sanctionné une expérimentation de reconnaissance faciale ayant eu lieu dans une école. Cette expérimentation avait pour objectif de mesurer l’assiduité des élèves en classe. Outre des manquements dans l’analyse d’impact, l’autorité a également souligné que le consentement des élèves, sur lequel se fondait l’expérimentation, était intrinsèquement biaisé. En effet, comme ce consentement était demandé par l’administration du lycée et que cette administration avait une autorité sur les élèves, le consentement de ceux-ci ne peut donc pas être libre au sens du RGPD : « Pour garantir que le consentement est donné librement, il convient que celui-ci ne constitue pas un fondement juridique valable pour le traitement de données à caractère personnel dans un cas particulier lorsqu’il existe un déséquilibre manifeste entre la personne concernée et le responsable du traitement (…) » (Considérant 43). Un tel raisonnement est parfaitement applicable à l’expérimentation à venir dans les lycées de la région Sud qui se revendiquent également du consentement des élèves.
Cette décision va donc dans le sens de nos revendications, à savoir l’annulation pure et simple de cette expérimentation qui participe à la normalisation et à la banalisation d’une technologie destinée à la surveillance de masse.
Technopolice.fr contre reconnaissance faciale
Dans le cadre de la campagne Technopolice.fr, nous avons participé à une action de sensibilisation et d’information à destination des lycéennes et lycéens d’un des établissements visés, le lycée Ampère à Marseille. L’action a été proposée et discutée sur le forum dédié et un tract a été rédigé de manière collaborative pour inviter les élèves à refuser de participer à ces expérimentations (le tract finalisé et distribué à l’entrée du lycée est disponible sur data.technopolice.fr).
Présents aux abords du lycée les 3 et 6 septembre derniers, nous avons pu parler à certains lycéennes et lycéens, ainsi qu’à des membres du personnel et au proviseur adjoint du lycée. À de rares exceptions près, les élèves n’avaient pas entendu parler de ce projet et ils se sont montrés sensibles à notre démarche, nombre d’entre eux indiquant clairement vouloir refuser de jouer le rôle de cobayes. Nous avons réalisé à cette occasion une courte vidéo de cette action.
Plus récemment, nous avons appris que le proviseur du lycée des Eucalyptus organisait, ce mardi 15 octobre, une table-ronde sur le sujet des portiques de reconnaissance faciale. Le proviseur a d’abord refusé que La Quadrature du Net soit invitée à cette table-ronde qui réunit pourtant l’ensemble des acteurs concernés : la Région, l’entreprise Cisco et les promoteurs de la reconnaissance faciale… Puis, invité à se montrer plus ouvert mais manifestement gêné par les propos contenus dans le tract distribué devant les lycées, il a conditionné notre participation aux règles prescrites dans l’invitation : « placés au sein d’un établissement scolaire, les échanges devront respecter les règles élémentaires de respect des personnes et des opinions et une totale neutralité politique ».
C’est oublier que la mise en place de la reconnaissance faciale à l’entrée d’un lycée est une décision éminemment politique, inspirée d’une idéologie de contrôle sécuritaire. Quoi qu’il en soit, dans ces conditions et compte tenu du fait que nous avons été prévenu à la dernière minute, nous avons finalement décidé ne pas participer à ce débat.
D’autres expérimentions ont lieu en ce moment en France et d’autres dispositifs de surveillance sont déjà en place : reconnaissance faciale, micros dans les rues, plateforme de « Safe City », détection par vidéosurveillance de comportements suspects… Une première description de ces dispositifs est disponible sur le site Technopolice.fr. D’autres projets sont en discussion sur le forum et des analyses sont en cours sur le Carré.
Pour aider à les documenter, et préparer ensemble des actions capables de résister à ces projets, rendez-vous sur Technopolice.fr.
";s:7:"dateiso";s:15:"20191015_175755";}s:15:"20191015_130000";a:7:{s:5:"title";s:104:"[Regards] Martin Drago : « La reconnaissance faciale est l’outil final de surveillance de masse »";s:4:"link";s:129:"https://www.laquadrature.net/2019/10/15/regards-martin-drago-la-reconnaissance-faciale-est-loutil-final-de-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14893";s:7:"pubDate";s:31:"Tue, 15 Oct 2019 11:00:00 +0000";s:11:"description";s:226:"En novembre, la France veut lancer son dispositif ALICEM de reconnaissance faciale pour accéder eux services publics en ligne. Pour la Quadrature du net, mais aussi la CNIL, ce dispositif n’est pas compatible avec le…";s:7:"content";s:1002:"
En novembre, la France veut lancer son dispositif ALICEM de reconnaissance faciale pour accéder eux services publics en ligne. Pour la Quadrature du net, mais aussi la CNIL, ce dispositif n’est pas compatible avec le règlement général sur les données personnelles. Nos libertés sont-elles en danger ? Martin Drago, juriste et membre de la Quadrature du Net, est l’invité de #LaMidinale.
";s:7:"dateiso";s:15:"20191015_130000";}s:15:"20191015_120000";a:7:{s:5:"title";s:120:"[LesNumeriques] La Quadrature du Net s’attaque à la Technopolice, “outil ultime de surveillance de la population”";s:4:"link";s:148:"https://www.laquadrature.net/2019/10/15/lesnumeriques-la-quadrature-du-net-sattaque-a-la-technopolice-outil-ultime-de-surveillance-de-la-population/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14894";s:7:"pubDate";s:31:"Tue, 15 Oct 2019 10:00:00 +0000";s:11:"description";s:293:"Depuis presque dix ans, les grands centres urbains se métamorphosent avec l’aide des nouvelles technologies. Vidéosurveillance, reconnaissance faciale et big data sont autant d’outils qui témoignent d’une dérive sécuritaire selon la Quadrature du Net. […]
Dans son…";s:7:"content";s:1526:"
Depuis presque dix ans, les grands centres urbains se métamorphosent avec l’aide des nouvelles technologies. Vidéosurveillance, reconnaissance faciale et big data sont autant d’outils qui témoignent d’une dérive sécuritaire selon la Quadrature du Net. […]
Dans son exposé de la situation rédigé début septembre, l’association annonce la couleur : son combat a pour but d’empêcher la construction de “smartcities policières”. Derrière le vocable accrocheur se cache un ensemble de batailles qui ont toutes un ennemi commun, à savoir la société de surveillance dans les villes de demain. […]
";s:7:"dateiso";s:15:"20191015_120000";}s:15:"20191015_110000";a:7:{s:5:"title";s:86:"[Telerama] La reconnaissance faciale débarque en France et vous n’y échapperez pas";s:4:"link";s:120:"https://www.laquadrature.net/2019/10/15/telerama-la-reconnaissance-faciale-debarque-en-france-et-vous-ny-echapperez-pas/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14895";s:7:"pubDate";s:31:"Tue, 15 Oct 2019 09:00:00 +0000";s:11:"description";s:250:"Alors que l’ombre de l’exemple chinois et de son “crédit social” plane sur les libertés publiques, la France s’apprête à déployer ALICEM, un système de reconnaissance faciale pour accéder aux services publics en ligne. Malgré…";s:7:"content";s:1690:"
Alors que l’ombre de l’exemple chinois et de son “crédit social” plane sur les libertés publiques, la France s’apprête à déployer ALICEM, un système de reconnaissance faciale pour accéder aux services publics en ligne. Malgré de nombreuses réticences… […]
En pointe sur la défense des libertés publiques dans un monde interconnecté, la Quadrature du Net a attaqué le décret au mois de juillet. Rappelant que le Règlement européen sur la protection des données personnelles (RGPD) « a posé un principe d’interdiction de traitement des données biométriques », l’association dénonce un passage en force : « À l’heure où les expérimentations de reconnaissance faciale se multiplient sans qu’aucune analyse ne soit réalisée sur les conséquences d’un tel dispositif pour notre société et nos libertés […] le gouvernement français cherche au contraire à l’imposer à tous les citoyens via des outils d’identification numérique. » […]
";s:7:"dateiso";s:15:"20191015_110000";}s:15:"20191014_130000";a:7:{s:5:"title";s:101:"[Maisoùvaleweb] De l’imprimerie à l’internet, la contre-histoire des médias de Félix Tréguer";s:4:"link";s:128:"https://www.laquadrature.net/2019/10/14/maisouvaleweb-de-limprimerie-a-linternet-la-contre-histoire-des-medias-de-felix-treguer/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14889";s:7:"pubDate";s:31:"Mon, 14 Oct 2019 11:00:00 +0000";s:11:"description";s:315:"Dans son ouvrage L’utopie déchue, Une contre-histoire d’Internet (XVe-XXIe siècle) – Fayard, 2019, le sociologue Félix Tréguer retrace l’histoire longue des moyens de communication, que la censure d’Etat rattrape inlassablement. De l’imprimerie à l’informatique, le même schéma…";s:7:"content";s:1281:"
Dans son ouvrage L’utopie déchue, Une contre-histoire d’Internet (XVe-XXIe siècle) – Fayard, 2019, le sociologue Félix Tréguer retrace l’histoire longue des moyens de communication, que la censure d’Etat rattrape inlassablement. De l’imprimerie à l’informatique, le même schéma semble se répéter. Ce constat amer interroge au plus près l’efficacité des nouvelles formes de résistance ainsi que la sensibilité des citoyens aux questions de liberté. Tréguer, chercheur et membre de la Quadrature du Net, nous rappelle la nécessité de cultiver une technocritique vive et de lutter coûte que coûte contre nos mémoires trop courtes. Nous avons échangé quelques mots. […]
";s:7:"dateiso";s:15:"20191014_130000";}s:15:"20191014_110000";a:7:{s:5:"title";s:92:"[BFM] Alicem: pourquoi l’application de reconnaissance faciale du gouvernement fait débat";s:4:"link";s:126:"https://www.laquadrature.net/2019/10/14/bfm-alicem-pourquoi-lapplication-de-reconnaissance-faciale-du-gouvernement-fait-debat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14890";s:7:"pubDate";s:31:"Mon, 14 Oct 2019 09:00:00 +0000";s:11:"description";s:276:"Très controversé, le projet du gouvernement obligerait toute personne voulant se doter d’une identité numérique à fournir ses données faciales. […]
La Quadrature du Net, une association de défense des droits et libertés sur internet, a déposé…";s:7:"content";s:1221:"
Très controversé, le projet du gouvernement obligerait toute personne voulant se doter d’une identité numérique à fournir ses données faciales. […]
La Quadrature du Net, une association de défense des droits et libertés sur internet, a déposé en juillet un recours devant le Conseil d’Etat pour faire annuler le décret du 13 mai qui autorise le dispositif. L’association affirme qu’Alicem va à l’encontre du Règlement général sur la protection des données (RGPD) car il oblige toute personne voulant utiliser le service à fournir ses données faciales. […]
";s:7:"dateiso";s:15:"20191014_110000";}s:15:"20191013_130000";a:7:{s:5:"title";s:95:"[FranceCulture] La France : premier pays d’Europe à généraliser la reconnaissance faciale";s:4:"link";s:125:"https://www.laquadrature.net/2019/10/13/franceculture-la-france-premier-pays-deurope-a-generaliser-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14884";s:7:"pubDate";s:31:"Sun, 13 Oct 2019 11:00:00 +0000";s:11:"description";s:245:"On assiste en France à de plus en plus d’expérimentations sur la reconnaissance faciale, les portiques biométriques dans les lycées, au carnaval de Nice, ou encore dans les aéroports… Le Ministère de l’Intérieur et l’Agence…";s:7:"content";s:2169:"
On assiste en France à de plus en plus d’expérimentations sur la reconnaissance faciale, les portiques biométriques dans les lycées, au carnaval de Nice, ou encore dans les aéroports… Le Ministère de l’Intérieur et l’Agence Nationale des Titres Sécurisés lance une nouvelle application sur Android : Alicem. Elle propose aux citoyens de se créer une identité numérique pour tout ce qui est procédure administrative en ligne et ce, à partir de la reconnaissance faciale. Selon les révélations de Bloomberg hier, elle sera lancée dès novembre.
La France sera donc le premier pays de l’Union Européenne à utiliser la reconnaissance faciale pour donner aux citoyens une identité numérique. Mais cela pose de nombreuses questions, notamment sur la protection des données personnelles. Nous avons tenté de joindre le Ministère de l’intérieur qui n’a pas pu répondre à nos questions. Interview avec Martin Drago, juriste à la Quadrature du net, l’association de défense des droits et libertés des citoyens sur Internet. Il engage une action en justice contre l’Etat. […]
";s:7:"dateiso";s:15:"20191013_130000";}s:15:"20191013_110000";a:7:{s:5:"title";s:56:"[Science&Vie] Reconnaissance faciale : le grand malaise";s:4:"link";s:97:"https://www.laquadrature.net/2019/10/13/29691-sciencevie-reconnaissance-faciale-le-grand-malaise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14885";s:7:"pubDate";s:31:"Sun, 13 Oct 2019 09:00:00 +0000";s:11:"description";s:242:"Que ce soit pour circuler, consommer ou accéder à des données, le visage sert de plus en plus de passeport. Or, la reconnaissance faciale ne s’arrête pas à l’authentification : elle peut aussi servir à contrôler…";s:7:"content";s:2094:"
Que ce soit pour circuler, consommer ou accéder à des données, le visage sert de plus en plus de passeport. Or, la reconnaissance faciale ne s’arrête pas à l’authentification : elle peut aussi servir à contrôler les gens à distance et même à décrypter leur caractère ou leur orientation sexuelle. Une « inquisition » qui inquiète jusqu’aux chercheurs en I.A. […]
Mais comment faire autrement ? « La reconnaissance faciale est désormais installée comme un choix par défaut dans de nombreux services, que ce soit sur Facebook ou pour l’enregistrement de billets d’avion aux États-Unis, observe Jameson Spivack. Et, bien souvent, il n’y a pas d’autre option possible… » La stricte réglementation européenne a beau exiger le consentement de l’utilisateur, les premières digues sont en train de sauter. Un exemple : l’application Alicem du gouvernement français ne propose, pour l’heure, aucune alternative à la reconnaissance faciale pour s’authentifier en ligne – un recours a été déposé devant le Conseil d’État. « Le problème, c’est que la banalisation en cours de cette technologie risque d’être une première étape vers une surveillance de masse de la population« , évoque Martin Drago, de l’association de défense des droits dans l’environnement numérique La Quadrature du Net. Une crainte largement partagée… […]
";s:7:"dateiso";s:15:"20191013_110000";}s:15:"20191012_130000";a:7:{s:5:"title";s:94:"[FranceCulture] Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ?";s:4:"link";s:122:"https://www.laquadrature.net/2019/10/12/franceculture-internet-et-libertes-publiques-quest-ce-qui-a-change-depuis-snowden/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14881";s:7:"pubDate";s:31:"Sat, 12 Oct 2019 11:00:00 +0000";s:11:"description";s:325:"Les révélations d’Edward Snowden ont-elles provoqué plus qu’une prise de conscience ? Que nous disent-elles de l’utopie déchue d’internet ? Félix Tréguer, co-fondateur de la Quadrature du net, nous en parle dans « L’utopie déchue » » (Fayard, 2019).
Alors qu’internet…";s:7:"content";s:1854:"
Les révélations d’Edward Snowden ont-elles provoqué plus qu’une prise de conscience ? Que nous disent-elles de l’utopie déchue d’internet ? Félix Tréguer, co-fondateur de la Quadrature du net, nous en parle dans « L’utopie déchue » » (Fayard, 2019).
Alors qu’internet devait permettre l’émergence d’une société plus libre et plus démocratique, c’est, dit-il, tout l’inverse qui s’est produit. Chercheur associé au Centre Internet et Société du CNRS, membre fondateur de l’association La Quadrature du Net, qui défend les libertés numériques en France, Félix Tréguer déplore la chute de l’utopie émancipatrice et révolutionnaire que représentait l’Internet des origines. […]
";s:7:"dateiso";s:15:"20191012_130000";}s:15:"20191012_120000";a:7:{s:5:"title";s:68:"[OuestFrance] Le Mans. « Google te connaît mieux que ta mère »";s:4:"link";s:96:"https://www.laquadrature.net/2019/10/12/ouestfrance-le-mans-google-te-connait-mieux-que-ta-mere/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14882";s:7:"pubDate";s:31:"Sat, 12 Oct 2019 10:00:00 +0000";s:11:"description";s:276:"Alerter les adolescents sur les données personnelles qu’ils laissent sur Internet en utlisant les réseaux sociaux. C’était le thème d’une mini-conférence organisée par le Service Jeunesse, mardi 17 septembre, au Mans. Quatre cents collégiens de…";s:7:"content";s:1877:"
Alerter les adolescents sur les données personnelles qu’ils laissent sur Internet en utlisant les réseaux sociaux. C’était le thème d’une mini-conférence organisée par le Service Jeunesse, mardi 17 septembre, au Mans. Quatre cents collégiens de 3e y participaient. […]
Klorydryk, membre du Collectif la Quadrature du Net (association de défense des droits et libertés des citoyens sur Internet) leur a rappelé que ces applications, gratuites pour leurs utilisateurs, n’ont qu’un seul but : « capter le plus longtemps possible votre attention, pour que vous soyez rentables. Parce qu’entre une photo de chat mignon et de licorne, elles glissent une publicité. C’est ainsi qu’elles gagnent de l’argent. » […]
";s:7:"dateiso";s:15:"20191012_120000";}s:15:"20191012_110000";a:7:{s:5:"title";s:126:"[LeFigaro] Surveillance, données… Des parents d’élèves et des associations s’unissent contre les villes intelligentes";s:4:"link";s:152:"https://www.laquadrature.net/2019/10/12/lefigaro-surveillance-donnees-des-parents-deleves-et-des-associations-sunissent-contre-les-villes-intelligentes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14880";s:7:"pubDate";s:31:"Sat, 12 Oct 2019 09:00:00 +0000";s:11:"description";s:304:"[LeFigaro] Surveillance, données… Des parents d’élèves et des associations s’unissent contre les villes intelligentes
Quatre associations dont la FCPE et la Ligue des droits de l’Homme s’associent pour créer « La campagne contre la Technopolice ». Ils s’inquiètent…";s:7:"content";s:2146:"
[LeFigaro] Surveillance, données… Des parents d’élèves et des associations s’unissent contre les villes intelligentes
Quatre associations dont la FCPE et la Ligue des droits de l’Homme s’associent pour créer « La campagne contre la Technopolice ». Ils s’inquiètent de l’utilisation de la reconnaissance faciale et de la collecte massive de données privées.
Quatre associations françaises refusent que Big Brother devienne réalité. Lundi 16 septembre, dans un communiqué commun, la Ligue des droits de l’Homme, la Quadrature du Net, la CGT-Educ et la Fédération des conseils de parents d’élèves ont lancé un appel pour rejoindre la campagne « Technopolice ». L’objectif est de lutter collectivement contre les systèmes de reconnaissance faciale et de récolte de données numériques, testés dans différentes villes de France comme Nice ou Marseille. Les membres fondateurs estiment que ces expérimentations sont à l’origine d’une « mise sous surveillance de l’espace urbain ». De telles technologies sont déployées pour renforcer la sécurité d’une ville ou d’un quartier. Elles permettent de repérer une personne recherchée ou un comportement anormal dans une foule. C’est la Quadrature du Net, organisme qui promeut et défend les libertés fondamentales sur Internet, qui est à l’origine de la campagne. […]
";s:7:"dateiso";s:15:"20191012_110000";}s:15:"20191011_134631";a:7:{s:5:"title";s:116:"Recours contre le renseignement : compte-rendu de notre audience devant la Cour de Justice de l’Union européenne";s:4:"link";s:150:"https://www.laquadrature.net/2019/10/11/recours-contre-le-renseignement-compte-rendu-de-notre-audience-devant-la-cour-de-justice-de-lunion-europeenne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14849";s:7:"pubDate";s:31:"Fri, 11 Oct 2019 11:46:31 +0000";s:11:"description";s:236:"Les 9 et 10 septembre, La Quadrature était aux côtés de Privacy International, FDN, FFDN, igwan.net, et le Center for Democracy & Technology (CDT) pour plaider devant la Cour de Justice de l’Union européenne (CJUE),…";s:7:"content";s:66736:"
Les 9 et 10 septembre, La Quadrature était aux côtés de Privacy International, FDN, FFDN, igwan.net, et le Center for Democracy & Technology (CDT) pour plaider devant la Cour de Justice de l’Union européenne (CJUE), contre le régime français de conservation généralisée des données de connexion et loi Renseignement. Voici un bref compte-rendu de cette audience (vous trouverez ici les notes plus complètes prises par Bastien, qui a récemment rejoint les membres de La Quadrature, pour son laboratoire).
Véritable pilier du renseignement, la conservation des données de connexion — ou métadonnées, c’est-à-dire ce qui entoure une communication, comme sa date, l’expéditeur et le destinataire, l’adresse IP utilisée, etc. — concerne tout le monde : la loi française impose aux opérateurs de conserver toutes les informations nous concernant à chaque communication. Cette audience devant la CJUE est l’aboutissement de quatre années de procédures. Dans cette affaire, et depuis 2015, La Quadrature demande quelque chose d’extrêmement simple : maintenir et réaffirmer la jurisprudence actuelle de la Cour suprême de l’UE qui interdit sans ambiguïté une conservation généralisée des données de connexion. C’est parce que les États membres de l’Union européenne, dont la France, refusent de respecter cette règle claire du juge européen que nous plaidions contre cette surveillance de masse.
Cette audience n’avait pas comme seul but de dénoncer la conservation généralisée des données de connexion. Depuis 2015, La Quadrature s’érige contre la dérive sécuritaire du renseignement français. La conservation des données de connexion n’est qu’un symptôme parmi d’autres d’une loi liberticide qui offre aux services de renseignement des pouvoirs qu’ils ne devraient pas avoir. Dans l’opacité la plus totale, les services français peuvent s’introduire dans nos ordinateurs, lire nos conversations, ou encore poser des mouchards. Et ce pour des raisons tellement floues qu’elle recouvrent potentiellement toute action dérangeante pour l’État : sont ainsi mis au même rang la prévention du terrorisme et la défense des « intérêts économiques, industriels et scientifiques majeurs de la France » ou encore les « atteintes à la forme républicaine des institutions ». Comme nous l’avons développé devant les juges européens, cette loi permet aujourd’hui de mettre sous surveillance les contestations sociales comme les gilets jaunes ou les revendications écologiques, bien loin de ce qui avait été vendu en 2015 lors de l’élaboration de cette loi.
La France veut maintenir sa surveillance de masse
Pendant les deux jours d’audience devant les juges de la CJUE, nous avons assisté à un déni de l’État de droit : la France, suivie par les autres pays européens, a expliqué qu’elle ne respecte pas la jurisprudence actuelle de la Cour de Justice en conservant de façon généralisée les données de connexion, mais également qu’elle ne la respectera pas à l’avenir si celle-ci était maintenue. La loi française et son application par les services de renseignement constituent bel et bien de la surveillance de masse, contrairement aux affirmations fausses du gouvernement devant la Cour. Mensonges et mauvaise foi ont été la ligne de défense de la France et de beaucoup d’autres États.
La représentation française a ainsi maintenu son affirmation selon laquelle la surveillance française des données de connexion ne concerne jamais le contenu des communications. Nous avions pourtant déjà démontré que, au moins avec le cas des adresses des sites Web, lorsque les services de renseignement analysent en temps réel les données de connexion, ils peuvent analyser les adresses Web (URL) des sites visités. Or, cela ne se limite pas au seul nom de domaine (ex : lemonde.fr), mais bien à l’intégralité de l’adresse. Il est ainsi possible, avec cette adresse complète, de savoir quel article de presse est lu, à quelle conversation l’internaute est en train de participer, quels sont ses centres d’intérêts, etc., il y a également une surveillance du contenu. Les États ont également tenté grossièrement d’émouvoir les juges avec une liste à n’en plus finir de faits divers dont leur conclusion serait d’attribuer une certaine utilité pratique à la surveillance de masse : il ne s’agissait pourtant que d’exemples isolés, rarement relatifs à la lutte contre le terrorisme (ce qu’ont rappelé certains juges, mettant ainsi les États face à leurs propres contradictions).
Surtout, la Commission n’a jamais cherché, de ses propres dires, à démontrer concrètement, par statistiques ou études exhaustives, en quoi la conservation des données de connexion serait nécessaire, indispensable, et pas simplement « utile », à la lutte contre la criminalité ou la prévention du terrorisme, ce qu’exige pourtant le droit de l’UE. Commission et États étaient bien embarrassés lorsque les juges ont pointé cette faille dans leur principal argument.
De notre côté, dans notre plaidoirie aux côtés de la FFDN, igwan.net et le CDT, nous avons voulu ramener le débat à des éléments concrets, clairs et pertinents. Nous avons rappelé en quoi le système français de renseignement est un système de surveillance généralisée. La France conserve bien une partie des communications traitées, sur toute la population. Elle a une législation en matière de renseignement tellement permissive que chacun·e peut faire l’objet d’une surveillance. Elle n’a pas non plus d’organe de contrôle efficace ni de procédure de recours respectueux des droits de la défense. Nous avons rappelé les nombreuses études sociologiques qui démontrent un affaiblissement de la démocratie lorsque l’on se sent surveillé. Le sujet auquel nous nous attaquons n’est pas une question technique ni d’initié·e·s : les enjeux sont ceux du choix de société que nous voulons. Nous ne voulons pas d’une société dans laquelle toute revendication serait muselée ou dans laquelle les minorités seraient contraintes de se taire.
Face à cette levée de boucliers des États, nous avons appelé la Cour à ne pas céder. Les gouvernements font preuve d’une audace que nos sociétés démocratiques ne doivent pas laisser passer. Nous nous félicitons des questions des juges qui ont démontré l’entière maîtrise du sujet par la Cour. Les questions posées ont mis à plusieurs reprises les États, la Commission et le Contrôleur européen de la protection des données – ces deux derniers partageant sur de nombreux points les positions des États – en difficulté et ont montré les failles grossières du raisonnement déployé par les gouvernements. En réponse à ces épineuses interrogations, les États ont échoué dans leur tentative d’amadouer les juges.
Enfin, nous avons invité la CJUE à, naturellement, maintenir sa jurisprudence. La seule solution aux dérives actuelles est d’interdire la conservation généralisée des données de connexion. Nous avons également invité les juges à s’inspirer d’un régime de « conservation spontanée » : les opérateurs conservent, pour des raisons légitimes (principalement d’ordre technique), les données de connexion, et il s’agit de la seule conservation acceptable car non généralisée. De manière plus large, nous invitons la Cour à contredire les États dans leur manière de penser le renseignement : il n’est pas acceptable que de telles possibilités de surveillance de masse, pour des finalités aussi larges et imprécises, soit maintenues.
Rendez-vous fin décembre, puisque l’avocat général devrait rendre à la fin de l’année ses conclusions !
Ci-dessous, les notes écrites sur lesquelles s’est basée la plaidoirie d’Alexis, notre avocat, qui a plaidé devant la Cour pour nous ainsi que pour FFDN, Igwan.net et CDT. Dans sa plaidoirie, il répondait aux questions parfois assez précises posées à l’avance par la Cour, donc certains passages sont assez longs et techniques.
Notre plaidoirie
Monsieur le Président,
Mesdames et Messieurs les membres de la Cour,
Monsieur l’Avocat général,
Je représente les associations françaises La Quadrature du Net, la Fédération des fournisseurs d’accès à Internet associatifs, Igwan.net, ainsi que Center for democracy and technology (CDT), ONG basée aux Etats-Unis.
Je répondrai, pour l’essentiel dans l’ordre, aux neuf questions posées par la Cour, qui permettent de largement couvrir les enjeux de l’affaire qui nous a conduit ici.
Introduction
Avant d’en venir au droit, je souhaite brièvement aborder deux éléments matériels survenus depuis nos dernières observations écrites.
Premier élément matériel: en avril dernier, la CNCTR – l’autorité française de contrôle des services de renseignement – a publié son rapport d’activité pour l’année 2018.
Ce rapport est une source d’informations précieuses, et j’en soulignerai une en particulier : en 2018, plus de 22 000 personnes ont été surveillées sur le territoire national.
Les deux tiers de ces 22 000 personnes l’ont été au nom de la lutte contre le terrorisme ou de la lutte contre la criminalité et la délinquance organisée.
Un tiers, 8 048 personnes exactement, l’a été pour une autre fin. Parmi ces finalités se trouve la lutte contre les violences collectives qui couvre la lutte contre les manifestations interdites, non-déclarée ou mal-déclarée. S’y trouve aussi les intérêts internationaux, économiques et scientifiques de la France. Finalité particulièrement large et imprécise.
Second élément matériel : en juillet dernier, la Présidence de la République française a publié sa « stratégie nationale du renseignement », qui annonce ses perspectives pour les cinq années à venir. La lutte contre les manifestations y trouve une place singulière. Je cite : « l’anticipation, l’analyse et le suivi des mouvements sociaux (…) par les services de Renseignement constituent une priorité ».
Cette perspective de lutte contre les manifestations violentes ne serait pas tellement surprenante si la Présidence se bornait à viser les seules destructions de biens survenant dans certaines manifestations. Mais la Présidence va bien plus loin.
Il est en effet extrêmement préoccupant de lire la Présidence de la République affirmer que ses services de renseignement doivent surveiller les « affirmations de vie en société » d’ordre éthique « qui peuvent exacerber les tensions au sein du corps social ». Cette formule est susceptible de viser n’importe quel mouvement politique qui contesterait l’action du Gouvernement ou de la majorité.
Aussi bien, dans la présente affaire, les associations que je représente ne sont pas animées par la crainte de dérives futures et abstraites que les faiblesses du droit français rendraient simplement probables.
Non, elles sont animées par une crainte actuelle et matérialisée, nourrie d’abus et d’atteintes, qui se constatent quotidiennement en France, notamment par la pratique des « gardes à vue préventives » qui se sont multipliées ces derniers mois ou par la crainte généralisée de chaque citoyen de ne pouvoir exercer paisiblement et librement, c’est-à-dire sans être indument surveillés, son droit fondamental de participer à la vie politique et sociale de son pays.
Ces éléments de contexte étant précisés, je vais désormais répondre à la première question soumise par la Cour et qui concerne le champ d’application de la directive 2002/58.
1. Champ d’application de la directive ePrivacy
Le champ d’application de la directive dite « ePrivacy » est un sujet récurrent dans la jurisprudence de la Cour concernant la surveillance étatique.
La Cour a déjà jugé, notamment dans son arrêt Tele2, que l’article 5, §1 de la directive, qui interdit l’interception de communications électroniques et de données de trafic y afférentes, s’applique « à toute personne », y compris aux entités étatiques.
Pour définir ce champ d’application, la Cour n’a jamais exigé que cette interception soit réalisée avec la collaboration active des opérateurs de télécommunications.
A bien y regarder, toute interprétation contraire ôterait tout effet utile à la directive.
Revenons en détails sur ce point.
Selon son article 3, la directive « s’applique au traitement de données à caractère personnel dans le cadre de la fourniture de services de communications électroniques accessibles au public sur les réseaux de communications publics ».
Contrairement à ce que prétend la France, cet article ne limite en rien le champ personnel des acteurs concernés, mais se borne à poser une simple limite matérielle : pour être soumis à la directive, il faut et il suffit que le traitement de données ait été réalisé « dans le cadre » d’un service de télécommunications fourni à la personne concernée, c’est-à-dire « au moyen de ».
L’article 3 n’exige en aucun cas que, pour y être soumis, un acteur souhaitant réaliser un traitement de données ait obtenu la collaboration active de l’opérateur de télécommunications de la personne concernée. Une telle interprétation viderait d’ailleurs de sens les autres dispositions de la directive, notamment celles concernant les cookies et les communications non-sollicitées.
En effet, en premier lieu, l’article 5, §3, de la directive ePrivacy prohibe à toute personne d’utiliser le service de télécommunications fourni à un utilisateur afin de déposer ou de lire sans son consentement des informations sur son terminal. Cette disposition est celle qui fonde toute la lutte contre l’utilisation abusive de cookies et autres traceurs. En pratique, ces activités n’impliquent jamais la collaboration active d’opérateurs de télécommunications. Les cookies sont déposés par des sites Web et des régies publicitaires, lors de la navigation sur le Web. C’est tout. La lutte contre le dépôt abusif de cookies deviendrait ipso factoimpossible et absurde s’il en allait autrement. Il en va de même pour les activités étatiques.
En deuxième lieu, l’article 13 de la directive défend à toute personne d’utiliser le service de télécommunications fourni à un utilisateur afin de lui faire parvenir des communications non-sollicitées. Ici encore, il serait absurde que cette interdiction ne s’applique que dans la situation improbable et rocambolesque où cette communication non-sollicitée serait faite avec la collaboration active des opérateurs de télécommunications.
Et pour cause : exiger un rôle actif d’un FAI porterait nécessairement atteinte à la neutralité de l’Internet, pourtant garantit par le règlement de 2015 sur l’Internet ouvert.
Ainsi, interpréter le champ de la directive comme exigeant leur collaboration active priverait de tout effet ses articles 5, §3, et 13, ce qui dépouillerait le texte de toute cohérence.
On rappellera que si la directive avait entendu limiter son champ d’application aux seuls opérateurs de télécommunications, elle l’aurait expressément prévu, ainsi qu’elle l’a d’ailleurs fait aux articles 4, 6 et 8, uniquement pour certaines activités limitativement énumérées.
On rappellera, enfin, que la Cour n’a jamais exigé la collaboration active des opérateurs pour interdire aux entités étatiques d’intercepter les communications électroniques et données de trafic y afférentes en application de l’article 5, §1, de cette directive qui, d’après sa lettre, s’applique effectivement « à toute autre personne que les utilisateurs ».
En l’espèce, la directive ePrivacy s’applique donc à l’utilisation d’« IMSI Catcher », que je mentionnais tout à l’heure. Cet outil de surveillance non-ciblée permet aux services de renseignements de surveiller les communications de tous les téléphones portables dans une zone géographique déterminée. Pour cela, cet outil se fait passer pour l’infrastructure d’un opérateur de téléphonie, attirant prioritairement les connexions des téléphones alentours, en lieu et place de l’antenne téléphonique légitime.
A l’évidence, cette technique de surveillance ne peut être menée que dans le cas où un service de télécommunications est fourni aux personnes surveillées : si aucun service ne leur était fourni, l’attaque serait matériellement impossible (de même qu’il serait impossible de déposer un cookie sur le terminal d’un utilisateur ou de lui envoyer des communications non-sollicitées si aucun service de télécommunications ne lui était fourni).
De même, la directive s’applique à la conservation de données imposée par la loi française aux hébergeurs, dans la mesure où ces données sont, par hypothèse, systématiquement collectées et traitées au moyen du service des télécommunications fourni à leurs utilisateurs. Prétendre l’inverse serait arguer que les dispositions sur les cookies ne s’appliquent pas aux hébergeurs et donc à leur dénier toute portée.
Plus largement, et a fortiori, la détermination du champ d’application de la directive n’est pas indispensable pour traiter, en droit de l’Union, des activités nationales de renseignement.
En effet, ces activités sont toutes directement soumises à d’autres normes issues de l’ordre juridique de l’Union, notamment la directive 2016/680 et le RGPD.
S’agissant des activités de renseignement qui poursuivent des finalités extérieures au champ de compétence de l’Union, celles-ci sont, en toutes hypothèses, couvertes par la Charte. En effet, ces activités ne peuvent être mises en œuvre que dans le cadre des exceptions prévues par la directive ePrivacy ainsi que par le RGPD ou la directive 2016/680. Or, selon la jurisprudence1CJUE, 30 avril 2014, Pfleger e.a., aff. n° C-390/12, pts. 33, 35 et 36 ; CJUE, 14 juin 2017, Online Games e.a., aff. n° C-685/15, pts. 54-57 ; CJUE, 21 mai 2019, Commission c/ Hongrie (Usufruits sur terres agricoles), aff. n° 235/17 constante de la Cour, la mise en œuvre d’une exception prévue par le droit de l’Union constitue pleinement une « mise en œuvre du droit de l’Union » au sens de l’article 52 de la Charte et conduit donc celle-ci à s’y appliquer directement.
Or, la Charte reprend la substance des dispositions de la directive ePrivacy, du RGPD et de la directive 2016/680, qui trouve ainsi à s’appliquer à toute activité de renseignement, quel que soit la mesure examinée.
2. Accès limité aux données de connexion
Par sa deuxième question, la Cour semble s’interroger sur la nécessité d’interdire en amont la conservation de masse de données si, en aval, l’accès à ces données n’était que ciblé, chaque fois limité par un lien à l’objectif poursuivi.
D’abord, cette question procède du postulat erroné suivant lequel la seule conservation des données ne constituerait pas en soi, une atteinte disproportionnée aux droits des personnes concernées. Rappelons, d’emblée, que cette conservation massive concerne la totalité de la population, y compris les personnes sans lien avec les objectifs poursuivis par les services de renseignement.
La seule conservation, massive, généralisée et indifférenciée, de ces données, constitue une atteinte injustifiée et radicalement disproportionnée dans les libertés fondamentales de la population.
Les termes de l’arrêt Klass de la Cour européenne des droits de l’Homme ont conservé, plus de 40 ans plus tard, tout leur éclat et une brûlante actualité :
« La législation elle-même crée par sa simple existence, pour tous ceux auxquels on pourrait l’appliquer, une menace de surveillance entravant forcément la liberté de communication (…) »
Je reviendrai plus en détails sur ce sujet pour répondre à la quatrième question posée par la Cour.
La conservation généralisée et indifférenciée des données irait frontalement à l’encontre de la jurisprudence établie par votre Cour. Dans l’arrêt Tele2 notamment, la Cour opère un contrôle de proportionnalité qui, appliqué à l’hypothèse d’une conservation généralisée, conduit inévitablement à condamner une telle mesure.
En effet, toute ingérence dans un droit fondamental doit être proportionnée, c’est-à-dire nécessaire, adaptée et proportionnée stricto sensu.
La conservation généralisée des données n’est jamais nécessaire : il est possible de parvenir au même objectif à l’aide d’une ingérence plus modérée et plus conforme à l’Etat de droit, à l’instar d’une conservation ciblée – j’y reviendrai, tout à l’heure, afin de répondre à la huitième question posée par la Cour.
Par ailleurs, elle n’est ni adaptée, ni proportionnée dès lors qu’il s’agit de conserver les données de la totalité de la population, y compris des personnes dépourvues de tout lien avec les objectifs poursuivis.
Ensuite, autoriser une telle conservation, sous condition d’un accès ultérieur suffisamment encadré, repose sur l’hypothèse systématiquement infirmée, selon laquelle l’Etat n’abuserait pas de ses pouvoirs ou prévoirait des procédures de contrôle fiables et effectives.
En pratique, interdire la conservation de masse est une mesure indispensable prise en amont afin de limiter les abus, constants et systématiques, en aval.
En effet, en premier lieu, ces dernières années ont révélé combien l’encadrement de l’accès administratif aux données de connexion était défaillant. Depuis 2015, le Conseil constitutionnel a censuré les dispositions législatives donnant ces accès aux agents de l’Autorité de la concurrence, de l’Autorité des marchés financiers, de la Haute autorité pour la transparence de la vie publique, des douanes et de la sécurité sociale.
En second lieu, le droit français n’offre aucune garantie effective quant aux contrôles des accès aux données de connexion. Dans son rapport de 2018, la CNCTR explique ainsi avoir eu à examiner 73 298 demandes de techniques de renseignement en un an. Or, la loi exige que ces demandes soient examinées par l’un des quatre seuls magistrats membres de la CNCTR. Dans l’hypothèse, généreuse, où ces quatre magistrats dédieraient l’entièreté de leur temps de travail à ces examens – ce qui, en pratique, est loin de la réalité -, ils passeraient alors moins de 5 minutes en moyenne pour examiner chaque demande.
Parmi les 73 298 demandes, la CNCTR explique que 30 000 d’entre elles ont concerné des accès à des données de connexion aux fins d’identifications d’abonnés ou de recensement de numéros d’abonnement. Face à l’engorgement organisé de son activité, la CNCTR admet, que le contrôle qu’elle exerce est, je cite, « d’une faible valeur ajoutée » et, faute de moyens, je cite à nouveau, se « borne le plus souvent à vérifier que la motivation de la demande comporte des éléments concernant les intérêts fondamentaux de la Nation invoqués. Le contrôle de proportionnalité ne trouve pas matière à s’appliquer ». Il s’agit donc d’un contrôle purement formel et non réel et effectif, bien éloigné des strictes exigences du droit de l’Union en la matière.
Ce constat suffit pour répondre à la question posée par la Cour : il est impensable de permettre une conservation de masse dans la mesure où l’accès aux données est dépourvu de tout contrôle effectif.
3. Importance des métadonnées
Par sa troisième question, la Cour s’interroge sur le caractère intrusif de l’accès aux données de connexion en comparaison avec un accès au contenu des communications.
En termes informatiques, le contenu des communications forme un ensemble de données non-structurées et difficilement structurables. C’est la forme de données la plus complexe à analyser. Il s’agit de comprendre qu’un mot ne désigne pas la même chose, ne signifie pas la même chose, en fonction du contexte dans lequel il est utilisé. Analyser du contenu demande une informatique de pointe, des algorithmes très performants, et le plus souvent des humains2A. Casili, « En attendant les robots. Enquête sur le travail du clic. », Seuil, 2019. D. Cardon et A. Casili, « Qu’est-ce que le Digital Labor ? », INA, 2015. pour traiter le contenu et lever les ambiguïtés. En outre, l’exploitation du contenu des communications nécessite de connaître la langue utilisée.
À l’opposé, l’exploitation des métadonnées est aisée et ne requiert aucune traduction. Ce sont des informations qui sont déjà structurées, qui sont produites en continu, à grande échelle, par des systèmes automatiques et conçues pour être traitées informatiquement, de manière massive et à très grande vitesse. Il est aisé de les corréler.
Prenons un exemple : établir à quels moments deux individus sont susceptibles de s’être rencontrés. Si l’on se fonde uniquement sur l’analyse du contenu des échanges, il s’agit d’un problème complexe.
En revanche, si l’on se fonde sur les métadonnées, par exemple les données de géolocalisation, le problème devient enfantin à traiter : il suffit d’analyser les positions de deux téléphones portables. Les données extraites du contenu ne peuvent que difficilement offrir une telle intrusion dans la vie privée des individus.
Au-delà de cet exemple, les seules métadonnées sur les messages échangés – date et heure des échanges, nature technique du message – permettent d’avoir une lecture fine des relations humaines. C’est par exemple sur ces informations-là que Facebook a démontré, en 20143https://www.facebook.com/notes/facebook-data-science/the-formation-of-love/10152064609253859 ; https://www.journaldunet.com/ebusiness/le-net/1135019-facebook-sait-avant-vous-quand-vous-tombez-amoureux/, qu’il pouvait détecter les changements dans la vie sentimentale des utilisateurs avant même que ceux-ci n’en aient conscience. Et j’emploie le terme conscience, et non connaissance, à dessein.
Dès lors qu’il faut redouter que l’automatisation de la surveillance en décuple les risques d’abus – j’y reviendrai ultérieurement -, les données de connexion constituent le cœur des dangers que le droit doit repousser pour les années à venir.
4. Limite à la liberté d’expression
La Cour demande par une quatrième question de revenir sur les conséquences de la surveillance « sur l’exercice des droits à la liberté d’expression, de se former une opinion, ainsi qu’à la liberté de réunion et d’association ».
S’agissant de la liberté de réunion et d’association, je l’ai déjà abordée dans mon propos liminaire. La Présidence de la République française déclare elle-même surveiller les manifestants. Un de ses buts est bien de dissuader la population de se rendre en manifestations. Il s’agit de la suite logique de la politique du gouvernement français de ces derniers mois.
Sur le droit à la liberté d’expression et de se former une opinion, les effets sont plus diffus et complexes à évaluer. Toutefois, plusieurs études confirment le constat dressé il y a 40 ans dans l’arrêt Klass de la Cour européenne.
Une étude publiée en 2016 dans une revue juridique de la faculté de droit de l’Université de Berkeley4Chilling effects: Online surveillance and Wikipedia use (JW Penney – Berkeley Tech. LJ), est revenue sur un des effets des révélations d’Edward Snowden sur la fréquentation de certaines pages Wikipédia. Elle conclut à une « réduction significative du trafic des articles sensibles en termes de vie privée après juin 2013, et qu’il y a eu un changement de long terme dans la tendance générale du trafic de tels articles ».
Une autre étude publiée en 2015 dans une revue du MIT5Government Surveillance and Internet Search Behavior (Alex Marthews & Catherine Tucker, MIT), conclut à « une réduction significative (…) dans les recherches Google pour certains termes sensibles en termes de vie privée après juin 2013 ».
Déjà, en 2007, une étude publiée dans une revue de l’Université du Maryland6The chilling effect of government surveillance programs on the use of the internet by Muslim-Americans (DS Sidhu – U. a décrit les effets de la surveillance sur les populations se sentant les plus surveillées. Plus de 8 % des personnes sondées – uniquement des résidents américains de confession musulmane – expliquaient avoir changé leur utilisation d’Internet par crainte que le gouvernement ne surveille l’activité des musulmans en ligne à la suite du 11 septembre 2001.
La surveillance de masse engendre ainsi une « spirale du silence »7https://en.wikipedia.org/wiki/Spiral_of_silence .
5. Accès généralisé aux données
La cinquième question posée par la Cour concerne l’accès généralisé aux données de l’ensemble des utilisateurs. Autrement dit, la surveillance de masse.
La Cour demande si une telle mesure peut exister, si elle peut être permise, sans risque d’abus. La Cour a déjà répondu fermement par la négative à cette question par sa jurisprudence constante, et l’exposé que je vais faire de la surveillance française ne peut que la conforter dans cette position.
En droit français, il existe quatre types possibles de surveillance de masse. Les deux premiers types sont explicites alors que les deux autres sont plus insidieux.
La première mesure de surveillance de masse française est celle qui fait spécifiquement l’objet de la sixième question posée par la Cour et qui concerne la collecte et l’analyse automatisée des données de l’ensemble des utilisateurs d’un réseau. Ce qui a familièrement été appelé « boites noires » par le gouvernement. J’y reviendrai après avoir répondu à la présente question.
La deuxième mesure de surveillance de masse en droit français est celle qui concerne la surveillance internationale. Les associations l’ont déjà longuement détaillée dans leurs observations écrites, je me bornerai donc à un rappel sommaire.
Le caractère massif de cette surveillance concerne tant la collecte que l’exploitation des données. Et ces dernières sont relatives tant au contenu des communications qu’aux données de connexion afférentes. Ces communications sont celles de la totalité d’une population dans une zone géographique donnée – un quartier, une ville, un pays, un continent…
Enfin, dernier rappel, et pas des moindres, : les personnes surveillées n’ont aucune voie de recours juridictionnelle pour contester une telle mesure.
Le troisième type de surveillance de masse permis en droit français est plus indirect : il résulte de la collaboration des services de renseignement français avec des services étrangers. Cette collaboration n’est soumise à aucun encadrement juridique en droit français.
Qu’il s’agisse du transfert de renseignement par les services français vers les services étrangers, ou l’inverse, ces transferts ne sont soumis à aucune condition, ni aucun contrôle. Dans son dernier rapport, la CNCTR, elle-même, le déplore soulignant que de tels échanges sont soustraits à tout encadrement juridique et à tout contrôle. Cette pratique est bien réelle et a, entre autres, été analysée par les sociologues Bauman, Bigo, Esteves, Guild, Jabri, Lyon et Walker, dans un article publié en 2015 dans la revue Culture & Conflits8Zygmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild, Vivienne Jabri, David Lyon et R. B. J. (Rob) Walker, « Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance », Cultures & Conflits [En ligne], 98 | été 2015, mis en ligne le 15 octobre 2016, consulté le 07 septembre 2019. URL : http://journals.openedition.org/conflits/19033 ; DOI : 10.4000/conflits.19033. Ils concluent à l’absence de pertinence de la distinction entre surveillance intérieure et surveillance extérieure et décrivent une sorte de « forum shopping » opéré entre États partenaires.
Plus grave, la CNCTR est explicitement interdite de consulter les renseignements transmis par les services étrangers.
Les deux derniers types de surveillance de masse dont je viens de vous parler reposent chacun sur le flou habituellement et habilement entretenu en France quant aux bornes de la surveillance de masse et à l’application des garanties associées.
Un exemple typique et récent des conséquences de cette confusion a été donné par un article du journal Le Monde du 24 avril dernier, qui révèle l’existence de ce que les services français appelleraient « l’entrepôt ».
Cet entrepôt constitue ce que l’on appelle, dans le milieu du renseignement, un « fusion center ». Il s’agit d’une structure visant à mutualiser les renseignements obtenus par les différents services. Les renseignements recueillis sur le territoire français se trouvent ainsi mélangés avec ceux collectés et exploitables de façon massive via les techniques de surveillance internationale. Les garanties associées aux différents régimes sont rendues caduques par ces mutualisations de données.
La loi française avait prévu un décret, notamment pour définir la façon dont ces deux types d’informations seraient séparées, mais ce décret n’a jamais été adopté. Un agent des services a expliqué au Monde, sous couvert d’anonymat, qu’un tel décret ne pouvait pas être adopté « pour défaut de base constitutionnelle ». Comprendre : décrire le système conduirait à en avouer les dérives.
Le danger intrinsèque des mesures de surveillance de masse est là : en pratique, il est impossible d’en délimiter effectivement les bornes. De tels logiques et fonctionnement « de masse » contamine nécessairement l’ensemble des activités de renseignement. Nous en avons ici une démonstration actuelle et concrète. La Quadrature du Net a déposé un recours contre « l’entrepôt » devant le Conseil d’État, et la décision de la Cour dans la présente affaire y sera décisive.
Enfin, le quatrième et dernier type de surveillance de masse dont je dois vous parler ne concerne plus ces aspects internationaux. Il a trait aux finalités qui, en droit français, autorisent la mise en œuvre de techniques de renseignement, tant sur le territoire national qu’à l’étranger.
Certaines finalités permettent théoriquement de surveiller toute la population et de transformer quasiment n’importe quelle technique de renseignement en mesure de surveillance de masse, qu’il s’agisse d’accéder au contenu des communications ou à leurs données de connexion.
Il en va ainsi de la défense des intérêts économiques et industriels de la France, qui sont définis arbitrairement par le Gouvernement, de la lutte contre l’usage de stupéfiants ou de l’organisation de manifestations non-déclarées. L’étendue de cette dernière finalité est d’autant plus inquiétante au regard des prétentions de la Présidence de la République dont je vous ai parlées plus tôt.
Un dernier point quant à ces finalités concerne les personnes qu’elles permettent de surveiller. À une seule exception près, à savoir, l’accès en temps réel aux données de connexion, toutes les techniques françaises de renseignement peuvent être réalisées au sujet de personnes à l’encontre desquelles il n’existe aucun soupçon de présenter une menace pour la société. Pour surveiller une personne, il suffit que sa surveillance soit susceptible de révéler des informations utiles à l’une des nombreuses et vagues finalités que les services peuvent poursuivre.
Ces deux éléments cumulés – des finalités indéfiniment larges et l’absence de toute exigence quant à de véritables soupçons – permettent à l’ensemble du dispositif de renseignement français de se muer en un système éprouvé, aux rouages parfaitement huilés, de surveillance de masse.
À l’inverse, la jurisprudence de la Cour exige des finalités strictement définies selon des critères objectifs et un véritable lien entre les personnes surveillées et les finalités poursuivies.
J’appelle donc la Cour à réaffirmer sa jurisprudence et à la renforcer, notamment en l’appliquant le plus concrètement possible aux cas d’espèces révélés par la présente affaire.
6. Analyse automatisée
La sixième question de la Cour concerne la première mesure de surveillance de masse que j’ai rapidement évoquée plus tôt pour la renvoyer aux développements que je vais faire à présent. La Cour nous interroge sur les abus rendus par l’analyse automatisée des données de l’ensemble des utilisateurs des moyens de communications électroniques.
Ici encore, il suffit de décrire la situation française pour répondre précisément à la question.
L’article L. 851-3 du code de la sécurité intérieure français autorise les services de renseignement à poser un dispositif, familièrement appelé « boites noires », à n’importe quel point du réseau d’un opérateur de télécommunications ou à l’entrée d’un serveur géré par un hébergeur.
Ces boites noires collectent et analysent automatiquement les données de toutes les communications qui transitent par ce point du réseau afin de détecter des comportements préalablement définis par les services comme étant suspects. Les données analysées concernent indifféremment toutes les personnes qui communiquent via ce point du réseau.
L’automatisation de l’analyse des communications fait légitimement craindre que l’État ne puisse, à brève échéance, surveiller l’ensemble de la population de certains quartiers, villes ou de l’ensemble du pays, ce qui serait impossible en ne reposant que sur un travail humain.
Le passage à l’échelle permis par l’automatisation informatique rend parfaitement concret les risques de surveillance de masse qui, en France, ne pouvaient sembler qu’assez théoriques il y a encore quelques années.
Quand la Cour a précisément demandé au gouvernement français de confirmer ou d’infirmer si les boites noires analysaient ou non les données de l’ensemble des communications qui passent par elles, le gouvernement, est resté taisant. Son silence ne peut être compris que comme valant confirmation, d’autant plus que le gouvernement n’a jamais cherché à dissimuler ce point par ailleurs. Néanmoins, la réponse écrite qu’a donné le gouvernement, bien que ne répondant pas à cette question, mérite d’être examinée.
Aux points 46 et 47 de ses réponses écrites, le gouvernement a écrit que les données analysées par les boites noires ne concernaient en aucun cas le contenu des communications.
Cette présentation est inexacte.
Les données analysées par les boites noires sont définies à l’article R. 851-5 du code de la sécurité intérieure. Ces données sont principalement des données de connexion que les opérateurs de télécommunications et les hébergeurs ont l’obligation de conserver. Mais pas seulement. Il s’agit aussi de données que les hébergeurs n’ont pas l’obligation de conserver mais qu’ils traitent à un moment ou un autre pour fournir leur service. Parmi ces données se trouvent « les données techniques […] relatives à l’identification […] d’un service de communication au public en ligne ».
Un « service de communication au public en ligne », défini à l’article premier de la loi pour la confiance dans l’économie numérique de 2004, est ce qu’on appelle couramment un « site Web ». Les boites noires sont donc autorisées à analyser « les données techniques relatives à l’identification » d’un site Web. Il s’agit typiquement du nom domaine ou de l’adresse d’une page Web. Or, ces informations concernent directement le contenu des correspondances ainsi que les informations consultées. Bien souvent, la simple adresse d’une page Web contient, à elle seule, l’ensemble du titre d’un article de presse. Ainsi, le droit français permet aux boites noires d’être configurées pour repérer toutes les personnes qui consultent des pages Web dont le nom de domaine ou l’adresse contient certains mots-clefs.
La réponse du gouvernement français aux questions de la Cour est contraire à la lettre du droit français.
D’ailleurs, le gouvernement lui-même le reconnaissait expressément, il y a tout juste un an, dans ses écritures qu’il présentait devant le Conseil d’Etat à propos des affaires ayant donné lieu aux présentes questions préjudicielles.
Dans ses ultimes observations en réplique du 26 juin 2018, dans l’affaire n° 397851 devant le Conseil d’État qui a mené à certaines des questions préjudicielles examinées par la Cour, le ministère de l’intérieur, admettait expressément, page 10, que les boites noires analysent des données qui relèvent du contenu des communications. Je le cite, tant son propos est clair, limpide et dépourvu de toute ambiguïté.
« Certaines données de connexion peuvent, en raison de leurs caractéristiques intrinsèques, également permettre l’identification de contenu. (…) certaines données peuvent révéler le contenu, de manière indirecte, de correspondances ou d’informations échangées. (…) les dispositions du décret ont prévu que ces données mixtes ne pouvaient être recueillies qu’en cas (…) de la mise en œuvre d’un algorithme. »
On ne peut que s’interroger sur les motifs, probablement peu avouables, qui ont poussé le gouvernement français à affirmer à la Cour l’exact inverse de ce qu’il reconnaissait devant le Conseil d’État un an plus tôt dans la même affaire.
Hélas !, la confusion ne s’arrête pas là. Aux points 80 et 81 de ses réponses à la Cour, la France prétend encore que le droit français interdit que les traitements identifient les personnes auxquelles les informations ou documents se rapportent.
Pourtant, ici encore, l’article R. 851-5 du CSI prévoit explicitement que les boites noires peuvent accéder à toute données « relatives à l’identification et à l’authentification d’un utilisateur ». La lettre de cette disposition contredit frontalement et radicalement les allégations de la France.
Enfin, au point 73 de ses réponses écrites, la France prétend que les boîtes noires « ne pourrai[en]t avoir ni pour objet ni pour effet de recueillir et de révéler des données telles que l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale des personnes physiques, qui sont, par définition, des données de contenu ».
Mes précédentes explications suffisent à infirmer cette allégation : les boites noires peuvent cibler certains mots, tant dais l’adresse des pages Web visitées que dans les pseudonymes des personnes. Ces mots peuvent largement suffire à cibler, ou simplement à révéler certaines origines ethniques, opinions politiques ou convictions religieuses.
Ma conclusion sur les boites noires sera donc la même que celle sur la surveillance internationale : en pratique, aucune mesure de surveillance de masse ne peut être effectivement bornée. Une telle mesure contamine nécessairement l’ensemble du système de renseignement. Les risques d’abus sont intrinsèques à cette technique, qui ne peut être que purement et simplement interdite.
Une autre affaire portée par deux des associations requérantes devant le Conseil d’État illustre parfaitement cette conclusion. L’ANSSI, l’administration française chargée de la sécurité informatique de l’État, a récemment reçu de la loi le pouvoir de déployer des boites noires qui fonctionnent de la même façon mais, cette fois-ci, dont la finalité est de détecter des attaques informatiques. Ici encore, M. Guillaume Poupard, directeur de l’ANSSI, admettait lors de son audition par l’Assemblée nationale, que ces boites noires analyseraient nécessairement le contenu des communications.
Je le cite : « Il va donc de soi que nous traitons des données, y compris des données personnelles. (…) nous y touchons de fait. (…) Prenons un exemple : le travail de détection consiste parfois à chercher au fin fond de pièces jointes, dans des courriers électroniques, pour y détecter un éventuel virus caché. ».
Une fois encore, la décision de la Cour sera déterminante dans cette autre affaire.
7. Distinction entre prévention et répression
Par sa septième question, la Cour demande s’il y a lieu de faire une distinction entre les mesures de prévention et de répression.
En matière de surveillance, le droit de l’Union a déjà tranché. La directive 2016/680 encadre tout traitement de données personnelles mise en œuvre par l’État qui est réalisé, pour faire court, en matière pénale. Aucune des obligations posées par cette directive ne fluctue selon qu’elle s’impose à des mesures de prévention ou de répression.
Cette homogénéité est inévitable tant les activités de prévention et de répression sont difficilement dissociables en pratique. Il est certes vrai qu’en droit français il existe une distinction entre la police administrative chargée de la prévention et la police judiciaire, chargée de la répression. Mais il est tout aussi vrai que cette distinction théorique est dans la pratique beaucoup plus incertaine – la jurisprudence du Tribunal des conflits le démontre – et conduit le juge à décider au cas par cas du régime applicable. Il convient, en outre, de rappeler que police administrative et police judiciaire sont exercées par les mêmes organes, dès lors qu’il ne s’agit que d’un critère matériel.
Il est ainsi impossible tant d’un point de vue théorique que pratique de prévoir des régimes ou justifications différentes selon que les mesures de surveillance sont réalisées à des fins préventives ou répressives.
8. Mesures alternatives à la conservation généralisée
Par sa huitième question, la Cour s’interroge sur l’existence de mesures légitimes qui pourraient être des alternatives efficaces à la conservation généralisée des données de connexion.
S’agissant de la conservation généralisée des données de connexion, les États membres ont systématiquement échoué à apporter le moindre élément matériel démontrant que les données volontairement conservées par les opérateurs, pour des raisons de sécurité ou de facturation, ne seraient pas suffisantes à la poursuite de leurs objectifs.
Au-delà de quelques enquêtes choisies spécifiquement par les États où l’accès à des données de connexion a été simplement utile, ils n’ont jamais démontré que cet accès était indispensable ni que les données nécessaires à la résolution des enquêtes ne seraient pas spontanément conservées par les opérateurs. La charge de la preuve repose sur les États. Cette charge ne saurait être renversée au prétexte de leur défaillance.
Il suffit de constater l’incapacité des États membres à poursuivre la réforme de la directive ePrivacy depuis déjà deux ans, précisément à cause de cette défaillance, pour réaliser que la démonstration qu’ils cherchent vainement à effectuer est impossible. La conservation généralisée des données de connexion n’est pas nécessaire et ne saurait donc jamais être proportionnée.
En contraste, l’avancée des débats sur le paquet dit « eEvidence » illustre un mouvement inverse : ces nouvelles dispositions vont notamment permettre aux autorités publiques d’émettre des injonctions de conservation aux prestataires techniques afin que ceux-ci conservent des données de connexion pour une durée allant jusqu’à 60 jours, empêchant « l’effacement, la suppression ou la modification des données concernées ».
S’agissant de la conservation généralisée des données de connexion par les hébergeurs, tel qu’imposée en droit français, l’absence de nécessité est encore plus flagrante. Le RGPD permet aux hébergeurs de traiter et de conserver un grand nombre de données personnelles pour de vastes catégories de finalité. De plus, et contrairement aux opérateurs de télécommunications, chaque personne est l’utilisatrice d’un très grand nombre de services rendus par des hébergeurs, qu’il s’agisse de réseaux sociaux, de sites de partages de vidéo ou de fichiers, etc.
Cette multitude d’acteurs rend l’identification des personnes, extrêmement simplifiée pour l’administration. Cette multiplicité accroît aussi considérablement la précision et la diversité des informations accessibles sur chaque personne. L’ampleur et la granularité des données ainsi disponibles pour l’administration ne dépend pas de l’obligation imposée aux hébergeurs mais de leur simple activité volontaire.
9. Surveillance des innocents
Par sa neuvième et dernière question, la Cour nous demande de définir les circonstances dans lesquelles des mesures de surveillance peuvent viser des personnes à l’encontre desquelles ne pèse aucun soupçon de représenter une menace.
La jurisprudence de la Cour prévoit que ce cas doit demeurer exceptionnel, la règle étant que seules les personnes soupçonnées de représenter une menace sont susceptible d’être surveillées. Comme je l’ai déjà dit, en droit français, cette exception est au contraire la règle : l’existence de soupçons à l’encontre d’une personne n’est jamais une condition à la mise en œuvre d’une technique de renseignement la concernant.
Il m’est alors impossible de décrire en droit français les conditions qui rendraient raisonnable de surveiller des personnes hors de tout soupçon tant ce scénario est étranger à la situation actuelle. Il est toutefois manifeste que plusieurs des conditions requises par le droit de l’Union pour une telle surveillance ne seraient pas remplies en droit français. Parmi les conditions indispensables absentes en droit français se trouve celles liées à (i) l’information des personnes concernées, (ii) au contrôle préalable et (iii) au droit à un recours effectif.
Il est parfaitement inadmissible que, les innocents surveillés ne soient jamais informés des mesures qu’ils ont subies. Cette obligation d’information est déjà imposée par la directive 2016/680, sans exception, peu importe qu’il existe ou non des soupçons contre les personnes concernées. A ce jour, s’agissant des activités de renseignement cette directive n’a pas été transposée en France, contrairement à ce qu’elle prétend devant la Commission.
De même, les risques d’abus liés à la surveillance de personne totalement innocentes sont décuplés en l’absence de contrôle indépendant préalable à la mise en œuvre de techniques de renseignement à l’encontre de ceux-ci.
La CNCTR ne dispose d’aucun pouvoir de contrôle préalable : ses seuls pouvoirs n’interviennent qu’après qu’une technique a été mise en œuvre et se limitent à la saisine de la formation spécialisée du Conseil d’État, alors même que cette saisine est dépourvue de tout effet suspensif.
L’administration peut donc librement collecter des renseignements sur une personne totalement innocente de façon illégale pendant une durée substantielle sans qu’aucune autorité indépendante ne puisse l’en empêcher. Le Conseil d’État ne peut que lui demander a posteriori de supprimer les données collectées, une fois que l’atteinte illicite est caractérisée et l’illégalité consommée.
Enfin, il est inadmissible que les innocents surveillés n’aient pas accès à l’entier dossier les concernant lorsqu’ils saisissent eux-mêmes la formation spécialisée du Conseil d’État, afin de contester la validité d’une mesure qu’ils ont subi. Ce droit au recours effectif est reconnu à toute personne surveillée, même celles à l’encontre desquelles pèsent des soupçons. Mais la gravité de son défaut devient encore plus flagrante s’agissant de personne hors de tout soupçon.
A titre d’exemple une journaliste française, Mme Camille Polloni, à l’issue d’une bien trop longue procédure et semée d’embûches, a finalement vu reconnaitre, par le Conseil d’Etat, qu’elle avait été illégalement fichée par la Direction du Renseignement Militaire, mais n’a jamais pu savoir ni comment, ni pourquoi, ni obtenir la moindre information, compensation ou enquête sur ce fichage, pourtant manifestement illégal.
Pour répondre précisément à la dernière question de la Cour, je me bornerai donc à donner ces trois éléments comme conditions indispensables, mais non exhaustives, à la surveillance de personnes qui ne font l’objet d’aucun soupçon : (i) information systématique de la surveillance subie une fois que l’enquête a pris fin ; (ii) contrôle préalable indépendant ; (iii) recours effectif, qui implique notamment l’accès à l’entier dossier.
Conclusion
Dans le contexte actuel, marqué par l’émergence de nouvelles formes de surveillance exploratoires, qui tendent notamment à reconnaître, dans l’espace public urbain, des individus et des comportements suspects – reconnaissance faciale ou, encore, police prédictive – le bras de fer qui oppose plusieurs Etats européens à votre Cour est fondamental pour le futur de la démocratie et de l’Etat de droit.
Dans ce bras de fer, le Conseil d’Etat français a clairement pris parti en refusant d’appliquer votre jurisprudence, pour vous inviter fermement à en changer. Je vous appelle à tenir votre position, fondée sur des principes fondamentaux, et à réitérer votre rejet de la surveillance de masse et votre attachement au droit à vivre sans être surveillé.
C’est dans le sens de ces observations que je vous invite à statuer. Je reste à votre entière disposition pour répondre à vos éventuelles questions.
CJUE, 30 avril 2014, Pfleger e.a., aff. n° C-390/12, pts. 33, 35 et 36 ; CJUE, 14 juin 2017, Online Games e.a., aff. n° C-685/15, pts. 54-57 ; CJUE, 21 mai 2019, Commission c/ Hongrie (Usufruits sur terres agricoles), aff. n° 235/17
2.
↑
A. Casili, « En attendant les robots. Enquête sur le travail du clic. », Seuil, 2019. D. Cardon et A. Casili, « Qu’est-ce que le Digital Labor ? », INA, 2015.
Chilling effects: Online surveillance and Wikipedia use (JW Penney – Berkeley Tech. LJ)
5.
↑
Government Surveillance and Internet Search Behavior (Alex Marthews & Catherine Tucker, MIT)
6.
↑
The chilling effect of government surveillance programs on the use of the internet by Muslim-Americans (DS Sidhu – U.
7.
↑
https://en.wikipedia.org/wiki/Spiral_of_silence
8.
↑
Zygmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild, Vivienne Jabri, David Lyon et R. B. J. (Rob) Walker, « Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance », Cultures & Conflits [En ligne], 98 | été 2015, mis en ligne le 15 octobre 2016, consulté le 07 septembre 2019. URL : http://journals.openedition.org/conflits/19033 ; DOI : 10.4000/conflits.19033
";s:7:"dateiso";s:15:"20191011_134631";}s:15:"20191011_130000";a:7:{s:5:"title";s:87:"[CNET] À l’ère de la reconnaissance faciale, faut-il aussi protéger nos visages ?";s:4:"link";s:116:"https://www.laquadrature.net/2019/10/11/cnet-a-lere-de-la-reconnaissance-faciale-faut-il-aussi-proteger-nos-visages/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14866";s:7:"pubDate";s:31:"Fri, 11 Oct 2019 11:00:00 +0000";s:11:"description";s:328:"Nos visages méritent-ils d’être autant protégés que nos informations personnelles ? La reconnaissance faciale débarque, sans réel encadrement, et la protection des données biométriques reste plus que jamais essentielle… […]
« La reconnaissance faciale, c’est pour nous un outil…";s:7:"content";s:1371:"
Nos visages méritent-ils d’être autant protégés que nos informations personnelles ? La reconnaissance faciale débarque, sans réel encadrement, et la protection des données biométriques reste plus que jamais essentielle… […]
« La reconnaissance faciale, c’est pour nous un outil de surveillance de masse. Elle exploite votre visage – quelque chose que vous ne pouvez pas cacher -, ce qui fait que vous êtes reconnu et surveillé constamment dans l’espace public, sans pouvoir vous y opposer, contrairement au principe du libre consentement du RGPD« , affirme Martin Drago, avocat spécialisé dans le droit des données personnelles et membre de la Quadrature du Net. […]
";s:7:"dateiso";s:15:"20191011_130000";}s:15:"20191011_120000";a:7:{s:5:"title";s:138:"[20Minutes] Nice : Caméra, reconnaissance faciale, détecteur de bruits… Un collectif lancé pour « résister à la surveillance »";s:4:"link";s:156:"https://www.laquadrature.net/2019/10/11/20minutes-nice-camera-reconnaissance-faciale-detecteur-de-bruits-un-collectif-lance-pour-resister-a-la-surveillance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14868";s:7:"pubDate";s:31:"Fri, 11 Oct 2019 10:00:00 +0000";s:11:"description";s:254:"La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des conseils de parents d’élèves s’associent.
Dans une petite salle sans fenêtre du centre-ville de Nice, ça cause « big…";s:7:"content";s:1509:"
La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des conseils de parents d’élèves s’associent.
Dans une petite salle sans fenêtre du centre-ville de Nice, ça cause « big data », « smart-city » et « intelligence artificielle ». Des mots qui, accolés aux questions de sécurité, inquiètent les responsables de la Quadrature du Net, de la Ligue des droits de l’Homme, de la FCPE 06 et de la CGT 06. Ces quatre organisations lancent « Technopolice », une campagne « contre la surveillance technologique de l’espace urbain à des fins policières ». Le mouvement entend « résister à la surveillance totale de nos villes et de nos vies ». […]
";s:7:"dateiso";s:15:"20191011_120000";}s:15:"20191011_110000";a:7:{s:5:"title";s:102:"[CNET] Avec « Technopolice », la Quadrature du Net prend les armes contre les « smart cities »";s:4:"link";s:124:"https://www.laquadrature.net/2019/10/11/cnet-avec-technopolice-la-quadrature-du-net-prend-les-armes-contre-les-smart-cities/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14867";s:7:"pubDate";s:31:"Fri, 11 Oct 2019 09:00:00 +0000";s:11:"description";s:356:"Avec la plateforme « Technopolice », l’association appelle à la mobilisation contre la surveillance des citoyens dans les nouvelles « villes intelligentes ». Ses militants s’insurgent contre la présence grandissante des nouvelles technologies dans l’espace urbain. […)
Reconnaissance faciale, capteurs sonores,…";s:7:"content";s:1220:"
Avec la plateforme « Technopolice », l’association appelle à la mobilisation contre la surveillance des citoyens dans les nouvelles « villes intelligentes ». Ses militants s’insurgent contre la présence grandissante des nouvelles technologies dans l’espace urbain. […)
Reconnaissance faciale, capteurs sonores, police prédictive… lesdites technologies sont nombreuses et envisagées par un nombre croissant de municipalité. La QDN veut alerter contre leur généralisation et les risques qu’elles représenteraient pour les libertés de chacun. […]
";s:7:"dateiso";s:15:"20191011_110000";}s:15:"20191010_130000";a:7:{s:5:"title";s:49:"[FrequenceProtestante] Internet et sa gouvernance";s:4:"link";s:88:"https://www.laquadrature.net/2019/10/10/frequenceprotestante-internet-et-sa-gouvernance/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14775";s:7:"pubDate";s:31:"Thu, 10 Oct 2019 11:00:00 +0000";s:11:"description";s:235:"[NDLRP : Sylvain Steer du CECIL et de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la deuxième partie a été diffusée le 22 septembre 2019, dans l’émission Parole aux associations de…";s:7:"content";s:1291:"
[NDLRP : Sylvain Steer du CECIL et de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la deuxième partie a été diffusée le 22 septembre 2019, dans l’émission Parole aux associations de Fréquence protestante avec Nathalie Zanon.]
";s:7:"dateiso";s:15:"20191010_130000";}s:15:"20191010_120000";a:7:{s:5:"title";s:95:"[Mediapart] Le collectif Technopolice appelle à la mobilisation contre les « safe cities »";s:4:"link";s:125:"https://www.laquadrature.net/2019/10/10/mediapart-le-collectif-technopolice-appelle-a-la-mobilisation-contre-les-safe-cities/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14776";s:7:"pubDate";s:31:"Thu, 10 Oct 2019 10:00:00 +0000";s:11:"description";s:238:"Un collectif d’associations et de syndicats, dont la Quadrature du Net, la CGT, la LDH et la FCPE, lance une campagne de mobilisation contre les nouveaux outils de surveillance urbains tels que la vidéosurveillance intelligente,…";s:7:"content";s:1497:"
Un collectif d’associations et de syndicats, dont la Quadrature du Net, la CGT, la LDH et la FCPE, lance une campagne de mobilisation contre les nouveaux outils de surveillance urbains tels que la vidéosurveillance intelligente, la reconnaissance faciale, l’analyse du big data ou encore les capteurs sonores. […]
« Depuis presque deux ans, la Quadrature du Net et d’autres associations se sont intéressées au développement des soi-disant “villes intelligentes”, les “smart cities” comme on les appelle, et surtout à leurs aspects sécuritaires, a expliqué Martin Drago de LQDN. Avec les dernières avancées, en intelligence artificielle, en big data, on a constaté le développement d’outils de surveillance, de divers projets un peu partout en France. » […]
";s:7:"dateiso";s:15:"20191010_120000";}s:15:"20191010_110000";a:7:{s:5:"title";s:70:"[GQ] Vidéosurveillance : les drones sont-ils vraiment nos alliés ?";s:4:"link";s:101:"https://www.laquadrature.net/2019/10/10/gq-videosurveillance-les-drones-sont-ils-vraiment-nos-allies/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14777";s:7:"pubDate";s:31:"Thu, 10 Oct 2019 09:00:00 +0000";s:11:"description";s:303:"Le drone s’impose peu à peu comme la solution de surveillance ultime. Mais la prolifération de ces engins pose certaines questions juridiques et éthiques. […]
[…] Derrière l’argument de « tranquillité urbaine », Martin Drago, juriste à La Quadrature du…";s:7:"content";s:1809:"
Le drone s’impose peu à peu comme la solution de surveillance ultime. Mais la prolifération de ces engins pose certaines questions juridiques et éthiques. […]
[…] Derrière l’argument de « tranquillité urbaine », Martin Drago, juriste à La Quadrature du Net – le collectif militant qui a révélé l’étendue du projet – pointe une dérive qui menace nos libertés individuelles. « Après la prolifération des caméras fixes, on arrive au second stade de la “safe city” avec la reconnaissance faciale et la multiplication des caméras mobiles, notamment les drones. Alors que l’efficacité de la vidéosurveillance est contestée et avant même qu’un débat soit organisé, on applique la deuxième couche. Or, est-ce que les propriétés privées sont bien floutées comme l’exige la loi ? Combien de temps sont gardées les images ? Même la CNIL a dit en octobre 2018 qu’en l’absence de cadre juridique, elle est dépassée et n’a donc plus le pouvoir de dire non. Autrement dit, on utilise de nouveaux outils et on applique de nouvelles méthodes sans autorité de contrôle. » […]
";s:7:"dateiso";s:15:"20191010_110000";}s:15:"20191009_130000";a:7:{s:5:"title";s:99:"[France3] Des associations réunies à Nice pour dénoncer la surveillance technologique des villes";s:4:"link";s:135:"https://www.laquadrature.net/2019/10/09/france3-des-associations-reunies-a-nice-pour-denoncer-la-surveillance-technologique-des-villes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14751";s:7:"pubDate";s:31:"Wed, 09 Oct 2019 11:00:00 +0000";s:11:"description";s:281:"[…] Une campagne contre la prolifération « sans débat ni contrôle » de projets utilisant les nouvelles technologies à des fins policières a été lancée à Nice, ville championne de la vidéosurveillance, par quatre associations et syndicats (Quadrature…";s:7:"content";s:1880:"
[…] Une campagne contre la prolifération « sans débat ni contrôle » de projets utilisant les nouvelles technologies à des fins policières a été lancée à Nice, ville championne de la vidéosurveillance, par quatre associations et syndicats (Quadrature du net, CGT, Ligue des Droits de l’Homme et FCPE).
A l’image de la reconnaissance faciale testée au Carnaval de Nice en février, en forçant la main à la Commission nationale de l’Informatique et des libertés (Cnil), « ces outils de surveillance se développent sans débat public et sans contrôle (…) », explique Martin Drago, juriste de l’ONG La Quadrature du net. […]
";s:7:"dateiso";s:15:"20191009_130000";}s:15:"20191009_120000";a:7:{s:5:"title";s:91:"[FranceInter] Félix Tréguer: « L’Utopie déchue, une contre-histoire d’Internet »";s:4:"link";s:111:"https://www.laquadrature.net/2019/10/09/franceinter-felix-treguer-lutopie-dechue-une-contre-histoire-dinternet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14752";s:7:"pubDate";s:31:"Wed, 09 Oct 2019 10:00:00 +0000";s:11:"description";s:375:"Le chercheur associé au Centre Internet et Société du CNRS et membre fondateur de la Quadrature du Net est l’invité de Patricia Martin pour son ouvrage « L’Utopie déchue, une contre-histoire d’Internet ».
https://www.franceinter.fr/emissions/la-personnalite-de-la-semaine/la-pe…
NDLRP – Entretien à retrouver aussi sur…";s:7:"content";s:1255:"
Le chercheur associé au Centre Internet et Société du CNRS et membre fondateur de la Quadrature du Net est l’invité de Patricia Martin pour son ouvrage « L’Utopie déchue, une contre-histoire d’Internet ».
";s:7:"dateiso";s:15:"20191009_120000";}s:15:"20191009_110000";a:7:{s:5:"title";s:90:"[Mediapart] Internet: face à « l’utopie déchue », « débrancher les machines »";s:4:"link";s:105:"https://www.laquadrature.net/2019/10/09/mediapart-internet-face-a-lutopie-dechue-debrancher-les-machines/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14753";s:7:"pubDate";s:31:"Wed, 09 Oct 2019 09:00:00 +0000";s:11:"description";s:285:"Dans L’Utopie déchue. Une contre-histoire d’Internet, le sociologue et hacktiviste Félix Tréguer tire les conséquences de l’échec des mouvements nés des contre-cultures numériques et propose de renouveler la technocritique. « Ce qu’il nous faut d’abord et…";s:7:"content";s:1731:"
Dans L’Utopie déchue. Une contre-histoire d’Internet, le sociologue et hacktiviste Félix Tréguer tire les conséquences de l’échec des mouvements nés des contre-cultures numériques et propose de renouveler la technocritique. « Ce qu’il nous faut d’abord et avant tout, c’est débrancher la machine. » […]
En définitive, c’est au contraire un livre enthousiasmant, qui tente de refonder la technocritique pour trouver de nouvelles stratégies. « Face à ceux qui, découragés par l’apparente incommensurabilité de Big Brother, seraient tentés de verser dans l’apathie », écrit Félix Tréguer, Gilles Deleuze « affirmait qu’entre la souveraineté, les disciplines ou le contrôle, “il n’y a pas lieu de demander quel est le régime le plus dur, ou le plus tolérable, car c’est en chacun d’eux que s’affrontent les libérations et les asservissements”. Ce qu’il faut, expliquait-il, c’est “chercher de nouvelles armes” ». […]
";s:7:"dateiso";s:15:"20191009_110000";}s:15:"20191008_130000";a:7:{s:5:"title";s:99:"[NextINpact] La conservation généralisée des données de connexion devant la justice européenne";s:4:"link";s:133:"https://www.laquadrature.net/2019/10/08/nextinpact-la-conservation-generalisee-des-donnees-de-connexion-devant-la-justice-europeenne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14754";s:7:"pubDate";s:31:"Tue, 08 Oct 2019 11:00:00 +0000";s:11:"description";s:311:"Trois affaires importantes sont audiencées aujourd’hui à partir de 9h30 devant la Cour de justice de l’Union européenne. La grande chambre de la juridiction examinera d’abord l’affaire « C-623-17 Privacy International ». […]
Dans les affaires jointes « C-511/18 La…";s:7:"content";s:1463:"
Trois affaires importantes sont audiencées aujourd’hui à partir de 9h30 devant la Cour de justice de l’Union européenne. La grande chambre de la juridiction examinera d’abord l’affaire « C-623-17 Privacy International ». […]
Dans les affaires jointes « C-511/18 La Quadrature du Net » et « C-512/18 French Data Network », les deux organisations s’opposent cette fois à certains pouvoirs des services du renseignement français. […]
Plus largement, ces deux procédures visent à demander si l’obligation de conservation généralisée des données de connexion est justifiée sur l’autel du droit européen. Enfin, dans l’affaire C-520/18 dite « Ordre des barreaux francophones et germanophones », c’est cette fois le droit belge qui est visé. […]
";s:7:"dateiso";s:15:"20191008_130000";}s:15:"20191008_120000";a:7:{s:5:"title";s:62:"[FranceCulture] Facebook, il ne lui manque plus que la monnaie";s:4:"link";s:100:"https://www.laquadrature.net/2019/10/08/franceculture-facebook-il-ne-lui-manque-plus-que-la-monnaie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14755";s:7:"pubDate";s:31:"Tue, 08 Oct 2019 10:00:00 +0000";s:11:"description";s:309:"Quelles sont les caractéristiques du libra, la nouvelle cryptomonnaie proposée par Facebook ? En quoi le lancement du libra peut-il être considéré comme une innovation de rupture ? Comment va-t-il impacter le monde des cryptomonnaies ? […]
Reportage Céline Loozen :…";s:7:"content";s:1387:"
Quelles sont les caractéristiques du libra, la nouvelle cryptomonnaie proposée par Facebook ? En quoi le lancement du libra peut-il être considéré comme une innovation de rupture ? Comment va-t-il impacter le monde des cryptomonnaies ? […]
Reportage Céline Loozen : blockchain et algorithme de consensus derrière le Libra avec Axel Simon.
";s:7:"dateiso";s:15:"20191008_120000";}s:15:"20191008_110000";a:7:{s:5:"title";s:70:"[LesEchos] Facebook relance le débat sur la portabilité des données";s:4:"link";s:106:"https://www.laquadrature.net/2019/10/08/lesechos-facebook-relance-le-debat-sur-la-portabilite-des-donnees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14756";s:7:"pubDate";s:31:"Tue, 08 Oct 2019 09:00:00 +0000";s:11:"description";s:232:"Le réseau social a publié ce mercredi un livre blanc sur ce nouveau droit instauré par le RGPD. Facebook espère ainsi clarifier certains points techniques avec les gouvernements tout en gagnant, assez habilement, du temps…";s:7:"content";s:1335:"
Le réseau social a publié ce mercredi un livre blanc sur ce nouveau droit instauré par le RGPD. Facebook espère ainsi clarifier certains points techniques avec les gouvernements tout en gagnant, assez habilement, du temps sur le sujet. […]
Mais certaines associations, comme La Quadrature du Net, plaident pour une interopérabilité complète. Ce qui permettrait par exemple à un utilisateur de Messenger de dialoguer avec un utilisateur de Twitter, de la même façon qu’un client Orange peut appeler un abonné SFR. « Sans ça, la portabilité ne sert strictement à rien, car on reste captif des Gafam », estime Martin Drago, juriste au sein de l’association. […]
";s:7:"dateiso";s:15:"20191008_110000";}s:15:"20191007_130000";a:7:{s:5:"title";s:78:"[LeMonde] « Portabilité des données » : sous pression, Facebook riposte";s:4:"link";s:103:"https://www.laquadrature.net/2019/10/07/lemonde-portabilite-des-donnees-sous-pression-facebook-riposte/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14757";s:7:"pubDate";s:31:"Mon, 07 Oct 2019 11:00:00 +0000";s:11:"description";s:263:"Sommée de rendre possible de quitter le réseau social en emmenant ses contacts et ses contenus, l’entreprise publie un Livre blanc qui soulève des objections. […]
La Quadrature du Net n’est toutefois pas convaincue : « Voir Facebook…";s:7:"content";s:1491:"
Sommée de rendre possible de quitter le réseau social en emmenant ses contacts et ses contenus, l’entreprise publie un Livre blanc qui soulève des objections. […]
La Quadrature du Net n’est toutefois pas convaincue : « Voir Facebook donner des leçons sur la vie privée, c’est ironique… L’interopérabilité, c’est justement l’idée que les gens puissent contrôler quelles données ils mettent sur quel réseau social, explique Martin Drago, juriste de l’association. Et l’interopérabilité entre Orange et SFR, pour le téléphone, ou entre Gmail et La Poste, pour les e-mails, cela n’a pas vraiment posé de question de vie privée… » Le volontarisme de Facebook sur la portabilité des données est en tout cas un signe que les débats sur ce thème vont s’animer.
";s:7:"dateiso";s:15:"20191007_130000";}s:15:"20191007_120000";a:7:{s:5:"title";s:98:"[EconomieNumerique] La Quadrature du Net s’attaque à l’entrepôt de données du renseignement";s:4:"link";s:128:"https://www.laquadrature.net/2019/10/07/economienumerique-la-quadrature-du-net-sattaque-a-lentrepot-de-donnees-du-renseignement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14758";s:7:"pubDate";s:31:"Mon, 07 Oct 2019 10:00:00 +0000";s:11:"description";s:278:"Sur fond de lutte anti-terroriste, les services de renseignement français peuvent accéder à des données personnelles. Plusieurs lois ont offert un cadre juridique à ces pratiques de surveillance. Un « entrepôt » centralisant des données collectées par…";s:7:"content";s:1268:"
Sur fond de lutte anti-terroriste, les services de renseignement français peuvent accéder à des données personnelles. Plusieurs lois ont offert un cadre juridique à ces pratiques de surveillance. Un « entrepôt » centralisant des données collectées par les services de renseignement a récemment été révélé dans les colonnes du Monde. Cet entrepôt ne repose pourtant sur aucun encadrement légal. […]
Face à un tel constat, l’association la Quadrature du Net, association de défense des droits et libertés des citoyens sur Internet a donc entrepris d’attaquer ce dispositif devant le Conseil d’Etat en juin 2019. […]
";s:7:"dateiso";s:15:"20191007_120000";}s:15:"20191007_110000";a:7:{s:5:"title";s:84:"[CAPITAL] Données perso : 10 réflexes à adopter pour protéger votre vie privée";s:4:"link";s:115:"https://www.laquadrature.net/2019/10/07/capital-donnees-perso-10-reflexes-a-adopter-pour-proteger-votre-vie-privee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14759";s:7:"pubDate";s:31:"Mon, 07 Oct 2019 09:00:00 +0000";s:11:"description";s:236:"[…] « On a beau reconnaître tous les droits qu’on veut, il faut que les gens s’en saisissent pour qu’il y ait des effets », souligne Alexis, membre de La Quadrature du Net. En 2018, cette dernière a…";s:7:"content";s:1408:"
[…] « On a beau reconnaître tous les droits qu’on veut, il faut que les gens s’en saisissent pour qu’il y ait des effets », souligne Alexis, membre de La Quadrature du Net. En 2018, cette dernière a ainsi déposé devant la Cnil une plainte réunissant 12.000 personnes contre les Gafam. En janvier dernier, l’instance a sanctionné Google à hauteur de 50 millions d’euros, argumentant que le ciblage publicitaire d’Android n’était pas conforme au RGPD, la loi européenne entrée en application le 25 mai 2018. De même, pensez à vous adresser à la Cnil en cas de soupçon de violation de vos droits. Par exemple, lorsque vous tombez sur des sites qui conditionnent leur accès à l’acceptation des conditions d’utilisation, ce qui est contraire au RGPD.
";s:7:"dateiso";s:15:"20191007_110000";}s:15:"20190927_160211";a:7:{s:5:"title";s:65:"Ce que nous avions à dire à ceux qui bâtissent la technopolice";s:4:"link";s:103:"https://www.laquadrature.net/2019/09/27/ce-que-nous-avions-a-dire-a-ceux-qui-batissent-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14721";s:7:"pubDate";s:31:"Fri, 27 Sep 2019 14:02:11 +0000";s:11:"description";s:307:"Rappel : La reconnaissance faciale s’apprête à déferler en France. Pour documenter et résister à ces déploiements, rendez-vous sur technopolice.fr et son forum !
Mardi 24 septembre, La Quadrature était conviée à la « vingt-quatrième journée technico-opérationnelle de la…";s:7:"content";s:12862:"
Rappel : La reconnaissance faciale s’apprête à déferler en France. Pour documenter et résister à ces déploiements, rendez-vous sur technopolice.fr et son forum !
Mardi 24 septembre, La Quadrature était conviée à la « vingt-quatrième journée technico-opérationnelle de la sécurité intérieure », qui se tenait dans un amphithéâtre bondé de la Direction générale de la gendarmerie nationale. Ces rencontres sont organisées tous les six mois par le ministère de l’intérieur, et celle-ci avait pour thème : « reconnaissance faciale : applications – acceptabilité – prospective ».
Les rencontres « technopolice » sont marquées par un fort entre-soi, mêlant fonctionnaires du ministère de l’intérieur, chercheurs et industriels de la sécurité (à l’exception de la Quadrature, un avocat critique était également invité, ainsi que deux personnes de la CNIL qui s’en sont tenu à un simple rappel du droit applicable). Et dans cette atmosphère feutrée, notre intervention semble avoir détonné, comme en témoigne le compte-rendu de cette journée publié par l’Essor, le journal des gendarmes.
Nous étions sincèrement reconnaissants de l’invitation, et contents d’assister à des présentations fournissant des informations de première main qui sont autrement très difficiles d’accès pour les militants ou chercheurs travaillant sur ces questions. Nous l’avons rappelé en introduction de notre propos. Mais pour nous, l’enjeu était aussi de faire valoir une parole dissonante et de rappeler que, au moment où la reconnaissance faciale s’apprête à déferler dans nos sociétés, ces échanges entre opérationnels et développeurs industriels devaient faire l’épreuve de la controverse.
Voici donc une sorte de verbatim plus ou moins fidèle de notre intervention…
—
« Merci de votre invitation. De tels échanges sont trop rares. Et en dépit des désaccords fondamentaux, ils ont le mérite de créer un peu de porosité entre nos mondes.
La Quadrature du Net est une association fondée en 2008 pour résister aux formes de contrôle d’Internet qui allaient à l’encontre des libertés publiques. Aujourd’hui, nous nous rendons pleinement compte de la justesse des combats des années 1960 et 1970, où des groupes militants associaient l’informatique à la domination bureaucratique. Ils l’associaient à un régime technocratique plutôt que démocratique, non pas fondé sur l’autonomie et la liberté mais sur l’expertise alléguée de quelques hauts pontes formés dans les écoles d’élite.
Ce régime technocratique est toujours le nôtre. L’insistance mise sur le critères d’efficacité lors de cette journée l’illustre de bien, de même que l’extrême faiblesse de la prise en compte des aspects non seulement juridiques et éthiques, mais aussi proprement politiques de technologies comme la reconnaissance faciale.
La domination technocratique évite la confrontation démocratique. Ces 24ème rencontres « Technopolice » en fournissent là encore un exemple : aucune information ne doit filtrer, les participants étant astreints à un « engagement de non-divulgation ». De même, la présence en ligne de ces rencontres qui existent depuis années est quasi nulle. De fait, aucune information ne filtre. Une confidentialité qui entache tout ce dont on discute ici d’un grave déficit de légitimité démocratique, alors même que tout cela est incontestablement d’intérêt public.
Indirectement, l’extrême discrétion qui entoure cet événement nous a été utile, nous permettant d’utiliser le mot « technopolice » pour lancer, avec d’autres acteurs associatifs, notre propre campagne le 16 septembre dernier. En inscrivant le terme dans un moteur de recherche pour voir si nous étions les premiers à vouloir l’utiliser, nous avions découvert des traces de ces rencontres, mais si peu nombreuses que nous avions alors pensé que ce n’était pas un problème que de reprendre ce terme à notre compte (et ce n’est que quelques mois plus tard que nous recevions votre invitation à venir ici aujourd’hui…).
En écoutant vos présentations, nous mesurons une nouvelle fois le fossé qui sépare la réalité des usages de l’informatique dans le cadre de la surveillance d’État, et les informations publiques qui filtrent à leur sujet. C’est justement contre ce secret que notre campagne vise à documenter les projets technopoliciers, et à permettre à chacun de se mobiliser pour dire notre refus collectif de ces outils de contrôle qui essaiment partout en France.
Ces technologies sont très largement développées dans le cadre de la recherche publique, parfois au travers un contournement assumé du cadre juridique applicable en Europe. C’est par exemple le cas lorsque des chercheurs français travaillent avec des homologues chinois pour perfectionner leurs algorithmes de reconnaissance faciale grâce aux bases de données de visages de citoyens chinois. Ou, comme on l’a appris ce matin, quand le gouvernement français passe un accord de sécurité avec celui de Singapour afin qu’un industriel français puisse passer outre les réserves de la CNIL et expérimenter le scan en temps réel sur les visages d’une foule dans un hub de transport de la ville-État. On ne peut s’empêcher de voir dans ces manœuvres un écho pas si lointain des expérimentations et mesures d’exception pratiquées à l’époque coloniale sur les peuples colonisés, avant d’être réimportées en métropole.
Outre la recherche publique, ces développements technologiques sont pilotés par des personnes en situation relevant plus ou moins directement du conflit d’intérêt, avec de nombreux croisements et hybridations entre secteur public et privé. Ils aboutissent aujourd’hui à des expérimentations locales hautement subventionnées pour assurer la compétitivité des industriels français sur ce marché porteur. Le tout, là encore, sans information transparente ni vrai débat public. Rien ne doit entraver le progrès de la technopolice.
La question de la légalité de ces outils est aussi largement éludée. Et quand elle est abordée, c’est toujours pour évoquer les restrictions que le cadre juridique existant imposerait à leur développement, et non sur les atteintes graves et injustifiables que ces outils portent à nos libertés fondamentales. Nos libertés d’expression, de manifestation, d’aller et venir sont pourtant bien en jeu ici, tout comme notre droit à la vie privée. Il faut s’interroger sur l’atteinte intrinsèquement disproportionnée à nos libertés que représente un outil comme la reconnaissance faciale, disproportion que souligne d’ailleurs la ville de San Francisco dans son ordonnance qui en interdit l’usage à ses policiers : « La propension de la technologie de reconnaissance faciale à mettre en danger les droits civils et les libertés civiles l’emporte largement sur les avantages escomptés (…) ». Il faut aussi s’interroger sur la compatibilité des dispositifs fantasmés par la Préfecture de police de Paris et bien d’autres avec la jurisprudence du Conseil Constitutionnel qui soulignait, déjà en 1993, l’illégalité de « pratique de contrôles d’identité généralisés et discrétionnaires ».
C’est pour cette raison que nous avons déjà déposé deux recours, pour lutter contre la normalisation et la banalisation d’un tel outil : l’un contre la délibération de la Région Sud autorisant une expérimentation de portiques biométriques dans deux lycées, l’autre contre l’application AliceM, développée par le ministère de l’Intérieur, et qui veut faire de la reconnaissance faciale une la clé de voûte d’une future identité numérique.
Sans doute aimeriez-vous que, face à l’inéluctabilité de nouvelles lois destinées à encadrer les dispositifs présentés aujourd’hui, nous puissions offrir des conseils sur ce que seraient des lois « socialement acceptables » et « juridiquement soutenables » ? Le Forum Économique Mondial et le Conseil national du numérique nous ont eux aussi proposé (sans succès) de participer à une série de dialogues sur l’encadrement de la reconnaissance faciale. Un peu plus de transparence, un semblant de contrôle par la CNIL, une réduction des biais racistes et autres obstacles apparemment « techniques » auxquels se heurtent ces technologies, et l’on croit possible d’assurer un compromis « éthique » entre la défense automatisée de l’ordre public et l’État de droit.
Ces projets de loi viendront. Le pouvoir politique y sera réticent car, sauf à instrumentaliser les enjeux de sécurité (ce dont il est certes désormais coutumier), il n’y a généralement pas grand-chose à gagner à faire passer des lois de surveillance. Pour notre part, il est probable nous soyons une nouvelle fois contraints de travailler sur ces projets de loi sécuritaires, pour défendre les droits humains et limiter la casse. Pour utiliser le droit dans le but d’entraver au maximum l’usage de ces technologies.
Mais nous vous le disons tout net : après y avoir réfléchi, nous considérons que la reconnaissance faciale et autres technologies technopolicières doivent être proscrites. Elles mènent l’humanité vers une pente dangereuse, en permettant d’insidieuses formes de contrôle au bénéfice de quelques maîtres, seuls capables de « réviser les paramètres » des machines à leur service.
Plutôt que de discuter des modalités d’un « encadrement approprié », nous exprimons donc notre refus vis-à-vis de ces technologies policières. Nous pensons à nos grand-mères et à nos grand-pères qui, s’ils avaient du vivre au début des années 1940 dans un monde saturé des technologies que vous fabriquez, n’auraient pas survécu plus de trois semaines dans la clandestinité, et n’auraient donc pas pu organiser des réseaux de solidarité dissidents pour résister au régime nazi.
Nous disons notre refus car pour nous, la sécurité c’est d’abord des logements dignes, un air sain, la paix économique et sociale, l’accès à l’éducation, la participation politique, l’autonomie patiemment construite. Et que ces technologies n’apportent rien de tout cela. Elles semblent d’abord et avant tout conçues pour vider nos régimes politiques de tout essence démocratique en assurant un téléguidage de nos conduites. Sous prétexte d’efficacité, elles aboutissent à déshumaniser encore davantage les rapports qu’entretiennent les bureaucraties policières avec la population.
C’est peut être l’une des premières fois que, vous tous qui travaillez depuis longtemps sur ces déploiements technologiques, vous êtes confrontés a une opinion réellement dissonante. Peut être y verrez-vous le signe de l’inutilité de ce type d’échanges. Nous espérons qu’au contraire, vous comprendrez qu’il s’agit d’une confrontation nécessaire trop longtemps retardée – retardée jusqu’à nous mettre pratiquement dans la situation du fait accompli. Vous ne pourrez plus y échapper. Vous devez entendre notre refus ».
";s:7:"dateiso";s:15:"20190927_160211";}s:15:"20190916_110453";a:7:{s:5:"title";s:61:"La Quadrature du Net ouvre la bataille contre la Technopolice";s:4:"link";s:102:"https://www.laquadrature.net/2019/09/16/la-quadrature-du-net-ouvre-la-bataille-contre-la-technopolice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14713";s:7:"pubDate";s:31:"Mon, 16 Sep 2019 09:04:53 +0000";s:11:"description";s:233:"Appel à participation : rejoignez la campagne Technopolice !
En lien avec la conférence de presse tenue à Nice ce matin avec la Ligue des Droits de l’Homme, la FCPE et CGT-Educ, La Quadrature du Net lance un…";s:7:"content";s:4855:"
Appel à participation : rejoignez la campagne Technopolice !
En lien avec la conférence de presse tenue à Nice ce matin avec la Ligue des Droits de l’Homme, la FCPE et CGT-Educ, La Quadrature du Net lance un appel à rejoindre la campagne « Technopolice » pour s’opposer aux « Smart City » policières. Elle invite également toutes les organisations intéressées à signer le manifeste associé à cette campagne pour résister à la mise sous surveillance totale de nos villes et de nos vies.
La Smart City révèle enfin son vrai visage : celui d’une mise sous surveillance totale de l’espace urbain à des fins de contrôle. De Nice à Valenciennes en passant par Toulouse, Saint-Étienne, Strasbourg ou Paris, la surveillance massive s’ancre dans l’urbanité. Reconnaissance faciale, police prédictive, surveillance en temps réel des réseaux sociaux : les industriels de la sécurité s’allient aux inconséquents qui peuplent trop souvent nos mairies pour tester et déployer leurs derniers gadgets sécuritaires.
Depuis près d’un an, grâce à des lanceu·ses.rs d’alerte qui nous ont fait parvenir des documents ou en utilisant les lois en matière de transparence administrative, La Quadrature a commencé à documenter ces projets (par exemple à Nice et à Marseille). Après quelques réunions publiques, et après avoir rencontré la CNIL et constaté son coupable laisser-faire, nous avons lancé une première action en justice contre l’expérimentation de la reconnaissance faciale dans les lycées de la région Sud, en lien avec la Ligue des Droits de l’Homme, la CGT-Educ et la FCPE.
Ces initiatives ne font que lever le voile sur ces projets et expérimentations. Pour vraiment porter, elles doivent être démultipliées. C’est dans ce but que nous avons lancé aujourd’hui une plateforme collaborative permettant de fédérer des collectifs d’opposition à la Technopolice.
L’objectif de la plateforme Technopolice sera double : documenter de la manière la plus rigoureuse possible le déploiement de ces projets de surveillance à travers le pays, et construire ensemble des outils et des stratégies de mobilisation capables de les tenir en échec. L’enjeu, c’est de parvenir à organiser des résistances locales en les fédérant afin qu’elles puissent se nourrir les unes les autres.
Seules, ni la petite équipe de La Quadrature du Net ni même les quelques personnes et organisations aujourd’hui mobilisées sur le terrain ne pourront pas grand-chose. Il nous faut réunir un maximum de gens pour faire vivre cette campagne, en particulier au niveau local chaque fois qu’un projet de Smart City sécuritaire verra le jour.
C’est pourquoi nous lançons un appel à participation. Certains de ces groupes locaux pré-existent, par exemple ceux qui se sont engagés contre la vidéosurveillance ces dix dernières années. Dans d’autres cas, ils sont déjà en voie de formation. Et parfois, ils restent à construire. Mais dans tous les cas, la plateforme Technopolice et les outils associés permettront de faciliter leur travail ainsi que leur coordination.
Si vous partagez le constat et le projet du manifeste Technopolice, vous pouvez dès à présent rejoindre le forum dédié au sein duquel nous travaillons à cette campagne : forum.technopolice.fr. Les manières de contribuer sont très variées (animation militante, analyses politiques et juridiques, maintenance d’outils techniques, etc.) et toutes les bonnes volontés sont bienvenues.
Et si vous êtes lié·e à une organisation qui souhaite s’associer à cette campagne, le manifeste est évidemment ouvert à signature (envoyer le nom de la structure, l’URL du site et un logo à contact [at] technopolice.fr).
Le site Technopolice dispose aussi d’une base documentaire consacrée aux projets de Safe City en France et au cadre juridique afférant (data.technopolice.fr), ainsi que, bientôt, d’une plateforme dédiée à la fuite de documents.
Rejoignez cette campagne et faites-la vivre ! La Technopolice ne passera pas !
";s:7:"dateiso";s:15:"20190916_110453";}s:15:"20190829_130000";a:7:{s:5:"title";s:75:"[LaCroix] Des données fiscales trafiquées après un piratage informatique";s:4:"link";s:111:"https://www.laquadrature.net/2019/08/29/lacroix-des-donnees-fiscales-trafiquees-apres-un-piratage-informatique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14708";s:7:"pubDate";s:31:"Thu, 29 Aug 2019 11:00:00 +0000";s:11:"description";s:296:"Environ 2 000 déclarations d’impôts ont été modifiées, en juin, par des pirates informatiques. L’attaque a été rapidement détectée mais cet épisode pose à nouveau la question de la sécurité des données personnelles. […]
« La centralisation de toutes…";s:7:"content";s:1181:"
Environ 2 000 déclarations d’impôts ont été modifiées, en juin, par des pirates informatiques. L’attaque a été rapidement détectée mais cet épisode pose à nouveau la question de la sécurité des données personnelles. […]
« La centralisation de toutes ces données par l’État est dangereuse, estime le juriste de la Quadrature du Net. Hacker un hôpital ou une banque est une chose, mais hacker à l’échelle d’un pays peut être très intéressant, que ce soit pour déstabiliser ou pour gagner de l’argent. »
";s:7:"dateiso";s:15:"20190829_130000";}s:15:"20190829_110000";a:7:{s:5:"title";s:133:"[Konbini] ALICEM, future appli du gouvernement et ‘carte d’identité’ en ligne, est-elle une atteinte grave à nos libertés ?";s:4:"link";s:155:"https://www.laquadrature.net/2019/08/29/konbini-alicem-future-appli-du-gouvernement-et-carte-didentite-en-ligne-est-elle-une-atteinte-grave-a-nos-libertes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14709";s:7:"pubDate";s:31:"Thu, 29 Aug 2019 09:00:00 +0000";s:11:"description";s:371:"Imposer la reconnaissance faciale et conserver vos données personnelles pendant six ans…
ALICEM, future appli du gouvernement et « carte d’identité » en ligne, est-elle une atteinte grave à nos libertés ? Réponse avec @laquadrature.
https://twitter.com/konbinitechno/status/1164216026801823744
NDLRP – Diffusé le 21 août sur…";s:7:"content";s:1696:"
Imposer la reconnaissance faciale et conserver vos données personnelles pendant six ans…
ALICEM, future appli du gouvernement et « carte d’identité » en ligne, est-elle une atteinte grave à nos libertés ? Réponse avec @laquadrature.
NDLRP – Diffusé le 21 août sur les supports de konbini.com, Martin Drago, juriste à La Quadrature du Net, évoque les enjeux autour d’ALICEM, et le recours porté par LQDN. Sujet réalisé par Thibault Prévost. À retrouver aussi sur le Peertube de La Quadrature du Net :
";s:7:"dateiso";s:15:"20190829_110000";}s:15:"20190828_130000";a:7:{s:5:"title";s:91:"[SudOuest] Assistants vocaux : les précautions à prendre pour éviter d’être écouté";s:4:"link";s:118:"https://www.laquadrature.net/2019/08/28/sudouest-assistants-vocaux-les-precautions-a-prendre-pour-eviter-detre-ecoute/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14710";s:7:"pubDate";s:31:"Wed, 28 Aug 2019 11:00:00 +0000";s:11:"description";s:313:"Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes. […]
Malgré toutes ces précautions, « le…";s:7:"content";s:1401:"
Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes. […]
Malgré toutes ces précautions, « le simple fait d’avoir une enceinte connectée comporte un danger sur l’utilisation des extraits vocaux », met en garde Martin Drago, juriste à la Quadrature du net. Aroua Biri, experte en cybersécurité, file la métaphore : « l’enceinte connectée, c’est une personne qui peut nous écouter du matin au soir. Ce que l’on dit en sa présence doit pouvoir être dit devant une assemblée ». […]
";s:7:"dateiso";s:15:"20190828_130000";}s:15:"20190828_110000";a:7:{s:5:"title";s:126:"[FranceInter] Protéger les établissements, surveiller les élèves… la reconnaissance faciale est entrée dans les écoles";s:4:"link";s:155:"https://www.laquadrature.net/2019/08/28/franceinter-proteger-les-etablissements-surveiller-les-eleves-la-reconnaissance-faciale-est-entree-dans-les-ecoles/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14702";s:7:"pubDate";s:31:"Wed, 28 Aug 2019 09:00:00 +0000";s:11:"description";s:258:"La reconnaissance faciale s’implante dans les écoles du monde entier. En Chine, aux États-Unis et bientôt en France, le dispositif est présent pour protéger les élèves mais aussi pour surveiller leur assiduité d’après les pouvoirs…";s:7:"content";s:1772:"
La reconnaissance faciale s’implante dans les écoles du monde entier. En Chine, aux États-Unis et bientôt en France, le dispositif est présent pour protéger les élèves mais aussi pour surveiller leur assiduité d’après les pouvoirs publics. […]
La loi sur la reconnaissance faciale reste floue en France et une fois notre accord donné, notre visage est répertorié ce qui fait qu’on pourrait être « reconnu et surveillé constamment dans l’espace public, sans pouvoir [s’y] opposer, contrairement au principe du libre consentement du Règlement général sur la protection des données (RGPD) » explique Martin Drago, avocat spécialisé dans le droit des données personnelles au média en ligne Cnet. Il est donc urgent de légiférer avant de procéder au déploiement de ces technologies sur la France entière.
";s:7:"dateiso";s:15:"20190828_110000";}s:15:"20190827_130000";a:7:{s:5:"title";s:79:"[FranceInter] Données personnelles : sommes-nous des victimes consentantes ?";s:4:"link";s:111:"https://www.laquadrature.net/2019/08/27/franceinter-donnees-personnelles-sommes-nous-des-victimes-consentantes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14703";s:7:"pubDate";s:31:"Tue, 27 Aug 2019 11:00:00 +0000";s:11:"description";s:254:"Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous…";s:7:"content";s:1973:"
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ? […]
Autour de la table ce lundi pour en parler, Arthur Messaud, juriste de la Quadrature du net, association de défense des droits et libertés des citoyens sur Internet, Edouard Fillias, vice-président de Génération Libre, think tank qui défend un projet de société libérale. et coauteur du “Manuel de survie sur internet, 100 questions/réponses”, sorti en janvier aux éditions Ellipses et Aloïs Brunel, cofondateur de Deepomatic, entreprise qui vend des solutions aux entreprises qui permet aux entreprises d’automatiser des tâches visuelles comme automatiser l’encaissement des plateaux repas dans une cantine. […]
";s:7:"dateiso";s:15:"20190827_130000";}s:15:"20190827_110000";a:7:{s:5:"title";s:63:"[LaCroix] Reconnaissance faciale, entre craintes et fascination";s:4:"link";s:101:"https://www.laquadrature.net/2019/08/27/lacroix-reconnaissance-faciale-entre-craintes-et-fascination/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14704";s:7:"pubDate";s:31:"Tue, 27 Aug 2019 09:00:00 +0000";s:11:"description";s:349:"Depuis plusieurs années, la reconnaissance faciale suscite l’interêt des autorités françaises, encouragées par des industriels souhaitant promouvoir des solutions censées améliorer la sécurité. Cependant, ces technologies soulèvent les craintes des défenseurs des libertés publiques. […]
« L’application passe…";s:7:"content";s:1761:"
Depuis plusieurs années, la reconnaissance faciale suscite l’interêt des autorités françaises, encouragées par des industriels souhaitant promouvoir des solutions censées améliorer la sécurité. Cependant, ces technologies soulèvent les craintes des défenseurs des libertés publiques. […]
« L’application passe par la collecte de données très sensibles et on ne peut plus personnelles », alerte Benoît Piédallu, membre de La Quadrature du Net. D’autant que les vidéos envoyées par les utilisateurs permettent une reconnaissance bien plus précise qu’une simple photo.
« Que se passera-t-il en cas de fuite de données ? Et si, dans quelques années, un gouvernement moins regardant sur le droit des citoyens dispose d’une base regroupant l’identité faciale de toute la population et souhaite y recourir pour identifier manifestants ou opposants, qu’est-ce qui l’empêchera de le faire ? Il lui suffira d’adopter un décret pour accéder à cette base. » Ce militant met en garde contre la banalisation de telles technologies. […]
";s:7:"dateiso";s:15:"20190827_110000";}s:15:"20190826_130000";a:7:{s:5:"title";s:57:"[FranceCulture] La vidéosurveillance par drone à Istres";s:4:"link";s:94:"https://www.laquadrature.net/2019/08/26/franceculture-la-videosurveillance-par-drone-a-istres/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14705";s:7:"pubDate";s:31:"Mon, 26 Aug 2019 11:00:00 +0000";s:11:"description";s:251:"L’utilisation des drones peut parfois conduire à des dérives. A Istres dans le Bouches-du-Rhône, la police municipale est soupçonnée d’utiliser les appareils pour faire de la surveillance en tout genre. On verra ça avec Maxime…";s:7:"content";s:1981:"
L’utilisation des drones peut parfois conduire à des dérives. A Istres dans le Bouches-du-Rhône, la police municipale est soupçonnée d’utiliser les appareils pour faire de la surveillance en tout genre. On verra ça avec Maxime Fayolle. […]
NDLRP: Le reportage complet est à retrouver dans le podcast du journal, de 8 minutes 20′ à 10 minutes 26′.
NDLRP2 – Passage de Martin Drago, juriste à La Quadrature du Net, dans le reportage de Maxime Fayolle diffusé dans le journal de 8H sur France Culture le lundi 12 août 2019 à retrouver aussi sur le Peertube de La Quadrature du Net :
Réaction faisant suite à la demande CADA réalisée par La Quadrature du Net à propos de l’utilisation des drones par la ville d’Istres, où LQDN s’est aperçue que 77% du temps de leur utilisation avait été consacrée à la surveillance des manifestations.
";s:7:"dateiso";s:15:"20190826_130000";}s:15:"20190826_110000";a:7:{s:5:"title";s:55:"[Societe.com] Facebook met en pratique ses résolutions";s:4:"link";s:93:"https://www.laquadrature.net/2019/08/26/societe-com-facebook-met-en-pratique-ses-resolutions/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14706";s:7:"pubDate";s:31:"Mon, 26 Aug 2019 09:00:00 +0000";s:11:"description";s:294:"Vendredi, le site The Information annonçait un premier pas de Facebook vers la clarification de ses activités. Le groupe commence à raccorder ses applications avec la mention « par Facebook ». […]
« Ils vont pouvoir entrecroiser les plateformes techniques…";s:7:"content";s:1305:"
Vendredi, le site The Information annonçait un premier pas de Facebook vers la clarification de ses activités. Le groupe commence à raccorder ses applications avec la mention « par Facebook ». […]
« Ils vont pouvoir entrecroiser les plateformes techniques et continuer à en savoir plus », s’alarme Axel Simon, membre de l’association La Quadrature du Net. Parmi les motivations derrière cette opération, celui-ci évoque une défense face aux autorités de la concurrence et une volonté de redorer leur image, Instagram n’ayant pas pâti des mêmes scandales que Facebook. Il soulève également des risques au niveau de la modération, ces plateformes étant déjà conséquentes individuellement.
";s:7:"dateiso";s:15:"20190826_110000";}s:15:"20190821_160241";a:7:{s:5:"title";s:69:"Surveillance publicitaire : compte-rendu du référé contre la CNIL";s:4:"link";s:104:"https://www.laquadrature.net/2019/08/21/surveillance-publicitaire-compte-rendu-du-refere-contre-la-cnil/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14693";s:7:"pubDate";s:31:"Wed, 21 Aug 2019 14:02:41 +0000";s:11:"description";s:232:"Le 14 août se tenait au Conseil d’État l’audience de référé de notre affaire contre la CNIL. Nous demandions à ce que soit suspendue dans l’urgence son autorisation donnée aux sites Web de nous tracer…";s:7:"content";s:13176:"
Le 14 août se tenait au Conseil d’État l’audience de référé de notre affaire contre la CNIL. Nous demandions à ce que soit suspendue dans l’urgence son autorisation donnée aux sites Web de nous tracer à des fins publicitaires sans notre consentement « explicite » pendant un an. Le Conseil d’État a rendu sa décision extrêmement rapidement : il a considéré qu’il n’y avait pas d’urgence à trancher le débat « en référé » car l’audience « au fond » a finalement été fixée au 30 septembre 2019, ce qui est aussi extrêmement rapide et nous satisfait presque tout autant.
Expliquons en détail ce qui s’est déroulé.
Rappel des épisodes précédents
La CNIL a publié deux articles, les 28 juin et 18 juillet, dans lesquelles elle annonçait ceci : le fait de continuer de consulter un site Web après avoir été informé·e de la présence de traceurs publicitaire (via un « bandeau cookie ») pourra être considéré comme une façon « acceptable » de donner notre consentement, et ce jusqu’à l’été 2020. Comme nous l’expliquions, cette annonce est parfaitement contraire au RGPD, qui exige un consentement « explicite » : nous devons cliquer sur un bouton « j’accepte », notre silence ne vaut pas acceptation. La CNIL n’a aucun pouvoir pour en décider autrement.
Le 29 juillet, nous déposions une requête en référé suspension contre cette décision devant le Conseil d’État. Comme nous l’expliquions alors, nous avons choisi d’agir en référé (c’est à dire dans l’urgence) de peur que la décision du Conseil d’État intervienne trop tard, au-delà du terme de la « période de tolérance » d’un an laissée par la CNIL. En effet, dans nos autres affaires portées devant le Conseil d’État, nous devons généralement attendre deux ou trois années avant d’être entendu·es en audience (voir par exemple le récit de nos actions contre la loi renseignement et la conservation généralisée des données de connexion).
L’audience en référé
L’audience a été fixée tôt, au 14 août, alors que nous jonglions tou·tes entre nos vacances et la préparation d’autres affaires.
D’habitude, devant le Conseil d’État, l’oralité a très peu de place : les débats se font principalement à l’écrit et les parties (c’est à dire les personnes ou organisations en désaccord) ne reprennent pas leurs arguments à l’oral lors de l’audience. En matière de référé, les choses sont bien différentes : les parties ayant eu peu de temps pour développer leurs arguments à l’écrit, c’est à l’audience et à l’oral que se tient tout le débat ou presque. Typiquement, dans notre cas, nous avons rédigé notre requête en dix jours et la CNIL y a répondu dix jours plus tard, le 9 août, ne nous laissant pas assez de temps pour y répliquer convenablement à l’écrit.
L’audience est ainsi organisée pour favoriser ces échanges oraux : un·e unique juge reçoit les deux parties autour d’une table et prend le temps de soulever dans le détail chaque point de débat. Dans notre cas, cela aura pris deux heures, de 11h à 13h.
De notre côté, nous étions assisté·es par Me Ricard, avocat aux conseils de permanence (dans certaines affaires devant le Conseil d’État ou devant la Cour de cassation, seul·es des avocat·es spécialisé·es, dit·es « avocats aux conseils », peuvent plaider – ce n’était pas le cas dans notre affaire de référé, mais nous avons préféré être assisté·es d’un tel avocat par soucis du bon usage). Me Ricard partageait la parole avec Alexis et Benjamin, deux de nos membres, et Arthur, l’un de nos salarié·es. Alexis, avocat spécialisé en droit public, a pu répondre aux points formels les plus spécifiques. Benjamin, ingénieur, a fait un exposé sur les traceurs présents sur le site du Monde, pour ancrer le débat dans le réel et en pointer les enjeux concrets. Arthur, qui suit le développement de ces textes au quotidien, a pu détailler l’articulation entre le RGPD et la directive ePrivacy, qui est l’une des spécificités de cette affaire.
En face, la CNIL était représentée par cinq personnes, dont une seule a pris la parole. Curieusement, elle a dit regretter de ne pas être assistée d’un expert technique, contrairement à nous. Tout aussi curieusement, elle prenait le soin de rappeler régulièrement qu’une des missions de la CNIL est d’accompagner les entreprises, alors que nous lui reprochions précisément de ne pas assez prendre en compte les droits fondamentaux de la population.
Une quinzaine de personnes étaient venues assister à l’audience dans le public.
Les points débattus
Durant les deux heures de débats, la question de fond, à savoir si la décision de la CNIL est légale ou justifiée, a finalement été peu abordée. L’essentiel des échanges visait à déterminer s’il fallait ou non que le Conseil d’État se prononce dans l’urgence. Pour cela, nous avons rappelé que, s’il en était autrement, les délais de procédures habituels rendraient notre action inutile, nous privant de « recours effectif ».
Mais ce n’est pas tout : il fallait aussi démontrer que l’acte que nous attaquons cause un préjudice suffisamment grave. Dans une procédure « normale », ce n’est pas nécessairement un point central du débat : un acte de la CNIL peut être annulé du simple fait qu’il est illégal, sans avoir à évaluer la gravité des torts qu’il cause. Il en va autrement en référé : pour justifier que les juges agissent dans l’urgence, il faut que les effets concrets de l’acte soient particulièrement graves. Ainsi, la CNIL a défendu que sa décision ne causait en elle-même aucune réduction de notre droit à la protection des données. Elle a prétendu que de nombreux sites Web ne respectent pas notre consentement « explicite » depuis des années et que prolonger cet état de fait n’était pas une « aggravation » de la situation mais le simple maintien d’un statu quo qui, aussi nuisible soit-il, ne serait pas du fait de la CNIL.
Nous avons pu expliquer que c’était faux : depuis des années, diverses autorités européennes ont très clairement dit que les cookies et autres traceurs ne pouvaient être utilisés à des fins publicitaires qu’avec notre consentement explicite et que la « poursuite de la navigation » n’était plus un mode d’expression valable du consentement au regard du RGPD. De nombreux acteurs économiques ont à leur tour repris ce discours pour inviter à une évolution de la pratique (voir par exemple ces articles publiés par un conseiller spécialisé dans la publicité en ligne, une agence de développement Web, un conseiller en conformité RGPD ou un site d’actualité de droit du numérique).
Ainsi, la décision de la CNIL que nous attaquons a bien aggravé la situation : de nombreux acteurs jusqu’alors convaincus de devoir obtenir un consentement explicite sont désormais assurés par la CNIL de pouvoir se satisfaire d’un simple « qui ne dit mot consent », diminuant notre droit à la protection des données et défavorisant les acteurs respectueux du droit face à leurs concurrents.
La décision
Juste après l’audience, le jour même, le juge des référés a rendu sa décision, qui nous est parvenue deux jours plus tard. La rapidité de sa décision s’explique par sa simplicité : il n’y avait plus d’urgence à trancher en référé car l’audience « au fond » venait d’être fixée au 30 septembre, 40 jours plus tard.
En matière de référé-suspension, qui est la procédure que nous avons choisie, toute demande de décision urgente accompagne nécessairement une demande principale, dite « au fond ». Si le juge des référés estime que l’illégalité pointée par le requérant est suffisamment urgente et conséquente, il suspendra, de façon provisoire, les effets de l’acte attaqué jusqu’à la publication de la décision définitive au fond. Dans l’hypothèse inverse, le juge rejettera le référé et l’affaire reprend sa voie « normale », « au fond », soumise aux délais et à la procédure habituelle de la juridiction. C’est ce qui s’est passé pour nous. Toutefois, l’audience au fond (non urgente) a été fixée extrêmement tôt, au 30 septembre.
Les craintes qui nous avaient poussé·es à choisir la voie du référé avaient disparues. Il n’y avait plus urgence à obtenir une décision du juge des référés, qui s’en est donc abstenu, pour ce seul motif. Formellement, il rejette notre demande. Concrètement, il nous renvoie à l’audience du 30 septembre.
La suite
Un point demeure curieux : pourquoi l’audience au fond a-t-elle était fixée si tôt, défiant tous les délais habituels du Conseil d’État ? Une piste de réflexion pourrait être que la question que nous soulevons est assez grave, au point que le Conseil d’État a souhaité en décharger le juge des référés, qui aurait pu décider seul et de façon provisoire, pour s’en saisir pleinement et en détail par une décision définitive et collégiale (par plusieurs juges, selon la procédure « normale »).
En effet, répondre à notre question pourrait avoir d’importantes conséquences juridiques, dépassant le seul cas de la CNIL : une autorité administrative indépendante peut-elle décider de n’appliquer une disposition légale à aucun des cas qu’elle est sensée contrôler ? Certes, les autorités de contrôle, de même que les procureur·es, disposent d’un certains « pouvoir d’opportunité » pour apprécier au cas par cas si telle ou telle affaire mérite d’être poursuivie. Mais la décision qu’a pris la CNIL dans notre cas est bien plus large que du « cas par cas ». Pendant un an, elle refuse de poursuivre n’importe quel site Web violant l’exigence de consentement explicite. Une telle décision a une portée générale et abstraite, ce qui est normalement le monopole du pouvoir législatif. Cette décision, et sa publicité, a aussi pour effet d’inciter les acteurs à violer la loi, en contradiction des missions de la CNIL.
Nous sommes impatient·es d’entendre les conclusions du rapporteur public (il s’agit du membre de la formation de jugement chargé d’examiner les affaires et de conseiller les juridictions administratives, dont les avis sont très généralement suivis). L’audience étant publique, nous vous y retrouverons avec plaisir ! Le 30 septembre, 1 place du Palais Royal à Paris. Nous communiquerons l’heure exacte dès que nous l’aurons !
";s:7:"dateiso";s:15:"20190821_160241";}s:15:"20190812_131509";a:7:{s:5:"title";s:124:"Recours contre le renseignement français : audience devant la Cour de Justice de l’Union européenne le 9 septembre 2019";s:4:"link";s:157:"https://www.laquadrature.net/2019/08/12/recours-contre-le-renseignement-francais-audience-devant-la-cour-de-justice-de-lunion-europeenne-le-9-septembre-2019/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14666";s:7:"pubDate";s:31:"Mon, 12 Aug 2019 11:15:09 +0000";s:11:"description";s:267:"Le 9 septembre prochain, se tiendra à Luxembourg, devant la Grande chambre de la Cour de Justice de l’Union européenne, l’audience sur la loi Renseignement française et l’obligation de conservation généralisée des données de connexion.…";s:7:"content";s:4434:"
Le 9 septembre prochain, se tiendra à Luxembourg, devant la Grande chambre de la Cour de Justice de l’Union européenne, l’audience sur la loi Renseignement française et l’obligation de conservation généralisée des données de connexion.
Cette audience marque l’aboutissement de presque quatre années de procédures, engagées depuis le 30 novembre 2015 par La Quadrature du Net, FDN et FFDN, au travers des Exégètes amateurs, rejoints par Igwan.net.
Le résultat pourrait bouleverser tout le régime de surveillance français.
Pour rappel, il s’agit d’un contentieux qui concerne la conformité du régime français de surveillance au regard du droit de l’Union européenne. A la suite de nos procédures devant les juridictions françaises depuis 2015, le Conseil d’État a accepté l’année dernière de poser à la Cour de Justice de l’Union européenne cinq questions sur cette conformité : trois questions qui concernent la loi Renseignement votée en France en 2015 et deux questions qui concernent l’obligation pour les acteurs de l’Internet de conserver pendant un an les données de connexion sur l’ensemble de la population (voir à cette occasion le site de campagne que nous avions lancé).
Nous étions déjà longuement revenu dans plusieurs articles sur ce contentieux, n’hésitez pas à les relire pour bien comprendre les enjeux de ce dossier :
dans cet article du 10 juillet 2018, à l’occasion de deux audiences devant le Conseil d’État, nous rappelons tout l’historique de ce contentieux. Il y a d’un côté, la loi Renseignement adoptée en juillet 2015 (nous avons attaqué avec FDN et FFDN les décrets d’application de cette loi dès le 30 novembre 2015). Il y a de l’autre côté, le régime de conservation des données de connexion de l’ensemble de la population imposé aux acteurs de l’Internet (que nous avons attaqué en septembre 2015, également avec FDN et FFDN) ;
dans ces articles du 26 juillet 2018 et du 27 novembre 2018, nous revenons, à la suite de cette audience, sur la décision du Conseil d’État qui a enfin accepté de poser à la Cour de justice de l’Union européenne les cinq questions citées plus haut qui sont susceptibles de remettre en cause la compatibilité du droit français au droit de l’Union ;
enfin, dans cet article du 13 décembre 2018, nous détaillons les arguments que nous avons soulevés devant la Cour de Justice de l’Union européenne et qui seront donc discutés lors de l’audience à venir.
L’audience du 9 (et peut-être 10 si l’audience se prolonge) septembre sera donc d’une importance capitale : son issue pourrait remettre en cause l’ensemble du régime de surveillance en France. La participation de La Quadrature du Net a un coût (transport et hébergement) qui n’était pas prévu dans notre budget annuel, alors même que notre objectif de dons annuel n’est toujours pas atteint.
Pour nous aider sur cette action et pour que La Quadrature du Net puisse continuer son combat, faites un don sur don.laquadrature.net.
";s:7:"dateiso";s:15:"20190812_131509";}s:15:"20190807_130000";a:7:{s:5:"title";s:108:"[Numerama] La Quadrature du Net tient parole : elle attaque la CNIL pour sa frilosité à appliquer le RGPD";s:4:"link";s:142:"https://www.laquadrature.net/2019/08/07/numerama-la-quadrature-du-net-tient-parole-elle-attaque-la-cnil-pour-sa-frilosite-a-appliquer-le-rgpd/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14664";s:7:"pubDate";s:31:"Wed, 07 Aug 2019 11:00:00 +0000";s:11:"description";s:252:"Le 14 août se tiendra une audience devant le Conseil d’État. La Quadrature du Net veut contraindre la CNIL à appliquer le RGPD sous toutes ses dimensions et ne plus accorder de périodes transitoires. […]
« La justification…";s:7:"content";s:1393:"
Le 14 août se tiendra une audience devant le Conseil d’État. La Quadrature du Net veut contraindre la CNIL à appliquer le RGPD sous toutes ses dimensions et ne plus accorder de périodes transitoires. […]
« La justification avancée par la CNIL d’ « exigence juridique de prévisibilité » ne tient donc aucunement : les acteurs de l’Internet ont eu plus de deux ans pour se conformer à ces nouvelles obligations. La lettre du RGPD est parfaitement claire, déjà expliquée en long, en large et en travers : la protection de nos libertés fondamentales ne peut connaître aucun nouveau sursis », déclare l’association. […]
";s:7:"dateiso";s:15:"20190807_130000";}s:15:"20190807_110000";a:7:{s:5:"title";s:73:"[LesEchos] Apple admet écouter certaines conversations privées via Siri";s:4:"link";s:110:"https://www.laquadrature.net/2019/08/07/lesechos-apple-admet-ecouter-certaines-conversations-privees-via-siri/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14663";s:7:"pubDate";s:31:"Wed, 07 Aug 2019 09:00:00 +0000";s:11:"description";s:305:"Un ancien sous-traitant de l’entreprise a révélé que des contractuels sont chargés d’écouter des enregistrements réalisés par l’outil de commande vocale Siri à l’insu des utilisateurs. Une manœuvre qui serait destinée à « améliorer les performances »…";s:7:"content";s:1792:"
Un ancien sous-traitant de l’entreprise a révélé que des contractuels sont chargés d’écouter des enregistrements réalisés par l’outil de commande vocale Siri à l’insu des utilisateurs. Une manœuvre qui serait destinée à « améliorer les performances » du dispositif, mais qui contraste avec la position stricte d’Apple en matière de respect des données personnelles. […]
Un avis partagé par un membre de l’association œuvrant pour la défense des libertés numériques La Quadrature du Net et connu sous le pseudonyme « Klorydryk». révèle aussi que les Gafam sont plus humanisés qu’on ne le croit. « Les Gafam nous avaient fait des promesses sur le plan technique » estime-t-il. « L’une d’entre elles consistait à ce que les données soient surtout traduites par des robots… Pourtant, de nombreux cas, comme le fait que des tiers soient ici employés par Apple, nous prouvent que ce n’est pas vrai, ce dont on se doutait déjà après le scandale autour des écoutes réalisées par Amazon grâce à Alexa. »
";s:7:"dateiso";s:15:"20190807_110000";}s:15:"20190806_130000";a:7:{s:5:"title";s:104:"[LeFigaro] En France, la reconnaissance faciale attestera bientôt de votre « identité numérique »";s:4:"link";s:131:"https://www.laquadrature.net/2019/08/06/lefigaro-en-france-la-reconnaissance-faciale-attestera-bientot-de-votre-identite-numerique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14659";s:7:"pubDate";s:31:"Tue, 06 Aug 2019 11:00:00 +0000";s:11:"description";s:333:"Un décret du gouvernement a officialisé le développement d’une application mobile d’authentification d’identité. Baptisée « AliceM », elle fait appel à un dispositif de reconnaissance faciale. Certaines associations s’inquiètent. […]
La Commission propose de mettre en place des solutions…";s:7:"content";s:1562:"
Un décret du gouvernement a officialisé le développement d’une application mobile d’authentification d’identité. Baptisée « AliceM », elle fait appel à un dispositif de reconnaissance faciale. Certaines associations s’inquiètent. […]
La Commission propose de mettre en place des solutions alternatives à la reconnaissance faciale pour garantir un consentement libre comme un face-à-face en préfecture ou un appel vidéo avec un agent de l’ANTS. Des solutions qui n’ont pas été retenues par le gouvernement dans son décret. « Le plus inquiétant dans cette procédure, c’est que nous constatons une perte de pouvoir de la CNIL. Si même le gouvernement ne l’écoute plus, qui va le faire ? » s’interroge Martin Drago, juriste au sein de la Quadrature du Net, contacté par Le Figaro […].
";s:7:"dateiso";s:15:"20190806_130000";}s:15:"20190806_110000";a:7:{s:5:"title";s:71:"[Mediapart] Dans le ventilateur à données de l’appli Météo-France";s:4:"link";s:103:"https://www.laquadrature.net/2019/08/06/mediapart-dans-le-ventilateur-a-donnees-de-lappli-meteo-france/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14660";s:7:"pubDate";s:31:"Tue, 06 Aug 2019 09:00:00 +0000";s:11:"description";s:253:"Il suffit d’une autorisation donnée à une entreprise de la publicité en ligne pour qu’aussitôt nos données personnelles soient transmises à tous les acteurs du marché, et traversent frontières et océans. Mediapart s’est penché sur…";s:7:"content";s:1948:"
Il suffit d’une autorisation donnée à une entreprise de la publicité en ligne pour qu’aussitôt nos données personnelles soient transmises à tous les acteurs du marché, et traversent frontières et océans. Mediapart s’est penché sur le cas de l’appli Météo-France, dans laquelle la publicité abonde, et qui alimente via sa régie plus de cinquante acteurs et Facebook. […]
Dans ses toutes nouvelles « lignes directrices », la Cnil rappelle aux acteurs de ce marché publicitaire que « les opérateurs doivent respecter le caractère préalable du consentement au dépôt de traceurs. Ils doivent laisser la possibilité d’accéder au service même en cas de refus de consentir. Ils doivent fournir un dispositif de retrait du consentement facile d’accès et d’usage ». Elle leur laisse encore un délai de plusieurs mois pour se mettre en conformité avec les règles du RGPD, au grand dam de la Quadrature du Net, l’association en pointe dans la lutte pour la protection des données personnelles, qui déplore un « mépris total du droit européen ». […]
";s:7:"dateiso";s:15:"20190806_110000";}s:15:"20190805_130000";a:7:{s:5:"title";s:123:"[FranceInfo] ‘Libra’, la monnaie virtuelle de Facebook, ‘peut potentiellement détrôner de très grandes monnaies’";s:4:"link";s:145:"https://www.laquadrature.net/2019/08/05/franceinfo-libra-la-monnaie-virtuelle-de-facebook-peut-potentiellement-detroner-de-tres-grandes-monnaies/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14657";s:7:"pubDate";s:31:"Mon, 05 Aug 2019 11:00:00 +0000";s:11:"description";s:250:"Pour Mark Zuckerberg, le patron du réseau social américain, il s’agit de rendre le transfert d’argent sur sa plateforme aussi facile que le partage d’une photo.
Alors que le G7 Finances s’alarme des risques que Libra,…";s:7:"content";s:1750:"
Pour Mark Zuckerberg, le patron du réseau social américain, il s’agit de rendre le transfert d’argent sur sa plateforme aussi facile que le partage d’une photo.
Alors que le G7 Finances s’alarme des risques que Libra, le projet de crypto-monnaie de Facebook, ferait courir au système monétaire international, elle « peut potentiellement détrôner de très grandes monnaies », selon Gilles Babinet, le vice-président du Conseil national du numérique Gilles Babinet. Selon lui, « la portée sera sans doute bien supérieure aux achats en ligne ». […]
";s:7:"dateiso";s:15:"20190805_130000";}s:15:"20190805_110000";a:7:{s:5:"title";s:108:"[NextINpact] Surfer vaut consentement aux cookies : la tolérance de la CNIL attaquée au Conseil d’État";s:4:"link";s:138:"https://www.laquadrature.net/2019/08/05/nextinpact-surfer-vaut-consentement-aux-cookies-la-tolerance-de-la-cnil-attaquee-au-conseil-detat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14656";s:7:"pubDate";s:31:"Mon, 05 Aug 2019 09:00:00 +0000";s:11:"description";s:235:"La CNIL a décidé que pendant une période transitoire d’un an, la poursuite de la navigation vaudra expression du consentement à l’installation des cookies. Intolérables pour la Quadrature du Net et Caliopen qui, dans un…";s:7:"content";s:1660:"
La CNIL a décidé que pendant une période transitoire d’un an, la poursuite de la navigation vaudra expression du consentement à l’installation des cookies. Intolérables pour la Quadrature du Net et Caliopen qui, dans un recours au Conseil d’État, lui opposent le RGPD. […]
Selon elles, le choix de la CNIL prive finalement « tant la loi française que des normes issues de l’ordre juridique de l’Union européenne de tout effet dissuasif contre l’utilisation illicite de cookies et autres traceurs en ligne pour surveiller les personnes sans leur consentement explicite ». […]
";s:7:"dateiso";s:15:"20190805_110000";}s:15:"20190804_130000";a:7:{s:5:"title";s:116:"[LeMonde] La reconnaissance faciale pour s’identifier en ligne inquiète les défenseurs des libertés numériques";s:4:"link";s:148:"https://www.laquadrature.net/2019/08/04/lemonde-la-reconnaissance-faciale-pour-sidentifier-en-ligne-inquiete-les-defenseurs-des-libertes-numeriques/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14654";s:7:"pubDate";s:31:"Sun, 04 Aug 2019 11:00:00 +0000";s:11:"description";s:269:"Un recours a été déposé devant le Conseil d’Etat pour faire annuler le décret autorisant l’application AliceM. […]
Le 15 juillet, l’association spécialisée La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler…";s:7:"content";s:1569:"
Un recours a été déposé devant le Conseil d’Etat pour faire annuler le décret autorisant l’application AliceM. […]
Le 15 juillet, l’association spécialisée La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler le décret du 13 mai autorisant le dispositif. Elle dénonce un traitement intrusif de données biométriques « ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat ». […]
";s:7:"dateiso";s:15:"20190804_130000";}s:15:"20190804_110000";a:7:{s:5:"title";s:52:"[FrequenceProtestante] Vidéosurveillance et fichage";s:4:"link";s:90:"https://www.laquadrature.net/2019/08/04/frequenceprotestante-videosurveillance-et-fichage/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14655";s:7:"pubDate";s:31:"Sun, 04 Aug 2019 09:00:00 +0000";s:11:"description";s:246:"[NDLRP : Sylvain Steer de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la première partie a été diffusée le 23 juin 2019, dans l’émission Parole aux associations de Fréquence protestante avec…";s:7:"content";s:1172:"
[NDLRP : Sylvain Steer de La Quadrature du Net dans l’émission enregistrée le 14 juin et dont la première partie a été diffusée le 23 juin 2019, dans l’émission Parole aux associations de Fréquence protestante avec Nathalie Zanon.]
";s:7:"dateiso";s:15:"20190804_110000";}s:15:"20190803_130000";a:7:{s:5:"title";s:86:"[LaTribune] Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre elle";s:4:"link";s:121:"https://www.laquadrature.net/2019/08/03/latribune-pourquoi-la-loi-avia-sur-la-haine-en-ligne-fait-lunanimite-contre-elle/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14652";s:7:"pubDate";s:31:"Sat, 03 Aug 2019 11:00:00 +0000";s:11:"description";s:257:"Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne,…";s:7:"content";s:1631:"
Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications. […]
Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association. […]
";s:7:"dateiso";s:15:"20190803_130000";}s:15:"20190803_110000";a:7:{s:5:"title";s:91:"[01net] Quand le renseignement français collecte des informations… en toute illégalité";s:4:"link";s:124:"https://www.laquadrature.net/2019/08/03/01net-quand-le-renseignement-francais-collecte-des-informations-en-toute-illegalite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14653";s:7:"pubDate";s:31:"Sat, 03 Aug 2019 09:00:00 +0000";s:11:"description";s:262:"Sous couvert de lutte contre le terrorisme, les services secrets français collectent et partagent leurs informations, en l’absence de cadre juridique. La Quadrature du Net vient de saisir le Conseil d’État concernant l’existence de cet…";s:7:"content";s:1590:"
Sous couvert de lutte contre le terrorisme, les services secrets français collectent et partagent leurs informations, en l’absence de cadre juridique. La Quadrature du Net vient de saisir le Conseil d’État concernant l’existence de cet « entrepôt » ultraconfidentiel. […]
La prophétie s’est finalement réalisée mardi 25 juin. La Quadrature du Net (LQDN), une association qui défend les droits numériques et n’en est pas à son coup d’essai, a déposé un recours devant le Conseil d’État. Le motif : « les activités illégales de partage de données entre services de renseignement ». […]
";s:7:"dateiso";s:15:"20190803_110000";}s:15:"20190802_130000";a:7:{s:5:"title";s:49:"[Reporterre] Avec la 5G, demain, tous surveillés";s:4:"link";s:85:"https://www.laquadrature.net/2019/08/02/reporterre-avec-la-5g-demain-tous-surveilles/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14640";s:7:"pubDate";s:31:"Fri, 02 Aug 2019 11:00:00 +0000";s:11:"description";s:267:"Sous ses atours attrayants, la 5G pose des problèmes de sécurité du réseau, de confidentialité des conversations, de neutralité d’internet et de surveillance des populations. Sans débat démocratique autour de son déploiement, ces questions demeurent…";s:7:"content";s:1615:"
Sous ses atours attrayants, la 5G pose des problèmes de sécurité du réseau, de confidentialité des conversations, de neutralité d’internet et de surveillance des populations. Sans débat démocratique autour de son déploiement, ces questions demeurent sans réponse. […]
Pour la Quadrature du Net, une association de défense des droits et libertés des citoyens sur internet, il ne s’agit que de considérations commerciales. « Les opérateurs estiment que certains sites, comme Netflix ou YouTube, se font de l’argent sur leur dos en utilisant leurs infrastructures. Ils aimeraient proposer une connexion internet de base et faire payer plus cher l’accès à certains services. Dans ce cas, qui va décider des choses à prioriser ? Ce n’est pas aux fournisseurs d’accès à internet de dire qui peut s’exprimer en ligne, d’estimer le volume de données raisonnables. Vous vous rendez compte du pouvoir que cela leur donnerait ? Il y a ici un fort enjeu de liberté », explique Alexis O Cobhthaigh, avocat et membre de la Quadrature du Net […]
";s:7:"dateiso";s:15:"20190802_130000";}s:15:"20190802_112521";a:7:{s:5:"title";s:78:"Surveillance publicitaire : La Quadrature du Net attaque la CNIL en référé";s:4:"link";s:113:"https://www.laquadrature.net/2019/08/02/surveillance-publicitaire-la-quadrature-du-net-attaque-la-cnil-en-refere/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14642";s:7:"pubDate";s:31:"Fri, 02 Aug 2019 09:25:21 +0000";s:11:"description";s:279:"Ce lundi 29 juillet, comme annoncé, nous avons déposé devant le Conseil d’État, avec l’association Caliopen, un recours contre la décision de la CNIL d’autoriser la « poursuite de la navigation » comme mode d’expression du consentement…";s:7:"content";s:8267:"
Ce lundi 29 juillet, comme annoncé, nous avons déposé devant le Conseil d’État, avec l’association Caliopen, un recours contre la décision de la CNIL d’autoriser la « poursuite de la navigation » comme mode d’expression du consentement en matière de cookies et de traceurs en ligne jusqu’à mi-2020.
Sur le fond, nous avions déjà présenté les principaux points de contexte de ce recours dans notre article du 28 juin 2019.
Pour rappel, le 28 juin 2019, la CNIL publie un article sur son site où elle annonce l’adoption de futures lignes directrices en matière de cookies et de traceurs en ligne. Elle précise que « la CNIL laissera aux acteurs une période transitoire de 12 mois » durant laquelle « la poursuite de la navigation comme expression du consentement sera donc considérée par la CNIL comme acceptable ». Le 4 juillet, la CNIL adopte les lignes directrices annoncées. Le 18 juillet, elle publie un second article dans laquelle elle déclare que les lignes directrices seront suivies d’une nouvelle recommandation au premier trimestre 2020 (venant préciser ces lignes directrices) et qu’ « une période d’adaptation, s’achevant six mois après la publication de la future recommandation, sera laissée aux acteurs afin de leur donner le temps d’intégrer les nouvelles règles ».
C’est cette décision que nous attaquons. Non pas les nouvelles lignes directrices ou les futures recommandations, mais celle, qui nous a été confirmé directement par la CNIL, d’autoriser la « poursuite de la navigation » comme mode d’expression du consentement en matière de cookies et de traceurs en ligne jusqu’à mi-2020.
Pourquoi nous attaquons cette décision ?
Parce que, comme nous l’expliquions déjà, elle est totalement illégale. Vous pouvez lire l’avant-propos de notre recours qui reprend tous nos arguments.
Reprenons rapidement : la directive 2002/58 (dite « directive ePrivacy ») prévoit que les « Les États membres garantissent que le stockage d’informations, ou l’obtention de l’accès à des informations déjà stockées, dans l’équipement terminal d’un abonné ou d’un utilisateur n’est permis qu’à condition que l’abonné ou l’utilisateur ait donné son accord », c’est à dire : l’utilisation de cookies n’est possible qu’avec le consentement de chaque personne concernée. Cette directive ePrivacy prévoit que ce consentement doit respecter les mêmes garanties que celles définies dans l’ancienne directive 95/46 (cette directive 95/46 a depuis été remplacée par Règlement général sur la protection de données, dit « RGPD »). Or, la directive de 95 acceptait qu’un consentement puisse être implicite. Et cela avait ainsi permis à la CNIL, dans une recommandation de 2013, de dire que, sur un site Internet, « la poursuite de sa navigation vaut accord au dépôt de cookies ».
Mais, depuis l’entrée en vigueur du RGPD, cela a totalement changé. Maintenant, le consentement doit être explicite et cette modification est d’effet immédiat sur la directive ePrivacy : la recommandation de 2013 de la CNIL est alors devenue caduque. D’ailleurs, en avril 2018, un mois avant l’entrée en vigueur du RGPD, le « groupe de l’article 29 » (G29, devenu depuis « Comité européen de protection des données », ou EDPB) a ainsi publié des lignes directrices sur le consentement dans lequel il précise que « faire défiler une page ou naviguer sur un site Internet ne satisfait pas à l’exigence d’un acte positif clair ».
Cela veut donc dire que dès l’entrée en vigueur du RGPD, c’est-à-dire mai 2018, il avait déjà clairement été énoncé que la « poursuite de la navigation » ne valait pas comme mode d’expression du consentement. La justification avancée par la CNIL d’ « exigence juridique de prévisibilité » ne tient donc aucunement : les acteurs de l’Internet ont eu plus de deux ans pour se conformer à ces nouvelles obligations. La lettre du RGPD est parfaitement claire, déjà expliquée en long, en large et en travers : la protection de nos libertés fondamentales ne peut connaître aucun nouveau sursis.
Le choix du référé-suspension
Nous avons cette fois choisi d’agir en urgence en utilisant la procédure du référé-suspension. Il s’agit, quand on demande l’annulation d’une décision administrative, de demander en plus au juge de suspendre cette décision le plus rapidement possible, avant qu’il fasse droit, ou non, à la demande d’annulation. En effet, il se passe plusieurs mois et parfois plusieurs années avant que le juge ait pu statuer sur la demande d’annulation. Le référé permet ainsi de suspendre temporairement une décision. Deux conditions pour cela : prouver l’urgence et le doute sérieux sur la légalité de la décision.
Sur l’urgence : en disant que personne ne sera sanctionné sur ce fondement jusqu’à l’année prochaine, nous avons souligné que la décision de la CNIL produisait déjà des effets préjudiciables car elle encourageait dès maintenant l’utilisation illicite de cookies et traceurs sans notre consentement explicite. Il est donc important de la suspendre au plus vite.
Quant au doute sérieux sur la légalité : nous avons expliqué, en lien avec les arguments précisés ci-dessus, que la CNIL n’avait aucun pouvoir pour prendre une telle décision qui revient, encore une fois, à encourager la surveillance des personnes en ligne sans leur consentement explicite. Une telle décision constitue une atteinte grave à notre droit à la vie privée et à la protection des données personnelles et ne peut en aucun être justifiée par le principe de prévisibilité. Elle rentre en totale contradiction avec le RGPD que la CNIL est justement censée faire respecter.
Il reste maintenant à attendre la décision du Conseil d’État. L’audience de référé se tiendra le 14 août. Il devra ensuite se prononcer rapidement (normalement dans quelques semaines) sur notre référé-suspension puis se prononcer sur notre recours au fond. Considérer la poursuite de la navigation comme une expression valable du consentement constitue un dévoiement de nos libertés extrêmement décevant de la part de la CNIL. Cette décision doit donc être urgemment suspendue, puis annulée au plus vite.
";s:7:"dateiso";s:15:"20190802_112521";}s:15:"20190802_110000";a:7:{s:5:"title";s:81:"[LeMonde] « Il ne faut pas réguler Facebook ou Google mais s’en libérer »";s:4:"link";s:107:"https://www.laquadrature.net/2019/08/02/lemonde-il-ne-faut-pas-reguler-facebook-ou-google-mais-sen-liberer/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14641";s:7:"pubDate";s:31:"Fri, 02 Aug 2019 09:00:00 +0000";s:11:"description";s:219:"Pour l’association la Quadrature du Net, la régulation des contenus haineux par les géants du Web est vouée à l’échec.
La proposition de loi de la députée LRM Laetitia Avia, qui impose le retrait sous…";s:7:"content";s:1231:"
Pour l’association la Quadrature du Net, la régulation des contenus haineux par les géants du Web est vouée à l’échec.
La proposition de loi de la députée LRM Laetitia Avia, qui impose le retrait sous 24 heures des contenus haineux signalés aux réseaux sociaux, sous peine de lourdes sanctions, n’est autre qu’une « privatisation de la justice » au profit de Facebook, Google et Twitter, qui décideront ce qu’on a le droit de dire sur Internet, critique Arthur Messaud, juriste de la Quadrature du Net […]
";s:7:"dateiso";s:15:"20190802_110000";}s:15:"20190722_145058";a:7:{s:5:"title";s:17:"De la modération";s:4:"link";s:57:"https://www.laquadrature.net/2019/07/22/de-la-moderation/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14621";s:7:"pubDate";s:31:"Mon, 22 Jul 2019 12:50:58 +0000";s:11:"description";s:255:"Une tribune d’Okhin
Le sujet fleurit dans tous les espaces. Les GAFAM demandent à cor et à cri des règles de modération qu’ils pourraient appliquer, se contentant pour le moment de leurs « règles communautaires » qui ne…";s:7:"content";s:17935:"
Une tribune d’Okhin
Le sujet fleurit dans tous les espaces. Les GAFAM demandent à cor et à cri des règles de modération qu’ils pourraient appliquer, se contentant pour le moment de leurs « règles communautaires » qui ne sont au final ni des règles — dans le sens où elles ne sont appliquées que partialement — ni communautaires — car personne d’autre que les GAFAM n’a été impliqué dans leur processus de rédaction. À la dernière RightsCon à Tunis, de nombreuses discussions tournaient autour des problèmes liés à la gestion de la haine en ligne et à la modération de contenu, et autour du rôle que les plateformes devraient tenir vis-à-vis de leurs utilisatrices. Les systèmes fédératifs se jettent aussi dans la discussion : Mastodon a instauré un critère de Safe Space[1], demandant à chaque instance voulant être listée sur https://joinmastodon.org de mettre en place des mesures de modération active dans le but de lutter contre les discriminations. Nous-même, au sein de La Quadrature, sommes en pleines discussions, parfois houleuses, vis-à-vis de la modération de notre instance Mamot.fr (qui n’est donc, pour l’instant, pas listée sur https://joinmastodon.org). Les gouvernements veulent, encore une fois, combattre la haine en ligne (voir par exemple, la proposition de loi de la députée Avia pour combattre la haine en ligne) et la radicalisation et cherchent à s’en remettre aux pouvoirs privés des GAFAM.
Le débat s’est centré sur la régulation de la parole en ligne. S’appuyant sur le fait qu’il faut bien faire quelque chose, et suite à l’attaque terroriste commise par un militant identitaire contre deux mosquées à Christchurch en Nouvelle-Zélande, les États et les plateformes géantes se sont alliées dans un vibrant appel de Christchurch[2]. Cet appel se contente de promouvoir la solution magique de la suppression de contenu en ligne, sans se poser la question de ce qui a poussé nos sociétés vers cette violence extrême. En refusant de voir les menaces posées par la coordination des groupes promouvant la culture de la haine de l’autre et de les considérer dans leur globalité, en les réduisant aux seuls espaces des médias sociaux, les États et plateformes montrent que leur intérêt n’est pas de combattre la haine, mais de réguler la pensée. Car se reposer sur les systèmes mis en place par les plateformes pour filtrer le débat, leur déléguer la tâche de déterminer ce qui est une parole haineuse c’est établir que, d’une part, les États abandonnent totalement leur rôle de protection des personnes minorisées, et que, d’autre part, ce qui est publié sur les plateformes, et qui reste en ligne, n’est pas une parole de haine.
La marginalisation des minorités
Réduire l’émergence d’une culture de la haine à un simple problème pouvant être résolu par des maths, à un problème spécifique aux médias sociaux, c’est nier l’implication des différents gouvernants et autres personnes publiques et politiques dans la propagation et la tolérance des idées de cette culture de la haine. C’est considérer qu’il ne s’agit que d’un phénomène marginal, qui peut se régler avec un filtre, faisant magiquement disparaître cette culture. Le débat sur le contrôle de la parole en ligne n’est pas, au final, celui de la lutte contre les discriminations et la haine. C’est certes une tendance inquiétante de nos sociétés, et ces cultures de la haine doivent être combattues, en ligne comme hors ligne, mais la régulation de la parole sur des plateformes monolithiques et hégémoniques ne fait que renforcer les cultures mises en avant par ces plateformes, au détriment des personnes et cultures minorisées. Que ce soit en démonétisant le contenu produit par les membres de ces communautés (comme le fait YouTube), en bannissant les personnes répondant à leurs agresseurs (comme le fait Twitter) ou par la suppression massive du contenu non-conforme (comme l’a fait Tumblr), les principales personnes victimes de cette suppression de la parole sont toujours les personnes censées être protégées par ces mesures. Ce sont les activistes, journalistes et chercheurs qui pâtissent le plus de la suppression du contenu « faisant l’apologie du terrorisme », pas les organisations terroristes.
Les termes du débat ne sont pas ceux de la modération ou de la protection des personnes victimes de violences. Ce sont ceux de l’abandon de la diversité culturelle au profit d’une méga-culture dominante et prédatrice, promue par quelques intérêts privés ; de la consécration par les plateformes du modèle culturel des identitaires, des suprémacistes et des conservateurs, reléguant quiconque refuse leur vision du monde dans les marges. Mais c’est aussi l’entretien de la confusion entre publier et promouvoir. Confusion derrière laquelle les GAFAM se cachent pour continuer leurs opérations d’éradication des cultures non-voulues et de monétisation de la haine. Il y a pourtant une différence importante qui, dans la loi Française, est la différence entre le statut d’hébergeur et celui d’éditeur. La différence est sur l’intentionnalité. Publier un contenu, c’est à dire le mettre à disposition du public, est fondamentalement différent de promouvoir ce contenu. La promotion ce n’est pas mettre à disposition du public. C’est prioriser un contenu, pour le mettre en avant et le diffuser activement au plus grand nombre de personnes possibles. Laisser les GAFAM faire croire qu’ils ne font que publier du contenu c’est leur permettre de faire pencher le débat en leur faveur, car ce n’est alors pas de leur faute si des identitaires s’en vont tuer des personnes à l’arme automatique, vu qu’elles n’ont pas promu le contenu.
La modération, en tant que pratique culturelle
Mais qu’est-ce que la modération ? Il s’agit d’un ensemble de pratiques, plus ou moins informelles, permettant à chacune de participer au développement culturel des communautés — choisies ou non — auxquelles elle appartient tout en réduisant les violences en son sein. Son but n’est pas la suppression des contenus ou des personnes, mais la réduction des violences. Elle s’inscrit dans le cadre d’une culture et est donc nécessairement liée aux contextes dans lequel elle prend place, faisant de la modération une pratique nécessairement interprétative. Ce n’est pas du « tone policing » ou de la censure. La modération reconnaît que l’on puisse être énervé, virulent ou maladroit. Au cœur de toute interaction sociale, elle reconnaît nos imperfections, nos sentiments mais aussi nos capacités de raisonnement et cherche activement à réduire les comportements violents, blessants et destructeurs. Elle nous permet de faire ensemble, de créer des communautés. Dans un contexte de destruction et de réduction culturelle au profit d’une hégémonie, il paraît impossible de parler de modération. Une pratique renforçant et soutenant les violences commises au nom d’une culture ne saurait être de la modération. Comme la modération, c’est une forme de contrôle social. Mais utilisée dans le but de détruire et blesser un ou plusieurs groupes culturels ou communautés.
Oui c’est une pratique active qui nécessite une implication forte dans les communautés concernées, et donc une compréhension de celles-ci. Et une communauté, ça se cultive, ça se travaille. Un peu comme un jardin : Il faut parfois favoriser une plante un peu faible vis à vis d’autres envahissantes, mais la plupart du temps, il suffit de laisser faire et de s’assurer que chacune dispose des ressources nécessaires à son développement. Vouloir modérer les plateformes des GAFAM, selon les termes qu’ils nous proposent, c’est faire de l’agriculture industrielle : destruction de la diversité, destruction des sols, maximisation des profits et uniformisation des semences.
Les gardiens de la morale
Les GAFAM cherchent d’ailleurs à se positionner en garants de la morale, de la bonne tenue des débats et s’octroient le droit de déterminer ce qui est autorisé à exister. Ils prétendent pouvoir accomplir la titanesque tâche de comprendre l’intégralité du contexte associé à chaque morceau d’information entreposé dans leurs silos étanches. Le tout dans la plus grande opacité, sans aucun contre-pouvoir ni processus d’appel effectif et dans des conditions de travail difficiles et précaires pour les personnes chargées de valider les contenus. Ce modèle n’est pas celui de la modération. C’est celui de la domination, de la promotion d’une seule et unique culture et de la suppression de toutes les autres. Maintenir l’illusion que cette domination est une modération met en danger toutes les personnes qui s’opposeraient à cette domination.
Un tweet peut être légal aux États Unis, et illégal en France. Ou, plus exactement, la promotion du contenu d’un tweet faisant « l’apologie du terrorisme » est illégale en France. Charge aux plateformes de se débrouiller avec ces codes pénaux incompatibles entre eux, quitte à faire du zèle (une grande partie des contenus supprimés dans le cadre de la lutte anti-terroriste sont, en fait, des contenus postés par des activistes cherchant à documenter ce qu’il se passe sur le terrain [3]) ou à rejeter leurs responsabilité sur les algorithmes fermés et opaques, structures mathématiques quasi-divines auxquelles les GAFAM vouent un culte dogmatique. Ou alors, elles vont magouiller pour ne pas être tenues responsables, tout en continuant impunément de promouvoir les contenus qui rapportent à leurs clients publicitaires. Et donc les contenus dépourvus de complexité et de nuances. Et c’est ce qui est en réalité au cœur des débats en ce moment : le modèle d’affaire, basé sur la mesure de l’engagement de ces entreprises.
Un Internet des polémistes ?
En utilisant la mobilisation, ou l’engagement, des utilisateurs (et donc, en comptant le nombre de vues, de repartage, de réponses) comme mesure du capital et de la richesse des personnes, on met en avant les interactions avec le contenu, quel que soit le contenu ou l’interaction. Comme de nombreux polémistes en font régulièrement la preuve, il est bien plus facile de mobiliser massivement en tenant un discours polarisant, émotionnel, simplificateur et clivant que de le faire en faisant preuve de démonstrations rigoureuses, en s’appuyant sur des faisceaux de faits, ou en usant de subtilité et de nuance. Les mesures d’engagement ont donc pour but de créer des comportements agressifs et haineux afin de maximiser le profit des GAFAM.
Proposer une métrique différente pourrait favoriser les contenus qui rendent les utilisateurs heureux — du moins pour une certaine définition de heureux, mais on se retrouverait alors à n’avoir que du contenu « mignon » et des plateformes sur lesquelles il serait impossible de demander de l’aide psychologique ou médicale par exemple. C’est le modèle au cœur de Facebook et basé sur le « like » supposé encourager les comportements vertueux. Et, en cas de conflit, les utilisatrices se retrouvent à la merci du dieu tout puissant qui administre la plateforme et décide seul et sans aucune transparence de ce qui est considéré comme du contenu acceptable, sans processus d’appel. Changer la métrique et le modèle d’affaire n’est pas suffisant. Le problème est qu’il existe des dieux, des entités ayant tout pouvoir sur le contenu existant sur leurs machines, décidant de ce qu’ils acceptent de publier et de promouvoir et imposant leurs décisions aux membres de leurs plateformes.
Pour stopper la propagation de propos haineux, il faut cesser d’en faire la promotion. C’est évident pour quiconque critique les chaînes d’information en continu qui invitent ad nauseam les mêmes polémistes « ne pouvant s’exprimer nulle part ». Les techniques de harcèlement en ligne sont basées sur la promotion de contenu spécifique à destination d’une personne, ou de ses cercles d’amis. Que ce soit en le partageant et en le repartageant ou en mobilisant une armée de bots pour inonder les mentions d’une personne de contenu haineux, les médias sociaux servent d’amplificateurs. Ils sont conçus pour amplifier votre voix, votre message, quel qu’il soit mais à condition qu’il puisse être monétisé. Si vous atteignez un certain volume de messages, vous pouvez créer une tendance, tendance qui générera encore plus d’engagement. Comme dans le système du capitalisme financier, plus vous avez d’engagement, plus vous avez d’engagement. Tant que le modèle d’affaire de ces entreprises sera basé sur la promotion — la mise en avant — de contenu, alors elles n’ont aucun intérêt à donner aux communautés les moyens de décider elles-mêmes de comment elles souhaitent gérer le contenu.
Un Internet des protocoles : libre, décentralisé et ouvert
C’est pourtant la seule solution pour construire un Internet permettant à tout le monde de pouvoir exister et d’être ce qu’elles ont envie d’être, d’échapper à une certaine forme de déterminisme. En fournissant des outils aux communautés d’utilisatrices et en acceptant que plusieurs cultures doivent coexister sur une même plateforme, alors il devient possible d’envisager une modération de contenu convenant aux communautés. Ce n’est pas pour autant que chacune de ces communautés deviendra un havre de paix, et qu’il n’y aura plus aucun conflit en ligne, mais chacune disposera de moyens pour réduire les violences infligées par celles qui abusent du système. Chacune de ces communautés pourra améliorer les systèmes qui lui semblent imparfaits, décider des règles qu’elles veulent suivre, sans pouvoir les imposer aux autres. Chacune d’entre elle pourra contribuer au fragile édifice qu’est Internet, et bénéficier des contributions des autres.
Et pour que ces outils existent, il faut séparer les rôles techniques (administratrices système, développeuses) de ceux de la gestion du contenu (éditrices, modératrices, contributrices). Il faut que le transit de données, et leur stockage, soit fonctionnellement séparés de la gestion de contenu, de la promotion de celui-ci et des éventuels filtrages. Il faut des outils permettant de pouvoir communiquer avec les plateformes, existantes et à venir, d’interagir avec leur contenu, sans nécessiter une intervention d’une administratrice technique. Des outils interopérables, permettant à chacune de contribuer, de construire, de forker et d’améliorer cet Internet, non plus basé sur des silos de données étanches, des apps ou des plateformes hégémoniques, mais basés sur des protocoles servant de substrat à de multiples cultures. La bonne nouvelle, c’est que ces outils existent. Le partage de fichier en pair à pair en est un bon exemple. Des messageries qui fonctionnent par-dessus des systèmes de distribution de trafic réseau tels que Tor ou GNUNet apparaissent un peu partout. En se concentrant sur l’interopérabilité, ainsi qu’en utilisant des systèmes ne reposant pas sur une identification centralisée, tout en retirant aux administratrices les capacités de promotion ou de suppression de contenu, alors il devient possible de créer des filtres, des agrégateurs collectifs, ou toute autre solution qu’une communauté pourra juger pertinente pour son cas d’usage. Il devient possible de construire des systèmes multi-culturels et réduisant les violences, et donc d’effectuer une modération pertinente et nécessaire à la vie saine des groupes de personnes partageant au moins une part de ces cultures.
Non, il n’est pas possible de modérer les plateformes hégémoniques monoculturelles. Mais ce n’est pas pour autant qu’il n’est pas possible de créer des espaces modérés en ligne, choisis et définis par leurs membres et non par des dieux techniciens jugeant de ce qu’ils doivent promouvoir ou publier.
";s:7:"dateiso";s:15:"20190722_145058";}s:15:"20190717_152805";a:7:{s:5:"title";s:108:"La Quadrature du Net attaque l’application ALICEM, contre la généralisation de la reconnaissance faciale";s:4:"link";s:143:"https://www.laquadrature.net/2019/07/17/la-quadrature-du-net-attaque-lapplication-alicem-contre-la-generalisation-de-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14598";s:7:"pubDate";s:31:"Wed, 17 Jul 2019 13:28:05 +0000";s:11:"description";s:298:"Lundi dernier, La Quadrature du Net a déposé un recours devant le Conseil d’État pour demander l’annulation du décret autorisant la création de l’application mobile intitulée « ALICEM », pour « Authentification en ligne certifiée sur mobile ». En…";s:7:"content";s:9971:"
Lundi dernier, La Quadrature du Net a déposé un recours devant le Conseil d’État pour demander l’annulation du décret autorisant la création de l’application mobile intitulée « ALICEM », pour « Authentification en ligne certifiée sur mobile ». En y conditionnant la création d’une identité numérique à un traitement de reconnaissance faciale obligatoire, le gouvernement participe à la banalisation de cette technologie, et cela au mépris de l’avis préalable de la CNIL qui avait pourtant souligné son illégalité. Les récentes déclarations de Christophe Castaner qui a mis en avant cette application pour lutter contre l’anonymat et la haine sur Internet ne peuvent qu’alerter.
L’application ALICEM, développée par l’Agence des Titres Sécurisés (ANTS), vise à permettre aux détenteurs d’un passeport biométrique (ou d’un titre de séjour électronique) de se créer une identité numérique pour faciliter l’accès à certains services sur Internet, administratifs ou commerciaux. Comme l’explique la notice même du décret qui en autorise la création, « ce traitement automatisé de données à caractère personnel vise à permettre une identification électronique et une authentification pour l’accès à des services en ligne en respectant les exigences relatives au niveau de garantie requis par le service en ligne concerné au sens du règlement européen « eIDAS » (…). Le moyen d’identification électronique peut être utilisé prioritairement pour l’accès à des services dont les fournisseurs sont liés par convention à FranceConnect » (par exemple, impots.gouv, l’Assurance maladie… voir une liste des partenaires ici).
Concrètement, cela fonctionne ainsi : une personne détenant un titre avec une puce biométrique (passeport ou titre de séjour) télécharge l’application sur son smartphone (pour l’instant seulement sur les téléphones Android), pour y créer un compte. Pour cela, il doit procéder à la lecture avec son téléphone de la puce de son titre électronique. L’application a alors accès aux données qui y sont stockées, hors les empreintes digitales (notons que le décret du fichier TES est donc modifié pour permettre la lecture des informations stockées sur la puce électronique). Enfin, pour activer le compte, il faut se subordonner à un dispositif de reconnaissance faciale (dit « statique » et « dynamique », c’est à dire une photo et une vidéo avec des gestes à accomplir devant la caméra) pour vérifier l’identité. Alors seulement, l’identité numérique est générée et la personne peut utiliser ALICEM pour s’identifier auprès de fournisseurs de services en ligne [1].
Reconnaissance faciale obligatoire
Alors pourquoi l’attaquer ? Car l’application ALICEM oblige, au moment de l’activation du compte, de recourir à ce dispositif de reconnaissance faciale, sans laisser aucun autre choix à l’utilisatrice ou l’utilisateur. L’article 13 du décret énonce ainsi que l’ANTS informe l’usager « concernant l’utilisation d’un dispositif de reconnaissance faciale statique et de reconnaissance faciale dynamique et au recueil de son consentement au traitement de ses données biométriques ». Or, au sens du règlement général sur la protection des données (RGPD), pour qu’un consentement soit valide, il doit être libre, c’est-à-dire qu’il ne peut pas être contraint : « le consentement ne devrait pas être considéré comme ayant été donné librement si la personne concernée ne dispose pas d’une véritable liberté de choix » (Considérant 42). Ici, la personne voulant utiliser ALICEM n’a pas le choix de passer ou non par ce dispositif de reconnaissance faciale et le consentement dont se revendique le gouvernement n’est donc pas valable.
Cette analyse est d’ailleurs celle de la CNIL qui a rendu un avis sur ce décret, préalablement à sa publication. Dans cet avis, elle énonce clairement que, vu que la reconnaissance faciale est obligatoire et qu’il n’existe aucune autre alternative pour se créer une identité via ALICEM, « le consentement au traitement des données biométriques ne peut être regardé comme libre et comme étant par suite susceptible de lever l’interdiction posée par l’article 9.1 du RGPD ». Malgré cet avis et les alternatives imaginées par la CNIL au dispositif de reconnaissance faciale, le gouvernement n’a pas modifié son décret en le publiant.
À l’heure où les expérimentations de reconnaissance faciale se multiplient sans qu’aucune analyse ou débat public ne soit réalisée sur les conséquences d’un tel dispositif pour notre société et nos libertés [2], en général dans une large illégalité, et alors que des villes aux États-Unis en interdisent explicitement l’utilisation pour les services municipaux [3], le gouvernement français cherche au contraire à l’imposer à tous les citoyens via des outils d’identification numérique. Et même s’il ne s’agit ici pas de reconnaissance faciale « en temps réel » par des caméras de surveillance, il s’agit néanmoins bien de normaliser la reconnaissance faciale comme outil d’identification, en passant outre la seule condition qui devrait être acceptable pour son utilisation : notre consentement libre et explicite. Le gouvernement révèle par ailleurs son mépris pour la CNIL, dont l’influence semble diminuer de plus en plus. Fléchissant il y a quelques mois devant les publicitaires en leur laissant encore un an de plus pour respecter le RGPD (voir notre article), elle apparaît ici plus faible que jamais quand elle alerte le gouvernement sur la violation du consentement d’une personne quand au traitement de ses données biométriques et que le gouvernement ne la respecte clairement pas.
La haine, l’anonymat et ALICEM
Attaquer ce décret est d’autant plus nécessaire quand on voit les dangereux liens que tisse le ministre de l’Intérieur Christophe Castaner entre anonymat, haine et identité numérique. Il écrit ainsi, en tête de son rapport « État de la menace liée au numérique en 2019 » : « La liberté, justement, voilà tout le paradoxe d’internet. L’anonymat protège tous ceux qui répandent des contenus haineux et permet à des faux-comptes de se multiplier pour propager toutes sortes de contenus. Nous ne pouvons pas laisser les publications illicites se multiplier. Nous devons donc relever le défi de l’identité numérique pour que chaque Français, dès 2020, puisse prouver son identité et savoir avec qui il correspond vraiment ». Et quand il parle, plus loin, d’identité numérique, c’est pour directement mentionner le dispositif ALICEM. Le débat sur l’identité numérique arrive donc à grande vitesse et l’utilisation que souhaite en faire le gouvernement ne peut qu’alerter : un outil non pas au service du citoyen mais contre lui, pour lutter contre l’anonymat en ligne, pourtant fondamental pour l’exercice de nos droits sur Internet.
Un projet d’identité numérique, fondé sur un dispositif de reconnaissance faciale obligatoire (au mépris du RGPD) et ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat ne peut qu’être combattu. C’est l’objet de ce recours.
—
[1] Voir également l’analyse de Marc Rees sur Next Inpact.
[2] Lire notre analyse des enjeux politiques de la reconnaissance faciale.
[3] La ville de San Francisco a récemment adopté une telle interdiction, bientôt rejointe par une autre ville du Massachusetts.
";s:7:"dateiso";s:15:"20190717_152805";}s:15:"20190712_130000";a:7:{s:5:"title";s:55:"[Arte] Internet : comment agir contre la cyberhaine ?";s:4:"link";s:88:"https://www.laquadrature.net/2019/07/12/arte-internet-comment-agir-contre-la-cyberhaine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14590";s:7:"pubDate";s:31:"Fri, 12 Jul 2019 11:00:00 +0000";s:11:"description";s:221:"Les députés de l’Assemblée nationale devraient adopter ce mardi une proposition de loi contre les messages de haine sur Internet. La loi Avia, du nom de la députée La République En Marche Laetitia Avia, qui…";s:7:"content";s:1668:"
Les députés de l’Assemblée nationale devraient adopter ce mardi une proposition de loi contre les messages de haine sur Internet. La loi Avia, du nom de la députée La République En Marche Laetitia Avia, qui défend le projet, s’inspire du système allemand. Son but est d’imposer de nouvelles obligations aux principaux réseaux sociaux, qui risqueront une amende pouvant aller jusqu’à 1,25 million d’euros s’ils ne suppriment pas sous vingt-quatre heures les messages à caractère haineux, ayant des références illicites notamment à la race, la religion, le sexe, ou encore le handicap. Mais le projet est très critiqué par l’opposition et son efficacité en Allemagne est incertaine à ce jour. Comment agir contre la cyberhaine ? On en parle dans « 28 Minutes ».
";s:7:"dateiso";s:15:"20190712_130000";}s:15:"20190712_120000";a:7:{s:5:"title";s:105:"[RMC] 24 heures pour supprimer les contenus haineux: pourquoi la loi Avia semble difficilement applicable";s:4:"link";s:143:"https://www.laquadrature.net/2019/07/12/rmc-24-heures-pour-supprimer-les-contenus-haineux-pourquoi-la-loi-avia-semble-difficilement-applicable/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14591";s:7:"pubDate";s:31:"Fri, 12 Jul 2019 10:00:00 +0000";s:11:"description";s:282:"L’Assemblée nationale a voté jeudi l’obligation pour les plateformes internet de retirer en 24 heures les contenus haineux signalés, mesure-clé d’une proposition de loi LREM. Sous peine d’une condamnation à des amendes jusqu’à 1,25 million…";s:7:"content";s:1665:"
L’Assemblée nationale a voté jeudi l’obligation pour les plateformes internet de retirer en 24 heures les contenus haineux signalés, mesure-clé d’une proposition de loi LREM. Sous peine d’une condamnation à des amendes jusqu’à 1,25 million d’euros. […]
« La définition de ce qu’est un propos haineux a évolué presque chaque semaine depuis le début des débats sur cette loi extrêmement confuse« , explique Arthur Messaud, juriste à la Quadrature du Net. […]
";s:7:"dateiso";s:15:"20190712_120000";}s:15:"20190712_110000";a:7:{s:5:"title";s:115:"[LCI] Loi contre la haine en ligne : Demander à retirer en 24 heures les contenus, c’est extrêmement dangereux";s:4:"link";s:145:"https://www.laquadrature.net/2019/07/12/lci-loi-contre-la-haine-en-ligne-demander-a-retirer-en-24-heures-les-contenus-cest-extremement-dangereux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14589";s:7:"pubDate";s:31:"Fri, 12 Jul 2019 09:00:00 +0000";s:11:"description";s:277:"INTERVIEW – Examinée mercredi 3 juin [lire juillet, NDLRP] par l’Assemblée nationale, la proposition de loi « contre la haine en ligne » forcerait les plateformes et autres réseaux sociaux à supprimer les contenus haineux sous 24 heures. Est-ce…";s:7:"content";s:1782:"
INTERVIEW – Examinée mercredi 3 juin [lire juillet, NDLRP] par l’Assemblée nationale, la proposition de loi « contre la haine en ligne » forcerait les plateformes et autres réseaux sociaux à supprimer les contenus haineux sous 24 heures. Est-ce efficace ? Est-ce seulement possible ? On a posé la question à l’association La Quadrature du Net.
Responsabiliser les grandes plateformes du Web (Facebook, Twitter, Youtube etc.) et durcir la lutte contre la haine sur internet, tel est l’objectif de la proposition de loi portée par la députée LREM Laetitia Avia, dont l’examen à l’Assemblée nationale a débuté ce mercredi 3 juin [juillet, NDLRP]. Ce texte suscite l’inquiétude des grandes plateformes mais aussi de La Quadrature du Net. L’association française de défense des libertés en ligne dénonce un texte « dangereux« . Benoit Piédallu, membre de l’association détaille les risques que peut créer la loi. […]
";s:7:"dateiso";s:15:"20190712_110000";}s:15:"20190711_130000";a:7:{s:5:"title";s:55:"[LInformaticien] Cookies : le drôle de jeu de la Cnil";s:4:"link";s:90:"https://www.laquadrature.net/2019/07/11/linformaticien-cookies-le-drole-de-jeu-de-la-cnil/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14572";s:7:"pubDate";s:31:"Thu, 11 Jul 2019 11:00:00 +0000";s:11:"description";s:222:"Les sites français ont droit à un sursis d’un an quant au recueil du consentement de leurs visiteurs à se faire traquer. Cette période transitoire offerte par la Cnil aux éditeurs fait enrager les défenseurs…";s:7:"content";s:1477:"
Les sites français ont droit à un sursis d’un an quant au recueil du consentement de leurs visiteurs à se faire traquer. Cette période transitoire offerte par la Cnil aux éditeurs fait enrager les défenseurs de la vie privée et pourrait valoir au régulateur un remontage de bretelles au niveau européen. […]
L’association [La Quadrature du Net, NDLRP] assure que cette décision est le résultat de négociations entre la Cnil et le GESTE, syndicat d’éditeurs de contenus en ligne). « Aujourd’hui, la CNIL semble vouloir appliquer un droit différent entre Google et les médias français qui, eux, pourraient se contenter d’un consentement « implicite », violant tranquillement nos libertés fondamentales dans la poursuite de profits publicitaires intolérables » écrit la Quadrature, qui n’exclut pas de former un recours devant le Conseil d’Etat.
";s:7:"dateiso";s:15:"20190711_130000";}s:15:"20190711_120000";a:7:{s:5:"title";s:78:"[LeMedia] Référendum ADP : le sabotage du gouvernement – Benjamin Sonntag";s:4:"link";s:108:"https://www.laquadrature.net/2019/07/11/lemedia-referendum-adp-le-sabotage-du-gouvernement-benjamin-sonntag/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14573";s:7:"pubDate";s:31:"Thu, 11 Jul 2019 10:00:00 +0000";s:11:"description";s:310:"Difficile de signer la pétition pour le référendum d’initiative partagée contre la privatisation d’aéroports de Paris : l’interface est difficile à utiliser, le référencement mauvais, les bugs nombreux. Y a-t-il clairement sabotage ? Quelles données sont accessibles…";s:7:"content";s:1337:"
Difficile de signer la pétition pour le référendum d’initiative partagée contre la privatisation d’aéroports de Paris : l’interface est difficile à utiliser, le référencement mauvais, les bugs nombreux. Y a-t-il clairement sabotage ? Quelles données sont accessibles au public ? Qu’aurait pu (et du) faire le gouvernement ? Pour en parler, Théophile Kouamouo reçoit Benjamin Sonntag, ingénieur réseau et activiste, co-fondateur La Quadrature du Net.
";s:7:"dateiso";s:15:"20190711_120000";}s:15:"20190711_110000";a:7:{s:5:"title";s:81:"[CNET] La reconnaissance faciale arrive dans nos lycées : doit-on se méfier ?";s:4:"link";s:112:"https://www.laquadrature.net/2019/07/11/cnet-la-reconnaissance-faciale-arrive-dans-nos-lycees-doit-on-se-mefier/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14574";s:7:"pubDate";s:31:"Thu, 11 Jul 2019 09:00:00 +0000";s:11:"description";s:274:"Vide juridique et banalisation de la surveillance ? En septembre, la reconnaissance faciale devrait faire son entrée dans deux lycées du sud de la France pour contrôler les allées et venues des lycéens. Faut-il s’inquiéter ? […]
À la…";s:7:"content";s:2033:"
Vide juridique et banalisation de la surveillance ? En septembre, la reconnaissance faciale devrait faire son entrée dans deux lycées du sud de la France pour contrôler les allées et venues des lycéens. Faut-il s’inquiéter ? […]
À la Quadrature du Net, Martin Drago, avocat spécialisé dans le droit des données personnelles, s’inquiète d’un risque de banalisation de la reconnaissance faciale, » alors même que cette technologie n’a fait l’objet, en France, d’aucun véritable débat /strong> » sur la pertinence de son usage. » La reconnaissance faciale, c’est pour nous un outil de surveillance de masse, fait pour ça, pour nous surveiller constamment. Elle exploite votre visage – quelque chose que vous ne pouvez pas cacher -, ce qui fait que vous êtes reconnu et surveillé constamment dans l’espace public, sans pouvoir vous y opposer, contrairement au principe du libre consentement du RGPD. Ce qui est grave avec cette expérience dans des lycées, c’est qu’on touche des mineurs. On les habitue à une surveillance biométrique, on les accoutume, et cela participe à banaliser tous les projets présents et futurs de vidéosurveillance dopés à la reconnaissance faciale sur notre territoire « , explique le juriste […]
";s:7:"dateiso";s:15:"20190711_110000";}s:15:"20190710_130000";a:7:{s:5:"title";s:154:"[Franceinfo] Haine sur Internet : le gouvernement veut faire semblant d’agir et renforcer les moyens de la police pour défendre son image sur Internet";s:4:"link";s:186:"https://www.laquadrature.net/2019/07/10/franceinfo-haine-sur-internet-le-gouvernement-veut-faire-semblant-dagir-et-renforcer-les-moyens-de-la-police-pour-defendre-son-image-sur-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14569";s:7:"pubDate";s:31:"Wed, 10 Jul 2019 11:00:00 +0000";s:11:"description";s:283:"Arthur Messaud, de l’association La Quadrature du Net, réagit à la proposition de loi étudiée à l’Assemblée nationale, qui prévoit de renforcer la lutte contre les propos haineux sur internet. […]
« Le harcèlement en ligne, les idéologies…";s:7:"content";s:1913:"
Arthur Messaud, de l’association La Quadrature du Net, réagit à la proposition de loi étudiée à l’Assemblée nationale, qui prévoit de renforcer la lutte contre les propos haineux sur internet. […]
« Le harcèlement en ligne, les idéologies oppressives qui se répandent, ce sont de vrais problèmes. Mais ce qui nous inquiète dans cette proposition de loi, c’est qu’elle ne propose aucune solution. Elle se moque des victimes, en faisant croire qu’il suffit d’aller serrer la main à Mark Zuckerberg, le président de Facebook, pour régler la situation. » […]
";s:7:"dateiso";s:15:"20190710_130000";}s:15:"20190710_120000";a:7:{s:5:"title";s:89:"[Mediapart] Liberté d’expression: Nicole Belloubet veut s’attaquer à la loi de 1881";s:4:"link";s:119:"https://www.laquadrature.net/2019/07/10/mediapart-liberte-dexpression-nicole-belloubet-veut-sattaquer-a-la-loi-de-1881/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14570";s:7:"pubDate";s:31:"Wed, 10 Jul 2019 10:00:00 +0000";s:11:"description";s:223:"La ministre de la justice veut lancer une réflexion sur la sortie de la loi sur la liberté de la presse des infractions liées aux « propos haineux » sur internet, qui pourraient ainsi par exemple être…";s:7:"content";s:1433:"
La ministre de la justice veut lancer une réflexion sur la sortie de la loi sur la liberté de la presse des infractions liées aux « propos haineux » sur internet, qui pourraient ainsi par exemple être jugées en comparution immédiate. Au risque de créer « une nouvelle bureaucratie de la censure », voire de « privatiser » le contrôle de la liberté d’expression, estiment ses détracteurs. […]
« Nous sommes en train de créer une nouvelle bureaucratie de la censure, avec des relations de plus en plus poussées et des collaborations extralégales avec les entreprises privées », dénonce Félix Tréguer. « Nous vivons la fin de l’idéologie libérale, au sens du XIXe siècle. » […]
";s:7:"dateiso";s:15:"20190710_120000";}s:15:"20190710_110000";a:7:{s:5:"title";s:101:"[EnjeuxNumeriques] Filtrage automatique et libertés : peut-on sortir d’un internet centralisé ?";s:4:"link";s:129:"https://www.laquadrature.net/2019/07/10/enjeuxnumeriques-filtrage-automatique-et-libertes-peut-on-sortir-dun-internet-centralise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14571";s:7:"pubDate";s:31:"Wed, 10 Jul 2019 09:00:00 +0000";s:11:"description";s:264:"Par Lionel Maurel.
Que ce soit au niveau français ou européen, on assiste aujourd’hui à une multiplication des projets de réglementations visant à imposer aux grandes plateformes centralisées des mesures de filtrage automatique des contenus, qu’il…";s:7:"content";s:1348:"
Par Lionel Maurel.
Que ce soit au niveau français ou européen, on assiste aujourd’hui à une multiplication des projets de réglementations visant à imposer aux grandes plateformes centralisées des mesures de filtrage automatique des contenus, qu’il s’agisse de lutter contre la contrefaçon, la haine en ligne ou l’apologie du terrorisme. Ces dispositifs techniques sont susceptibles de compromettre l’exercice des libertés, notamment en modifiant en profondeur les règles applicables en matière de responsabilité des intermédiaires techniques. Mais ils risquent aussi paradoxalement de renforcer la domination des grands acteurs – type GAFAM – en compromettant la possibilité de décentraliser à nouveau les usages sur Internet. […]
";s:7:"dateiso";s:15:"20190710_110000";}s:15:"20190709_162253";a:7:{s:5:"title";s:63:"L’Assemblée nationale adopte et aggrave la loi « haine »";s:4:"link";s:92:"https://www.laquadrature.net/2019/07/09/lassemblee-nationale-adopte-et-aggrave-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14558";s:7:"pubDate";s:31:"Tue, 09 Jul 2019 14:22:53 +0000";s:11:"description";s:267:"L’Assemblée Nationale a adopté aujourd’hui la loi « haine », débattue mercredi et jeudi derniers. Le texte n’a pas été amélioré mais au contraire aggravé, avec des ajouts absurdes et dangereux.
Sur les dangers de ce texte…";s:7:"content";s:12870:"
L’Assemblée Nationale a adopté aujourd’hui la loi « haine », débattue mercredi et jeudi derniers. Le texte n’a pas été amélioré mais au contraire aggravé, avec des ajouts absurdes et dangereux.
Sur les dangers de ce texte tel qu’issu des travaux en commission des lois (avant son passage en séance plénière), nous avions déjà écrit plusieurs articles à ce sujet. Ces dangers n’ont pas disparu et sont toujours d’actualité.
Le texte adopté aujourd’hui a malheureusement ajouté par amendements une série de dispositions qui aggrave largement la situation, qu’il nous faudra collectivement veiller à faire corriger au Sénat lors des débats à la rentrée.
Création d’une base de données de la haine
L’ajout le plus absurde et délétère concerne l’obligation faite aux plateformes d’ « empêcher la rediffusion de contenus » manifestement illicites. Concrètement, cela signifie qu’une fois qu’une plateforme a retiré un contenu qu’elle a considéré comme « manifestement illicite » (seule, sans le contrôle d’une juge) et qui rentre dans le champ d’application de la loi (allant du sexisme à l’apologie du terrorisme, en passant par l’entraide entre travailleuses du sexe et la diffusion d’images pornographiques accessibles aux mineurs), la plateforme doit tout faire pour en empêcher la rediffusion (avec la menace de la sanction de 4% du chiffre d’affaires par le CSA). Une telle obligation force donc les plateformes à surveiller l’ensemble des contenus postés par ses utilisateurs et à les comparer avec le contenu auparavant retiré. Comme nous l’avions indiqué, cela est strictement interdit par le droit de l’Union européenne qui, dans sa directive e-commerce, interdit depuis 2000 aux États de forcer de tels acteurs à mettre en place « une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Espérons que le Sénat soit plus au courant du droit européen que l’Assemblée. Sans cela, nous devrons, une fois encore, attaquer la loi française devant les juridictions de l’Union.
Une telle obligation est à rapprocher d’un autre amendement adopté et qui donne au CSA un nouveau pouvoir. Celui-ci doit maintenant encourager « les opérateurs de plateforme en ligne […] dans la mise en œuvre d’outils de coopération dans la lutte contre les contenus à caractère haineux ». Cela fait tout de suite penser au règlement anti-terroriste contre lequel La Quadrature du Net a lutté ces derniers mois (et luttera dans les mois à venir et ce n’est pas fini) : ce texte cherche à étendre à l’ensemble des acteurs de l’Internet la « base d’empreintes numériques » créée par les géants du Web et mise en avant par la Commission européenne.
Comme nous l’expliquons, il s’agit d’une base de données nourrie par les géants du Web qui se partagent l’empreinte numérique des contenus « à caractère terroriste » qu’ils censurent pour éviter qu’ils ne réapparaissent ailleurs. La Commission européenne et les États membres voient dans cette solution algorithmique la solution magique contre la diffusion des contenus terroristes en ligne (refusant de voir les dangers qu’il y a à déléguer tant de pouvoirs à des algorithmes opaques inventés par des sociétés privées hégémoniques). On retrouve ici presque la même idée, avec une base de données partagée entre plateformes pour censurer, préalablement à leur mise en ligne, des contenus qui auraient déjà été considérés comme manifestement illicites et retirés par une autre plateforme. Le juge national et indépendant est remplacé par les décisions de Facebook et Google destinées à s’imposer à tous les internautes et toutes les plateformes ou presque.
Les seuils
Autre ajout alarmant : la précision selon laquelle le gouvernement pourra fixer plusieurs seuils de connexions au-delà desquels les plateformes devront respecter les obligations fixées par cette loi. Deux amendements identiques ont été adoptés à ce sujet. Mais si l’amendement tel que présenté par la majorité parlait de prise en compte de la « diversité des activités des acteurs » visés par le texte (car celui-ci vise aussi bien des réseaux sociaux que des moteurs de recherche), d’autres députés présentaient donc le même amendement dans une formulation plus grave de conséquences. En effet, si cette loi a été pensée au départ pour ne viser que les très grandes plateformes, les députés expliquent ici que ces géants du Web respectent en réalité déjà l’ensemble des obligations de la loi et qu’il faut alors viser les « plus petits opérateurs, moins scrupuleux, mais très actifs dans la propagation des contenus haineux sur internet ». C’était exactement la même justification qui était à l’œuvre pour le règlement européen anti-terroriste. Un tel amendement, autre que de risquer de soumettre beaucoup d’acteurs aux obligations de cette loi, laisse ainsi au gouvernement une grande marge de manœuvre dans l’application du texte car il reviendra à lui-seul d’en décider, par décret, le ou les champs d’application. Ensuite, comme dit plus haut, le CSA aura tout pouvoir pour obliger tous ces nouveaux acteurs à se soumettre aux listes noires édictées arbitrairement par Facebook et Google.
Recul du juge
D’autres amendements révèlent la dérive d’ensemble de ce projet politique. L’Assemblée veut ainsi créer un « Observatoire de la haine en ligne », qui « assure le suivi et l’analyse de l’évolution des contenus visés à l’article premier de la présente loi, en lien avec les opérateurs, associations et chercheurs concernés ». Une telle institution ne peut apparaître que comme un échelon supplémentaire entre l’appréciation du contenu et le juge judiciaire, pourtant seul à même d’en décider le caractère manifestement illicite ou non. Ce dernier disparaît encore un peu plus, passant après la plateforme, le CSA et maintenant l’Observatoire. D’ailleurs, les débats à l’Assemblée n’ont cessé de le rappeler : la jurisprudence dégagée par l’institution judiciaire serait trop éparpillée, ne raisonnant qu’au cas par cas (et c’est en effet bien son rôle) et il faudrait donc trouver un moyen pour construire une jurisprudence extra-judiciaire capable de distinguer le licite et l’illicite, efficacement (comprendre : sans juge, sans appréciation concrète et sans procédure contradictoire).
L’interopérabilité, une voie de sortie au débat
Le sujet de l’interopérabilité a été abordé au travers de sept amendements proposés par une multitude de députés, marquant une vision fortement transpartisane sur le sujet. Malgré la lettre signée par plus de 70 organisations françaises et européennes, et malgré la conviction des élues qui ont essayé de faire comprendre à la rapporteure et au gouvernement le rôle profondément néfaste de l’économie de l’attention dans la diffusion des contenus haineux, Laetitia Avia et Cédric O ont tout refusé en bloc. Cédric O a encore une fois fait part de sa crainte de s’attaquer trop frontalement à ce modèle économique, craignant les représailles des États-Unis. La démission politique est si complète qu’elle n’est même plus dissimulée.
De son côté, Madame Avia a enchaîné les mauvaises comparaisons (utilisant ainsi à mauvais escient le souvenir de Rosa Parks) pour expliquer que ce n’était pas à la victime de partir mais à l’endroit de changer. C’est oublier que l’endroit, en l’espèce la plateforme, est intrinsèquement biaisé, fondé sur la culture du buzz et la mise en avant justement de contenus « à clics ». Si l’on devait utiliser les mêmes métaphores que la rapporteure, on pourrait répondre qu’il ne paraît pas non plus judicieux de confiner les bourreaux et les victimes dans la même plateforme, surtout quand le directeur de la plateforme organise matériellement les combats. Et Mme Avia semble aussi oublier que, si l’intention de corriger les géants du Net est louable, ce sont bien les militant·es des libertés numériques qui s’y attellent, en utilisant notamment le RGPD pour déconstruire leur modèle toxique (voir nos plaintes collectives), et non elle, avec qui Facebook, Google et Twitter annoncent fièrement collaborer pour écrire la loi. Difficile de ne pas lire la position de Mme Avia et de M. O comme autre chose que la défense d’entreprises hégémoniques partageant leurs idéaux économiques et autoritaires.
Quoi qu’il en soit, les débats sur l’interopérabilité à l’Assemblée sont apparus comme la seule voie de sortie crédible pour les parlementaires qui prétendent vouloir lutter contre la haine en ligne. La véhémence des désaccords entre la majorité et ses adversaires (ou même certains de ses alliés) a marqué l’importance du sujet. De quoi nous laisser enthousiastes pour poursuivre ces efforts au Sénat en septembre.
Rappelons que le gouvernement a engagé la procédure accélérée sur ce texte, cela signifiant qu’il ne peut y avoir qu’une seule lecture du texte par chambre (avec intervention de la commission mixte paritaire si les deux chambres ne sont pas d’accord).
Alors que l’ensemble des acteurs du monde numérique (plateformes, associations, Conseil National du Numérique, journalistes…), accompagnés notamment par le Conseil national du barreau, ont souligné les dangers et l’absurdité de ce texte, Madame Laetitia Avia et le gouvernement continuent leur processus de destruction de l’Internet, tout en échouant à repousser avec sérieux les arguments qui leur sont opposés.
";s:7:"dateiso";s:15:"20190709_162253";}s:15:"20190709_130000";a:7:{s:5:"title";s:120:"[FranceInfo] Objectif, utilisation, dangers… On vous explique Libra, la cryptomonnaie que Facebook veut lancer en 2020";s:4:"link";s:153:"https://www.laquadrature.net/2019/07/09/franceinfo-objectif-utilisation-dangers-on-vous-explique-libra-la-cryptomonnaie-que-facebook-veut-lancer-en-2020/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14562";s:7:"pubDate";s:31:"Tue, 09 Jul 2019 11:00:00 +0000";s:11:"description";s:281:"Le réseau social s’est associé à plusieurs grandes entreprises pour ce projet qui devrait voir le jour l’année prochaine. […]
L’arrivée de cette nouvelle cryptomonnaie n’est pas forcément vue d’un bon œil par tout le monde. Le…";s:7:"content";s:1449:"
Le réseau social s’est associé à plusieurs grandes entreprises pour ce projet qui devrait voir le jour l’année prochaine. […]
L’arrivée de cette nouvelle cryptomonnaie n’est pas forcément vue d’un bon œil par tout le monde. Le réseau social ne ferait que renforcer sa position dominante, selon Benoît Piédallu, membre de la Quadrature du net, association qui défend les libertés individuelles sur Internet.
« Facebook est déjà extrêmement présent dans la vie des citoyens du monde, donc c’est un élément supplémentaire dans son hégémonie, et ça c’est un vrai problème parce que ça rajoute à sa capacité de nuisance, ça augmente son pouvoir sur les utilisateurs. » […]
";s:7:"dateiso";s:15:"20190709_130000";}s:15:"20190709_120000";a:7:{s:5:"title";s:97:"[FranceInfo] En lançant sa cryptomonnaie, Facebook va augmenter son pouvoir sur les utilisateurs";s:4:"link";s:134:"https://www.laquadrature.net/2019/07/09/franceinfo-en-lancant-sa-cryptomonnaie-facebook-va-augmenter-son-pouvoir-sur-les-utilisateurs/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14563";s:7:"pubDate";s:31:"Tue, 09 Jul 2019 10:00:00 +0000";s:11:"description";s:263:"Pour l’association la Quadrature du net, la nouvelle monnaie lancée par Facebook va encore étendre l’hégémonie et le pouvoir du réseau social sur ses utilisateurs. […]
Benoit Piédallu, membre de la Quadrature du net, association qui…";s:7:"content";s:1648:"
Pour l’association la Quadrature du net, la nouvelle monnaie lancée par Facebook va encore étendre l’hégémonie et le pouvoir du réseau social sur ses utilisateurs. […]
Benoit Piédallu, membre de la Quadrature du net, association qui défend les libertés individuelles sur Internet, craint que cette monnaie soit « un élément supplémentaire dans l’hégémonie » de Facebook, et estime que cela va « augmenter son pouvoir sur les utilisateurs« . […]
";s:7:"dateiso";s:15:"20190709_120000";}s:15:"20190709_110000";a:7:{s:5:"title";s:51:"[LeMedia] Facebook est-il votre prochaine banque ?";s:4:"link";s:87:"https://www.laquadrature.net/2019/07/09/lemedia-facebook-est-il-votre-prochaine-banque/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14564";s:7:"pubDate";s:31:"Tue, 09 Jul 2019 09:00:00 +0000";s:11:"description";s:273:"Facebook. Un géant du numérique, et une des multinationales les plus influentes du monde, serait en passe d’émettre sa propre monnaie privée. La multinationale a-t-elle intérêt à entrer dans l’univers si particulier des cryptomonnaies ? Quels…";s:7:"content";s:1373:"
Facebook. Un géant du numérique, et une des multinationales les plus influentes du monde, serait en passe d’émettre sa propre monnaie privée. La multinationale a-t-elle intérêt à entrer dans l’univers si particulier des cryptomonnaies ? Quels sont les dangers pour nos libertés à l’heure du capitalisme de surveillance ? […]
NDLRP – Sujet diffusé le 8 avril 2019, avant l’annonce du Libra par Facebook, dressant un panorama des enjeux des cryptomonnaies. Extraits avec Axel Simon de La Quadrature du Net à retrouver aussi sur le Peertube de La Quadrature du Net :
";s:7:"dateiso";s:15:"20190709_110000";}s:15:"20190708_130000";a:7:{s:5:"title";s:111:"[FranceCulture] Arthur Messaud dénonce une loi « inutile » qui donnerait de nouveaux pouvoirs à la police";s:4:"link";s:140:"https://www.laquadrature.net/2019/07/08/franceculture-arthur-messaud-denonce-une-loi-inutile-qui-donnerait-de-nouveaux-pouvoirs-a-la-police/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14539";s:7:"pubDate";s:31:"Mon, 08 Jul 2019 11:00:00 +0000";s:11:"description";s:225:" […] La commission des Lois de l’Assemblée a adopté hier la proposition de loi contre la haine en ligne. Un texte porté par la députée LREM Laetitia Avia qui vise à supprimer les contenus haineux…";s:7:"content";s:1631:"
[…] La commission des Lois de l’Assemblée a adopté hier la proposition de loi contre la haine en ligne. Un texte porté par la députée LREM Laetitia Avia qui vise à supprimer les contenus haineux sur internet. Concrètement, les opérateurs, à commencer par les plateformes type Facebook, Twitter ou YouTube, auront 24 heures pour retirer ces contenus. Il s’agit notamment de l’incitation à la haine raciale ou de l’apologie du terrorisme. Mais ce projet de loi est loin de faire l’unanimité. Invité de ce journal, Arthur Messaud, juriste à la Quadrature du Net, association mobilisée pour la liberté sur internet […]
";s:7:"dateiso";s:15:"20190708_130000";}s:15:"20190708_120000";a:7:{s:5:"title";s:76:"[LaCroix] L’autorégulation des plates-formes est dangereuse et inefficace";s:4:"link";s:111:"https://www.laquadrature.net/2019/07/08/lacroix-lautoregulation-des-plates-formes-est-dangereuse-et-inefficace/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14540";s:7:"pubDate";s:31:"Mon, 08 Jul 2019 10:00:00 +0000";s:11:"description";s:249:"Entretien. Arthur Messaud, juriste de l’association La Quadrature du Net.
Laisser aux géants de l’Internet la mission de réguler leurs contenus est à la fois inefficace et liberticide. Facebook veut rassurer ses utilisateurs et passer…";s:7:"content";s:1296:"
Entretien. Arthur Messaud, juriste de l’association La Quadrature du Net.
Laisser aux géants de l’Internet la mission de réguler leurs contenus est à la fois inefficace et liberticide. Facebook veut rassurer ses utilisateurs et passer pour une plate-forme sécurisée, pour que ces derniers continuent de l’utiliser. L’entreprise investit donc déjà des moyens importants au service de la modération. À ce titre, elle prétend utiliser des outils de pointe tels que l’intelligence artificielle, avec entre autres la reconnaissance automatique d’image, afin de repérer les publications haineuses ou les fausses informations. […]
";s:7:"dateiso";s:15:"20190708_120000";}s:15:"20190708_110000";a:7:{s:5:"title";s:87:"[LeMoutonNumerique] Moutonery Report : quand la police prédictive entre dans nos vies";s:4:"link";s:122:"https://www.laquadrature.net/2019/07/08/lemoutonnumerique-moutonery-report-quand-la-police-predictive-entre-dans-nos-vies/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14541";s:7:"pubDate";s:31:"Mon, 08 Jul 2019 09:00:00 +0000";s:11:"description";s:248:"Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.
Il nous a rejoint pour ce…";s:7:"content";s:1303:"
Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.
Il nous a rejoint pour ce premier podcast qui interroge un sujet essentiel pour l’organisation de nos sociétés technologiques : la police prédictive et le pré-crime. […]
";s:7:"dateiso";s:15:"20190708_110000";}s:15:"20190702_141704";a:7:{s:5:"title";s:56:"Résumé de la loi « haine » avant le vote de demain";s:4:"link";s:87:"https://www.laquadrature.net/2019/07/02/resume-de-la-loi-haine-avant-le-vote-de-demain/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14518";s:7:"pubDate";s:31:"Tue, 02 Jul 2019 12:17:04 +0000";s:11:"description";s:276:"L’Assemblée nationale discutera demain et après-demain la proposition de loi « contre la haine en ligne ». Débattue en procédure accélérée, il pourrait s’agir du dernier passage de ce texte devant les députés. Leur dernier occasion pour…";s:7:"content";s:6581:"
L’Assemblée nationale discutera demain et après-demain la proposition de loi « contre la haine en ligne ». Débattue en procédure accélérée, il pourrait s’agir du dernier passage de ce texte devant les députés. Leur dernier occasion pour le corriger.
Résumons la loi et nos critiques (pour notre analyse complète, voir ici).
Délai de 24h
les grandes plateformes devront censurer en 24h les contenu « manifestement illicites » qui leur seront signalés ;
elles subiront une amende jusqu’à 4% de leur chiffre d’affaires en cas d’échecs répétés ;
sont concerné des acteurs non-commerciaux comme Wikipédia, qui n’ont pas les moyens des géants ;
ce délai de 24h est contre-productif ; il force les plateformes à traiter tous les contenus en même temps, alors que le droit actuel permet de traiter en priorité les contenus les plus graves ;
ce délai pousse à l’utilisation d’outils de censure automatisée, fondamentalement contraires à la liberté de communication ;
ce délai renforce la possibilité pour la police de faire de la censure politique (de même qu’elle avait signalé en janvier à Google une caricature de Macron en Pinochet, enregistrée en tant que « injure raciste »).
Contenus censurés
l’obligation de censure concerne tout contenu relevant de la haine raciste, sexiste ou contre les LGBT, de la pédopornographie ou de l’apologie des agressions sexuelles, des crimes contre l’humanité, de l’esclavage ou du terrorisme ;
est aussi condamnée l’assistance et l’intermédiation entre travailleuses du sexe, qui seront chassées du Web et exposées à plus de violence dans la rue ;
est aussi condamnée la mise à disposition de contenus pornographiques aux mineurs, ce qui ne peut être empêché qu’en identifiant toutes les personnes voulant accéder à ces contenus.
Sites miroirs
la police pourra exiger que les fournisseurs d’accès à Internet bloquent n’importe quel site hébergeant un contenu préalablement reconnu illicite par un juge ;
aucun site ne peut techniquement empêcher un utilisateur malveillant de publier un tel contenu à son insu, ce qui offre à la police le pouvoir théorique de censurer n’importe quel site de son choix.
Internet transformé en TV
l’ensemble de la loi marque une conception du Net enfermé dans quelques grandes plateformes collaborant étroitement avec l’État, comme pour la TV ;
c’est le CSA, autorité normalement chargée de contrôler la TV, qui veillera donc au respect de la loi et à cette transformation (voir notre analyse plus détaillée).
Interopérabilité
la loi sera contre-productive car elle ne s’attaque pas au modèle économique des grandes plateformes (au contraire, elle le glorifie) ;
ce modèle est celui de l’économie de l’attention, qui accélère la diffusion des contenus nous faisant rester le plus longtemps et interagir le plus, quitte à favoriser les invectives, conflits et caricatures et à « censurer par enterrement » les propos plus subtils d’écoute et d’entre-aide ;
pour nous permettre de nous libérer de l’environnement toxique de ces géants, la loi doit les forcer à devenir interopérable : à nous permettre de les quitter pour rejoindre des alternatives moins toxiques et à taille humaine, tout en pouvant continuer à communiquer avec les personnes restées sur les géants. C’est la crainte de perdre cette communication qui fait que beaucoup d’entre nous y restons (voir notre analyse plus détaillée).
Notre proposition sur l’interopérabilité, qui pourrait rendre utile cette loi autrement vaine et dangereuse, a été reprise dans 7 amendements déposés pour le débat de demain. Ces amendements réunissent les signatures de 64 députés, allant du centre-droit à la gauche. L’Assemblée nationale doit les adopter.
À l’opposé, le groupe En Marche propose un amendement pour obliger les plateformes à détecter la réapparition de tout contenu préalablement censuré, et ce avant même que cette réapparition ne leur soit signalée. Il s’agirait d’une violation pure et simple de l’article 15 de la directive européenne eCommerce qui définit depuis 2000 le statut juridique des hébergeurs : « Les États membres ne doivent pas imposer aux prestataires […] une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cet amendement doit être rigoureusement rejeté.
Suivez le vote dès demain 16h30 sur le service vidéo de l’Assemblée. La lutte contre la haine ne doit pas être instrumentalisée pour renforcer le contrôle du Net par le gouvernement.
";s:7:"dateiso";s:15:"20190702_141704";}s:15:"20190701_125025";a:7:{s:5:"title";s:60:"La loi « haine » va transformer Internet en télévision";s:4:"link";s:83:"https://www.laquadrature.net/2019/07/01/la-loi-haine-va-transformer-internet-en-tv/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14510";s:7:"pubDate";s:31:"Mon, 01 Jul 2019 10:50:25 +0000";s:11:"description";s:250:"La proposition de loi portée par Laetitia Avia prétend vouloir faire du CSA « l’accompagnateur des plateformes » dans la lutte « contre la haine en ligne ». En réalité, la loi va beaucoup plus loin. Comme cela est…";s:7:"content";s:14163:"
La proposition de loi portée par Laetitia Avia prétend vouloir faire du CSA « l’accompagnateur des plateformes » dans la lutte « contre la haine en ligne ». En réalité, la loi va beaucoup plus loin. Comme cela est redouté depuis plusieurs années, elle amorce la transformation de l’autorité en un grand régulateur de l’Internet, dans la droite lignée du « Comité Supérieur de la Télématique » fantasmé par François Fillon dès 1996. Entretenant la dangereuse confusion entre Internet et la télévision, la loi Avia participe à la centralisation et à l’extra-judiciarisation de l’Internet. Quitte à risquer de le transformer en une sorte de sombre ORTF 2.0.
La proposition de loi portée par Lætitia Avia doit être débattue à l’Assemblée Nationale le 3 juillet prochain. À côté des dangers que nous avons déjà soulignés (voir notre analyse juridique), la loi délègue un grand nombre de pouvoirs au CSA :
celui d’émettre des « recommandations, des bonnes pratiques et des lignes directrices pour la bonne application » de certaines obligations qui y sont prévues, notamment celles du retrait des contenus dits haineux et définis en son article 1er (contenus terroristes, atteinte à la dignité humaine, incitation à la haine, discriminations…) ;
celui de mettre en demeure puis de sanctionner (à hauteur de 4% du chiffre d’affaires mondial, comme pour le RGPD) les plateformes qui ne respecteraient pas l’obligation de retrait en 24h de ces contenus une fois qu’ils leur sont notifiés. À ce titre, c’est au CSA qu’il reviendra d’apprécier « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait sur les contenus portés à sa connaissance » ;
enfin, il récupère le rôle de la CNIL dans le cadre du contrôle des demandes que peut faire l’OCLTCIC (et non un juge) pour obtenir le blocage par les FAI d’un site considéré comme pédopornographique ou à caractère terroriste.
Il faut ranger ces pouvoirs à côté de ceux aussi acquis par le CSA dans la récente loi sur les fake news, (dite loi « relative à la lutte contre la manipulation de l’information »). Le CSA y avait en effet déjà récupéré des pouvoirs assez semblables, comme celui d’émettre des recommandations pour « améliorer » la lutte contre ces fausses informations.
Une vieille et mauvaise idée
Avant de comprendre les dangers qui pourraient résulter d’une telle délégation de pouvoirs, intéressons-nous rapidement à l’historique des relations entre le CSA et l’Internet. Car ce n’est pas la première fois que l’autorité veut s’arroger ce type de pouvoir.
Ainsi, en 1996, François Fillon, alors ministre délégué à la Poste, aux Télécommunications et à l’Espace, dépose un amendement dans le cadre des débats sur le « projet de loi sur la réglementation des télécommunications ». Il y propose la création d’un « Comité supérieur de la télématique » (CST), placé auprès du CSA, chargé d’élaborer des recommandations « propres à assurer le respect, par les services de communication audiovisuelle […] des règles déontologiques adaptées à la nature des services proposés ». Comme le raconte Owni.fr, il s’agissait surtout d’obliger les fournisseurs d’accès à Internet, en échange d’une non-responsabilité pénale des contenus postés, à suivre les recommandations de ce Conseil. Ce dernier allait ainsi devenir, selon Lionel Thoumhyre, « l’organe directeur de l’Internet français, gouverneur de l’espace virtuel ». L’article de loi a été par la suite heureusement censuré par le Conseil constitutionnel.
Depuis, l’autorité n’a jamais baissé les bras, aidée par de nombreuses personnalités politiques 1Pour un récapitulatif et une analyse plus complète, voir notamment l’article de Félix Tréguer sur le sujet, en 2015 : « Le CSA et la régulation d’Internet : une erreur ontologique »).. Citons Dominique Baudis (président du CSA de 2001 à 2007) qui énonce en 2001 : « Je considère que tout ce qui concerne les médias audiovisuels, qui s’adressent à une masse de gens et qui ne sont ni du ressort de la correspondance privée, ni du commerce en ligne, relève de notre compétence. Le fait qu’ils ne soient disponibles que sur internet n’y change rien ». Ou en 2004 également, le gouvernement qui tente de profiter de la loi LCEN pour faire du CSA un grand régulateur de l’Internet (ce qui est finalement rejeté par le Parlement après de nombreuses critiques). Les tentatives reviendront ainsi à chaque débat, notamment sur les lois de l’audiovisuel.
Plus récemment encore, c’est Emmanuel Macron en novembre 2017, qui instrumentalise les violences faites aux femmes pour légitimer l’extension des pouvoirs du CSA. Et en septembre 2018, c’est le CSA lui-même qui appelle à ce que la régulation audiovisuelle comprenne désormais « les plateformes de partage de vidéos, les réseaux sociaux et les plateformes de diffusion en direct », précisant même que « la régulation doit permettre d’assurer que ces nouveaux acteurs mettent en place les mesures appropriées en matière de protection des mineurs, de lutte contre la diffusion de contenus incitant à la haine et à la violence […] ».
Pourquoi le CSA pour Internet, c’est mal
En lisant la loi Avia et les pouvoirs qui lui sont délégués, on ne peut que faire ce ce constat déprimant que le CSA est en train, à l’usure, de gagner. En lui donnant le pouvoir d’apprécier si l’opérateur a correctement retiré un contenu considéré comme « haineux », en lui donnant un pouvoir de sanction, en lui permettant d’émettre des recommandations sur la haine en ligne (comme elle le fait déjà sur les « fausses informations »), la proposition de loi se rapproche dangereusement de l’idée du « Comité Supérieur de la Télématique » de 1996 et participe donc à la confusion grandissante qu’il y a entre Internet et la télévision.
Or, faire cette confusion, c’est insulter ce que représente au départ Internet : un moyen justement de se soustraire à l’information linéaire et unilatérale de la télévision par la multiplication des canaux d’expression. L’analyse que faisait LQDN sur le sujet il y a plusieurs années tient toujours, et donne d’ailleurs la douloureuse impression de tourner en rond : « Le CSA régule la diffusion de contenus, de façon centralisée, par des acteurs commerciaux. Tenter d’imposer le même type de règles à la multitude d’acteurs, commerciaux et non-commerciaux, qui constituent le réseau décentralisé qu’est Internet, dans lequel chacun peut consulter, mais également publier des contenus, est une aberration. Internet c’est aussi la diffusion de vidéos, mais c’est avant tout la mise en œuvre de nos libertés fondamentales, le partage de la connaissance et de la culture, la participation démocratique, etc ».
Au-delà de l’aberration, vouloir télévisionner l’Internet, c’est vouloir le centraliser. C’est un moyen pour le gouvernement de reprendre le contrôle sur ce moyen d’expression qu’il ne maîtrise pas et cela passe par la création de lois pour et avec les grandes plateformes, en ne voyant Internet que par le prisme faussé des géants du Net, avec la menace qu’elles s’appliquent un jour à tous. Car il est toujours plus facile de ne traiter qu’avec un nombre restreint de gros acteurs (d’ailleurs plus prompts que les autres à collaborer avec lui.).
C’est aussi mettre dans les mains de l’administration des pouvoirs qui appartenaient auparavant au juge. C’est bien au CSA et non à un juge qu’il reviendra de décider si un contenu est haineux et méritait donc pour un opérateur d’être retiré en 24h. Et c’est donc, comme c’est déjà le cas pour la télévision, à l’administration qu’il reviendra de dire ce qui peut être dit ou diffusé sur Internet. Difficile à ce titre de ne pas faire le lien avec les récentes déclarations du secrétaire d’État au numérique qui menace cette fois-ci la presse de donner au CSA le pouvoir de « décider ce qu’est une infox ou pas ».
On en vient alors à se demander si, à travers cette loi, le gouvernement n’est pas en train d’instrumentaliser les débats sur la haine en ligne, ses victimes et Laetitia Avia elle-même pour reprendre la main sur Internet.
En déléguant au CSA de tels pouvoirs, avec l’objectif d’en faire le grand gendarme de l’Internet, la loi « haine » est un nouveau pas vers l’ORTF 2.0.
";s:7:"dateiso";s:15:"20190701_125025";}s:15:"20190628_142432";a:7:{s:5:"title";s:80:"La CNIL veut autoriser les sites Internet à nous tracer sans notre consentement";s:4:"link";s:120:"https://www.laquadrature.net/2019/06/28/la-cnil-veut-autoriser-les-sites-internet-a-nous-tracer-sans-notre-consentement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14503";s:7:"pubDate";s:31:"Fri, 28 Jun 2019 12:24:32 +0000";s:11:"description";s:249:"Hier, Mme Marie-Laure Denis, présidente de la CNIL, a expliqué en commission de l’Assemblée nationale que la CNIL prendrait le 4 juillet une décision injustifiable (voir la vidéo de 00:59:50 à 01:01:30). Aujourd’hui, la CNIL…";s:7:"content";s:5847:"
Hier, Mme Marie-Laure Denis, présidente de la CNIL, a expliqué en commission de l’Assemblée nationale que la CNIL prendrait le 4 juillet une décision injustifiable (voir la vidéo de 00:59:50 à 01:01:30). Aujourd’hui, la CNIL vient de préciser cette décision : au mépris total du droit européen, elle souhaite attendre juillet 2020 pour commencer à sanctionner les sites internet qui déposent des cookies sans respecter les nouvelles conditions du RGPD pour obtenir notre consentement.
Ces nouvelles conditions sont pourtant une des avancées majeures de ce texte : y renoncer revient à le vider de sa substance. Depuis l’entrée en application du RGPD le 25 mai 2018, notre consentement ne peut plus être « déduit » du simple fait que nous sommes informé·es par un vulgaire « bandeau cookie » et que nous ne prenons pas les mesures techniques nécessaires pour empêcher le dépôt des-dits traceurs. Notre silence ne vaut plus acceptation, enfin ! Désormais, tant que nous ne cliquons pas explicitement sur un bouton « j’accepte », il est strictement interdit de nous pister et de réaliser des profits sur nos données personnelles (précisons au passage que notre consentement ne doit pas seulement être « explicite » mais aussi « libre » : un bouton « je refuse » doit être proposé et le site doit rester accessible même si on ne clique pas sur « j’accepte »). Il s’agit là de l’une des principales avancées que nous avons obtenues au cour de la lutte menée dès 2014 au Parlement européen pour renforcer le RGPD, et que nous devons veiller à faire appliquer scrupuleusement (lire notre bilan).
C’est précisément en application de cette nouvelle règle du « consentement explicite » que la CNIL a sanctionné Google d’une amende de 50 millions d’euros en janvier dernier, dans le cadre de nos plaintes collectives et de celle de NOYB contre l’entreprise : le consentement qu’obtient Google n’est pas explicite mais déduit implicitement de notre absence d’opposition, en violation du RGPD. Aujourd’hui, la CNIL semble vouloir appliquer un droit différent entre Google et les médias français qui, eux, pourraient se contenter d’un consentement « implicite », violant tranquillement nos libertés fondamentales dans la poursuite de profits publicitaires intolérables.
À écouter la présidente de la CNIL, cette direction résulte de négociations avec le GESTE, un syndicat français de médias en ligne que nous avons l’habitude de combattre en matière de données personnelles. Ce dernier criait déjà victoire le mois dernier quand la CNIL avait commencé à céder à ses demandes et lui promettait : « le scroll et/ou le clic sur un élément de la page visitée, reste un mode valable d’expression du consentement, et ce jusqu’à juin 2020 ». Autrement dit : « la CNIL démissionne, ruons-nous pour tondre les moutons ! ».
En droit, les choses sont pourtant simples : il n’existe aucune possibilité laissée à la CNIL pour repousser jusqu’à juillet 2020 l’application du RGPD. Ce texte européen, adopté en 2016, prévoyait déjà une « période de transition », qui a entièrement pris fin le 25 mai 2018. La décision que la CNIL s’apprête à prendre violerait de plein front le droit européen et justifierait un recours en manquement contre la France par la Commission européenne.
De notre côté, si cette décision devait être prise, nous n’aurions guère le choix que de l’attaquer devant le Conseil d’État, de la même façon que nous avons pris l’habitude d’attaquer de nombreux actes du gouvernement (nous avions d’ailleurs déposé une demande CADA à la CNIL il y a un mois pour obtenir la décision révélée par le GESTE, afin de l’attaquer le cas échéant). En cas de victoire de notre part devant le Conseil d’État, difficile d’imaginer comment la présidente de la CNIL pourrait conserver suffisamment de légitimité pour ne pas démissionner.
Le collège de la CNIL se réunira ce 4 juillet pour choisir d’entériner ou non cette décision. Nous appelons chacune et chacun des 18 membres de la CNIL à s’y opposer vigoureusement. Au contraire, elles et ils doivent décider de la poursuite immédiate des sites Internet violant la loi. La lettre du RGPD est parfaitement claire, a déjà été expliquée en long, en large et en travers par le Comité européen à la protection des données et ne nécessite aucune précision supplémentaire pour être respectée. La protection de nos libertés fondamentales ne saurait connaître aucun sursis.
";s:7:"dateiso";s:15:"20190628_142432";}s:15:"20190628_125449";a:7:{s:5:"title";s:90:"Partage de données : le renseignement français encore et toujours dans l’illégalité";s:4:"link";s:121:"https://www.laquadrature.net/2019/06/28/partage-de-donnees-le-renseignement-francais-encore-et-toujours-dans-lillegalite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14493";s:7:"pubDate";s:31:"Fri, 28 Jun 2019 10:54:49 +0000";s:11:"description";s:232:"La Quadrature du Net vient de déposer un nouveau recours devant le Conseil d’État contre les activités de partage de données entre services de renseignement. Comme le révélait le journal Le Monde fin avril, depuis…";s:7:"content";s:18024:"
La Quadrature du Net vient de déposer un nouveau recours devant le Conseil d’État contre les activités de partage de données entre services de renseignement. Comme le révélait le journal Le Monde fin avril, depuis 2016, une infrastructure dédiée au siège de la DGSE permet aux services d’échanger des données collectées dans le cadre de leurs activités de surveillance, et ce sans aucun encadrement juridique. Ces activités illégales posent de nouveau la question de l’impunité des responsables du renseignement et des autorités de contrôle, et doivent cesser au plus vite.
Avec la loi relative au renseignement de 2015, l’État nous promettait que les barbouzeries illégales dont les services français étaient familiers ne seraient bientôt plus qu’un mauvais souvenir. Rien ne serait jamais plus comme avant : les buts et les moyens du renseignement étaient désormais clairement énumérés, la commission de contrôle dédiée, la CNCTR, veillerait au grain en lien avec le Conseil d’État. Fini le non-droit : le renseignement rentrait enfin dans le giron de l’État de droit…
Hélas, la loi adoptée à l’époque était déjà loin du compte, comme La Quadrature le fait d’ailleurs valoir dans ses multiples recours déposés devant le Conseil d’État, en lien avec les fournisseurs d’accès associatifs de la Fédération FDN.
Puis dès le printemps 2016, une première découverte montrait que les mauvaises habitudes avaient la vie dure. Au détour de « l’affaire Solère », nous nous rendions alors compte que le législateur avait reconduit dans la loi renseignement une vieille disposition relative à la « surveillance hertzienne », rédigée de manière tellement sommaire qu’elle laissait la possibilité de couvrir n’importe quelle mesure de surveillance et de contourner tous les mécanismes de contrôle prévus par ailleurs dans la loi. Nous avions alors eu gain de cause devant le Conseil constitutionnel, et le gouvernement avait dû réécrire cet article.
Fin 2016, lorsque l’on découvrit l’existence d’un contrat conclu entre la DGSI et Palantir, il devenait clair que les belles promesses de 2015 avaient fait long feu. Pour passer les téraoctets de données perquisitionnées dans le cadre de l’état d’urgence à la moulinette du Big Data, la DGSI s’offrait donc les outils d’analyse de cette sulfureuse entreprise liée au complexe militaro-industriel étasunien. Les caciques du renseignement français laissaient ainsi entendre que, chaque fois que le droit s’écarterait un peu des possibilités offertes par les technologies modernes de surveillance, le droit devrait s’incliner. Une stratégie d’ailleurs validée par le député Cédric Villani dans son rapport de 2018 sur l’intelligence artificielle, qui légitimait ces méthodes illégales en parlant d’expérimentation et de « logique de bac à sable ».
Fin avril 2019, le journal Le Monde révélait une autre affaire, à savoir l’existence de l’« entrepôt », surnom d’un « bâtiment ultrasécurisé » attenant au siège de la direction générale de la sécurité extérieure (DGSE), à Paris. Une sorte de data center dédié à la mutualisation des données entre services de renseignement. Sa création et son financement auraient été décidés en janvier 2016 sous l’autorité de François Hollande. Et au mois de juillet 2016, une des lois de prolongation de l’état d’urgence était venue fournir un semblant de base légale à cette infrastructure technique, en modifiant un article dédié — l’article L-863-2 — dans le Code de la sécurité intérieure1L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre. Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers. Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.» Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité ».
Sauf que cette disposition de 2016 se contentait d’autoriser les services à partager leurs données sans rien préciser, alors même que le Conseil constitutionnel avait exigé en 2015 que le législateur fixe lui-même, sans s’en remettre au gouvernement, les conditions d’exploitation, de conservation et de destruction des informations collectées dans le cadre de la surveillance d’État2« En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).. L’article 863-2 renvoyait à un décret pour préciser ses modalités d’application. Celui-ci ne fut jamais publié, le gouvernement craignant sans doute d’attirer l’attention sur l’inconstitutionnalité de sa base législative (une source du Monde évoque ainsi le « défaut de base constitutionnelle » de ce décret).
Or, les activités de surveillance relèvent de régimes plus ou moins permissifs. La DGSE, par exemple, dispose des moyens techniques et juridiques les plus larges, lui permettant d’intercepter d’immenses quantités de trafic au niveau des câbles de télécommunications transitant sur le territoire français (article L.854-1 et suivants). De même, des techniques du renseignement intérieur, comme les fameuses boîtes noires algorithmiques ou la surveillance en temps réel des métadonnées, ne sont autorisées que pour la lutte antiterroriste (articles L. 851-2 et L. 851-3)
Que se passe-t-il lorsque les données relevant de ces pouvoirs exorbitants sont versées au pot commun dans lequel peuvent potentiellement venir piocher des dizaines de milliers d’agents, relevant de services aux compétences et aux missions très diverses (TRACFIN, douanes, direction du renseignement de la préfecture de police de Paris, bureau central du renseignement pénitentiaire, ANSSI, service central du renseignement territorial, etc.) ? Certes, le gouvernement a déjà fait évoluer la loi l’an dernier pour faciliter la surveillance de résident·es français·se à partir du régime applicable aux communications internationales, là encore au mépris des engagements de 2015. Pour autant, celui-ci couvre un champ restreint. Faute d’être rigoureusement encadrés par la loi, l’essentiel des partages de données pratiqués à l’entrepôt de la DGSE sont donc nécessairement illégaux et profondément attentatoires aux droits fondamentaux.
La Quadrature vient donc d’attaquer ce dispositif devant le Conseil d’État (voir notre mémoire introductif). Dès que possible, nous soulèverons également une question prioritaire de constitutionnalité dans le cadre de cette procédure, afin de faire invalider l’article L. 863-2. Et avec lui, c’est l’ensemble des activités de partage de données entre services qui devra cesser en attendant que la loi soit précisée et que la transparence soit faite sur ces pratiques.
Au-delà, cette affaire pose aussi la question de la responsabilité, et de l’impunité récurrente, non seulement des hauts responsables politiques et administratifs du renseignement qui président à ces activités illégales, mais aussi de leurs autorités de contrôle (la CNCTR et Conseil d’État) qui acceptent de les couvrir.
L’article L.~863-2 CSI indique : « Les services spécialisés de renseignement mentionnés à l’article L. 811-2 et les services désignés par le décret en Conseil d’État prévu à l’article L. 811-4 peuvent partager toutes les informations utiles à l’accomplissement de leurs missions définies au titre Ier du présent livre. Les autorités administratives mentionnées à l’article 1er de l’ordonnance n°~2005-1516 du 8 décembre 2005 relative aux échanges électroniques entre les usagers et les autorités administratives et entre les autorités administratives peuvent transmettre aux services mentionnés au premier alinéa du présent article, de leur propre initiative ou sur requête de ces derniers, des informations utiles à l’accomplissement des missions de ces derniers. Les modalités et les conditions d’application du présent article sont déterminées par décret en Conseil d’État.» Créé par la loi de renseignement de 2015, la loi de 2016 est simplement venue changer le mot « échanger » par « partager ». C’est un amendement apporté en 1ère lecture par le Sénat par une sénatrice Les Républicains. À l’époque, celle-ci explique que « l’objectif est de permettre la mise en commun de toutes les informations dont disposent les services en lieu et place d’échanges bilatéraux, et ce dans un souci d’efficacité »
2.
↑
« En ne définissant dans la loi ni les conditions d’exploitation, de conservation et de destruction des renseignements collectés en application de l’article L. 854-1, ni celles du contrôle par la commission nationale de contrôle des techniques de renseignement de la légalité des autorisations délivrées en application de ce même article et de leurs conditions de mise en œuvre , le législateur n’a pas déterminé les règles concernant les garanties fondamentales accordées aux citoyens pour l’exercice des libertés publiques ; que, par suite, les dispositions du paragraphe I de l’article méconnaissent l’article 34 de la Constitution, doivent être déclarés contraires à la Constitution » (Cons. constit. Déc. n° 2015-713 DC du 23 juillet 2015, cons. 78).
";s:7:"dateiso";s:15:"20190628_125449";}s:15:"20190627_162515";a:7:{s:5:"title";s:41:"Deuxième analyse de la loi « haine »";s:4:"link";s:73:"https://www.laquadrature.net/2019/06/27/deuxieme-analyse-de-la-loi-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14482";s:7:"pubDate";s:31:"Thu, 27 Jun 2019 14:25:15 +0000";s:11:"description";s:255:"Le 3 juillet, l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet », déjà adoptée sans grand changement en commission des lois le 19 juin (lire notre réaction).
La Quadrature du Net…";s:7:"content";s:44931:"
Le 3 juillet, l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet », déjà adoptée sans grand changement en commission des lois le 19 juin (lire notre réaction).
La Quadrature du Net a envoyé aux 577 députés l’analyse juridique reproduite ci-dessous (aussi en PDF), qui met à jour l’analyse envoyée à la commission des lois avant le vote de celle-ci.
Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses
Mesdames, Messieurs les députées,
Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.
La Quadrature du Net vous appelle à supprimer son article 1er et à modifier la loi tel qu’exposé ci-après.
Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir « interopérables » pour permettre aux victimes de se libérer des modèles économiques favorisant la haine.
A. Le champ personnel excessif du retrait en 24h
En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007)..
L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.
Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.
Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.
B. Un délai de 24h contre-productif
En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil)..
En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.
À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.
Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cour desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.
À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi..
En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.
C. Un délai de 24h favorisant la censure politique
En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. ».
En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs utilisateurs jugés les plus fiables. Vraisemblablement, les contenus signalés par les comptes des services de la police seront traités de façon expéditive : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.
Ce pouvoir « de fait » de la police a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.
En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.
D. Une lutte illégitime contre les travailleuses du sexe
L’article 1 de la PPL, telle que complété en commission des lois, entend désormais lutter contre les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».
Cet ajout poussera encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seront exposées à bien plus de violences. Une telle situation trahit l’objectif de cette PPL qui prétend défendre les victimes de violences.
E. La conservation des données renforcée, en violation du droit de l’Union
L’article 3 bis du texte adopté en commission des lois propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs qui ne conservent pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.
Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1.
Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.
F. L’absence de garde fou à la lutte contre les sites miroirs
L’article 6 de la PPL permet à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu illicite dont un juge a interdit « la reprise totale ou partielle ».
Ces nouveaux pouvoirs donnés à la police comportent de graves risques de dévoiement à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.
Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.
Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).
Une garantie classique contre cette dérive est le « principe de subsidiarité », déjà prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.
Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.
G. La disparition du principe de subsidiarité en matière de signalement
L’article 1 bis du texte adopté en commission des lois crée un formalisme spécifique pour signaler les contenus visés à l’article 1 de la PPL. Ce formalisme est considérablement allégé comparé à celui du droit commun, tel que décrit à l’article 6, I, 5, de la LCEN.
La principale nouveauté de ce formalisme spécifique est que l’auteur d’un signalement n’aura plus à justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.
Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.
Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.
La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. Cet article 1 bis doit être supprimé.
H. L’interopérabilité, une solution plus efficace que la répression
Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.
Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.
1. Deux causes
Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.
Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.
D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.
Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.
2. Une solution
Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.
Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.
D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».
Nous vous appelons à adopter tout amendement proposant d’obliger les grandes plateformes commerciales à devenir interopérables pour permettre aux victimes de se libérer de leur modèle économique favorisant la haine.
Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2.
↑
Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5.
↑
Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
";s:7:"dateiso";s:15:"20190627_162515";}s:15:"20190621_153158";a:7:{s:5:"title";s:43:"Le vrai visage de la reconnaissance faciale";s:4:"link";s:84:"https://www.laquadrature.net/2019/06/21/le-vrai-visage-de-la-reconnaissance-faciale/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14460";s:7:"pubDate";s:31:"Fri, 21 Jun 2019 13:31:58 +0000";s:11:"description";s:248:"La Quadrature du Net est contre la reconnaissance faciale, d’accord : mais pourquoi ? Dès qu’on aborde le sujet en public, on voit se dessiner deux attitudes opposées. D’un côté, le solide bon sens qui ne voit…";s:7:"content";s:28454:"
La Quadrature du Net est contre la reconnaissance faciale, d’accord : mais pourquoi ? Dès qu’on aborde le sujet en public, on voit se dessiner deux attitudes opposées. D’un côté, le solide bon sens qui ne voit pas pourquoi on se priverait de la possibilité d’identifier efficacement les criminels dans une foule, et pour qui tous les moyens sont bons, puisque la fin est juste. De l’autre côté, la peur réflexe devant cette technique de surveillance – souvent plus vive que devant d’autres techniques de surveillance pourtant très répandues – parce qu’elle est exploitée au cinéma comme outil d’un pouvoir policier totalitaire. C’est entre ces deux pôles, fantasme contre fantasme, qu’on peut essayer de comprendre les enjeux de la reconnaissance faciale.
Reconnaissance facile
Un terroriste est en fuite dans les rues d’une capitale : il suffit d’analyser en direct les images des caméras de surveillance de la ville pour le situer en quelques minutes. Un enfant s’est perdu ? Vite, les caméras de tous les lieux publics sont interrogées, et l’enfant est retrouvé en moins d’une demi-heure.
Les personnes chargées de vendre des systèmes de reconnaissance faciale ne manquent pas d’imagination pour convaincre le grand public de l’efficacité de leurs produits. Le contexte sécuritaire, accentué par les attaques terroristes de 2015, entretenu par le personnel politique et amplifié par les médias de masse, leur ouvre un boulevard idéologique et des lignes de crédit généreuses.
Autant dire qu’en matière de fantasme, les partisans de la reconnaissance faciale généralisée ne sont pas en reste. Le seul fait que la surveillance permanente des rues et des espaces publics soit considérée comme une solution miracle à l’insécurité dans la société devrait suffire à disqualifier l’outil : il est incapable de répondre aux objectifs qu’on veut lui donner.
Comment ça marche ?
Il existe plusieurs types de reconnaissance faciale. Leur point commun, c’est un logiciel capable de repérer dans une image (photo ou vidéo) des structures de visage et de les comparer point à point avec d’autres images. Il faut ensuite distinguer deux formes de « reconnaissance ».
Si on compare les images avec d’autres images de la même source – les différents angles de vue dans une galerie commerciale, par exemple – alors on veut « identifier » quelqu’un : c’est-à-dire isoler une personne (« identique » à elle-même !) parmi d’autres et la suivre ainsi dans ses déplacements, soit parce qu’on estime qu’elle a un comportement suspect, soit pour renseigner la galerie commerciale sur le parcours de ses clients.
Quand on reconnaît les visages dans une foule pour les comparer à un jeu de visages de personnes recherchées, il s’agit aussi de les « identifier ».
En revanche, on, parle d’« authentification » quand on compare le visage d’une personne à un visage de référence. L’authentification est couramment utilisée comme système de déverrouillage : le visage saisi par la caméra doit correspondre à l’image enregistrée dans un badge (c’est le cas du système prévu pour les lycées de PACA) ou dans une base de donnés de personnes autorisées (par exemple à l’entrée d’une entreprise). C’est un procédé testé aussi pour le retrait d’argent à un distributeur, en renfort du PIN.
C’est le seul exemple où la reconnaissance faciale vise toujours à protéger la confidentialité des données et l’intimité de la personne : quand on choisit de déverrouiller son téléphone avec la reconnaissance faciale, c’est parce qu’on espère que personne d’autre ne pourra le faire.
L’identification est utilisée par la police pour reconnaître des personnes recherchées. On peut en voir un exemple concret et efficace sur le site d’Interpol.
Des exemples comme celui-ci alimentent le fantasme qui sous-tend la reconnaissance faciale : si on peut scanner tous les passants et identifier ceux qui sont suspects, alors la criminalité reculera et la sécurité augmentera.
Méconnaissance faciale
Mais le moindre défaut de la reconnaissance faciale, c’est qu’elle ne marche pas très bien. On le sait parce que de nombreuses expériences sont conduites dans le monde, et que les résultats publiés sont assez étonnants, en comparaison des espoirs démesurés que suscite la technique.
La société SenseTime, en Chine, se vante par exemple de pouvoir identifier un individu qui commet une « incivilité » dans la rue, afin d’afficher son visage sur des écrans géants et le soumettre au mépris public. Mais une expérience menée aux États-Unis s’est conclue sur le constat que la reconnaissance faciale sur des automobilistes ne fonctionne pas encore.
Nos collègues anglais de Big Brother Watch, au Royaume-Uni, qui militent notamment contre l’utilisation de la reconnaissance faciale, ont publié des chiffres à propos des expériences menées par la police britannique. Ils montrent que le taux de reconnaissance est très bas, et que les « faux positifs », c’est-à-dire les identifications erronées, sont nombreuses. Certaines ont même entraîné des interventions infondées de la police.
La sécurité des forts
L’échec des identifications n’est pas imputable seulement à un défaut de la technique : le germe de l’échec est dans les hommes qui programment la reconnaissance faciale. Le logiciel qui analyse les visages et les compare à d’autres visages est dans la plupart des cas conçu par des hommes blancs. Surprise : la reconnaissance faciale des femmes et des personnes non-blanches atteint un taux d’échec et de faux positifs supérieur à la moyenne.
Que ses concepteurs le veuillent ou non, ce qu’on appelle « les biais de l’algorithme », ses effets indésirables, sont en réalité les biais cognitifs de ceux qui le conçoivent : le racisme et le sexisme de l’algorithme dérivent du racisme et du sexisme institués par la société, et consciemment ou inconsciemment reproduits par les concepteurs de ces outils.
Cet article donne plusieurs exemples des effets de ce biais.
Dans le cadre d’un usage policier de la reconnaissance faciale, les personnes les plus faibles socialement seront ainsi plus souvent victimes d’erreurs policières que les autres.
Société de contrôle
Les philosophes Michel Foucault et Gilles Deleuze ont défini de façon très précise plusieurs types de coercitions exercées par les sociétés sur leurs membres : ils distinguent en particulier la « société disciplinaire » (telles que la société en trois ordres d’Ancien Régime ou la caserne-hôpital-usine du XIXe siècle) de la « société de contrôle » qui est la nôtre aujourd’hui.
Dans une « société de contrôle », les mécanismes de coercition ne sont pas mis en œuvre par des autorités constituées qui les appliquent au corps social par contact local (autorité familiale, pression hiérarchique dans l’usine, surveillant de prison, etc.), mais sont incorporés par chacun (métaphoriquement et littéralement, jusqu’à l’intérieur du corps et de l’esprit), qui se surveille lui-même et se soumet à la surveillance opérée par d’autres points distants du corps social, grâce à une circulation rapide et fluide de l’information d’un bord à l’autre de la société. Wikipédia donne un bon aperçu du concept, dont on trouvera une lecture plus approfondie ici.
Qui peut souhaiter d’être soumis à un contrôle dont les critères lui échappent ? C’est pourtant ce que nous acceptons, en laissant s’installer partout la vidéosurveillance et la reconnaissance faciale.
La mairie de Nice, dirigée par par Christian Estrosi (LR), a fait scandale au printemps 2019 en organisant une expérience lors du carnaval de la ville. Sur la base du volontariat, certaines personnes préalablement identifiées devaient être reconnues dans la foule. Mais la ville de Nice envisage d’aller plus loin, en authentifiant les passagers du tramway dont le comportement serait « suspect ».
Qu’est-ce qui définit un comportement suspect ? Avoir un type maghrébin et un sweat à capuche entre sûrement dans les critères. Mais quoi d’autre ? Une expression faciale fermée, une nervosité visible ? Quelles émotions sont-elles considérées comme étant un danger pour la société ? Où peut-on consulter la liste ? On voit bien la part fantasmatique et arbitraire qui fonde tout projet d’anticiper la criminalité.
Sous prétexte que « prévenir vaut mieux que guérir », on organise en réalité, dans des usages quotidiens bien réels et valables dès aujourd’hui, une inversion générale de la charge de la preuve.
En temps normal, la police judiciaire doit rassembler par l’enquête des preuves à charge pour inculper quelqu’un. C’est à l’accusation de faire la preuve de la culpabilité du suspect. Ce travail est collectif, encadré par une procédure et un tribunal.
En revanche, sous l’œil de la caméra et face aux algorithmes de reconnaissance faciale, c’est à chacun que revient, à tout instant et en tout lieu, la charge de prouver son innocence. Comment ? En offrant son visage à l’identification et en adoptant un comportement qui ne déclenchera aucune alarme au fond d’un ordinateur de la police.
La loi de l’œil
On peut penser qu’il s’agit, sous nos yeux, d’un choix de société délibéré. En l’absence de cadre juridique clair, les dispositifs de reconnaissance faciale s’installent dans la hâte, avec un effet immédiat : chacun intériorise la contrainte de la surveillance et adapte insensiblement son comportement à ce regard abstrait. Il est psychologiquement naturel et moins coûteux de s’y plier, même avec une ironie protectrice, plutôt que de remettre en cause les décisions arbitraires qui sont imposées sans discussion.
L’intériorisation de la surveillance, la culpabilité par défaut, s’accompagne d’un ajustement inconscient à une loi non écrite. C’est l’effet Hawthorne, sorte d’effet placebo mental : savoir qu’on est surveillé modifie l’attitude. La surveillance n’a pas besoin de punir chaque individu pour s’exercer sur tous.
Refuser la reconnaissance faciale est une première nécessité, l’encadrer par la loi écrite aussi. (L’encadrement juridique de la reconnaissance faciale fera l’objet d’un article à part.)
Éducation au contrôle
Pourquoi vouloir installer un dispositif de reconnaissance faciale à l’entrée d’un lycée ? C’est en cours à Marseille et à Nice, un projet encore porté par monsieur Estrosi, et combattu par La Quadrature du Net. Quel intérêt, alors que des surveillants à l’entrée de l’établissement pourraient tout aussi bien reconnaître les élèves autorisé·es, repérer les intrus, et affronter les problèmes éventuels avec humanité ? La réponse est triste : parce que la machine est censée être moins chère.
La dépense s’amortit en quelques années et les services publics croient faire ainsi des économies, dans un contexte général où les problèmes sociaux sont délégués à l’entreprise privée ou plus souvent laissés à l’abandon, et abordés sous l’angle unique de la répression.
L’installation de caméras est le signe assez sûr d’une politique qui a baissé les bras. La reconnaissance faciale pousse seulement le curseur plus loin dans la prise en charge des relations humaines par des arbres de décisions préprogrammés. On renonce ostensiblement à l’ambition de construire une société.
Bénéfices et usage commerciaux
Les bénéfices attendus de la reconnaissance faciale sont en grande partie des mesures d’économie : moins de personnel pour surveiller de plus grandes surfaces urbaines, et un meilleur ajustement des moyens d’interventions. Les expériences de « safe city » menées aux États-Unis (Chicago, Detroit, en particulier) avaient par exemple pour but de mieux définir les quartiers et les rues où les patrouilles devaient circuler, en fonction des heures de la journée et même des saisons, pour être au plus près des faits de délinquances à réprimer. Dans la logique de la moindre dépense et de la réduction des effectifs, il faut bien « optimiser » le temps de présence des agents et le peu de moyens dont on dispose. Malheureusement, le raisonnement est faussé : les dispositifs techniques de vidéosurveillance exigent un entretien très coûteux. Les communes ne feront aucune économie, et financent les caméras avec des sommes qui manquent cruellement sur d’autres lignes de leur budget. Entre temps, elles auront supprimé un certain nombre de salarié·es.
Mais il ne faut pas perdre de vue que la reconnaissance faciale est également un « marché » aux bénéfices importants.
Pour l’heure, les entreprises se livrent à une course pour concevoir les outils et trouver des villes où les essayer. Ça tombe bien, les villes sont en demande : des appels d’offre plus ou moins transparents sont donc lancés un peu partout en France, alors que la transparence des décisions finales est inexistante (lire notre article), et tandis que les communes sabrent les subventions, l’argent magique ne semble pas manquer pour payer des « solutions » sécuritaires à grand frais, en vue des échéances électorales qui approchent.
Derrière l’engouement pour la vidéosurveillance et la reconnaissance faciale, on voit une convergence d’intérêts entre un agenda politique qui joue volontiers sur la corde de la sécurité publique, et des entreprises qui cherchent à s’emparer de l’immense marché municipal qui s’ouvre à elles, en France d’abord, et dans le monde ensuite.
Le profit à tirer de la reconnaissance faciale ne s’arrête pas là. On voit la technique s’installer aussi dans des centres commerciaux. Les caméras sont le plus souvent cachées dans les panneaux d’informations qui affichent le plan de la galerie commerciale, comme au Québec ou dans des « totems » qui affichent des vidéos publicitaires. Les réactions des passants sont épiées : quelles images retiennent leur attention, quelles boutiques envisagent-ils de visiter, quels sont leurs déplacements, etc. Le but étant bien sûr d’offrir aux visiteurs « la meilleur expérience possible »…
À aucun moment le consentement des passants n’est demandé, et on ne voit pas bien comment il pourrait l’être, sauf à leur donner le choix entre subir la vidéosurveillance ou quitter les lieux. Devra-t-on bientôt faire ses courses avec un sac sur la tête ?
La question du consentement est centrale dans la protection des données personnelles et de la vie privée, elle est d’ailleurs au centre des exigences du RGPD. Ce n’est donc pas un argument léger. Les lois européennes disent aussi que le consentement ne peut pas être obtenu en échange d’un service qui reviendrait à lui donner une valeur marchande : justifier la reconnaissance faciale dans les galeries commerciales en prétextant que les clients auront de meilleurs prix ou de meilleures offres n’est pas un argument recevable. C’est au pire un cache-misère pour l’avidité sans limite des marchands, qui traitent tous les passants comme des proies.
Les utilisations commerciale ou municipales de la reconnaissance faciale prospèrent dans une faille juridique : le phénomène est mal encadré, alors qu’il devrait faire l’objet d’un débat collectif. Mais la sécurité policière et la prospérité des entreprises commerciales sont devenues dans le monde entier l’alpha et l’oméga des politiques publiques.
La possibilité d’interdire
Les personnes les mieux averties des applications de la reconnaissance faciale sont tellement inquiètes qu’elles demandent un encadrement juridique de cette technique. C’est la leçon qu’on peut tirer de la lecture des articles écrits par Brad Smith, juriste de Microsoft. En juillet 2018, il appelait le gouvernement américain à légiférer sans délai pour encadrer les usages de la reconnaissance faciale. Bien placé pour constater les progrès de la technique, il redoute avec gravité qu’elle puisse être utilisée contre les libertés des personnes, aussi bien par des entreprises privées que par des États. En décembre 2018, il pose quelques jalons pour délimiter le contour de cet encadrement.
On n’est pas obligé de partager son enthousiasme pour certaines applications « positives » de la reconnaissance faciale, dont il donne quelques exemples qui mériteraient d’être regardés de plus près (dans la recherche médicale par exemple). Mais on peut entendre son inquiétude, parce qu’elle n’est pas celle d’un militant habitué à crier au loup : au plus haut niveau de décision, là où une vision panoramique peut embrasser à la fois la connaissance du droit et la connaissance des projets techniques réels, on n’en mène pas large, et ce n’est pas bon signe.
Toutefois, l’empressement de Brad Smith à voir naître une réglementation peut aussi être lu différemment, quand on le rapproche des déclarations récentes de Andy Jassy, président de Amazon Web Services, qui développe le logiciel Rekognition. Il se trouve qu’entre les articles de Brad Smith et l’interview de Andy Jassy, un événement important est survenu : la ville de San Francisco, en Californie, au plus près de la Silicon Valley et des grands sièges des multinationales du numérique, a voté le 14 mai 2019 une décision interdisant à la police locale d’utiliser la reconnaissance faciale. Amazon veut une réglementation parce que l’interdiction pure et simple ne fait pas de bien à ses affaires…
Quant à nous, nous retiendrons qu’il est possible d’interdire les pratiques de surveillance de masse, par la délibération locale et par la loi.
Le visage perdu
La reconnaissance faciale change le visage du monde. Il n’est pas nécessaire de renvoyer aux pires dystopies et à 1984 pour voir tout ce que les pratiques actuelles ont de dangereux. On peut même percevoir un changement anthropologique possible dans le rapport avec le visage.
La reconnaissance faciale attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation : le visage ne vaut plus pour lui-même, comme singularité prise avec son épaisseur et son secret, mais comme simple signe en lien avec des bases de données de toutes sortes qui permettent de prendre des décisions concernant la personne visée, à son insu.
Dans ce contexte, le visage devient l’identifiant unique par excellence, plus encore que la carte d’identité. Lors de l’expérience du carnaval de Nice, la ville se vantait même d’avoir pu identifier un cobaye dont la photo de référence datait de trente ans. Le visage comme mouchard, le visage qui trahit, merveilleux progrès.
On peut s’opposer à un prélèvement d’ADN. Mais comment s’opposer aux photos de soi ? Facebook applique un logiciel de reconnaissance faciale aux photos postées par ses utilisateurs. Si un « ami » n’est pas reconnu, le site invite même les utilisateurs à identifier leurs proches. Même en n’ayant jamais eu de compte Facebook, vous figurez peut-être dans cette immense base de données, et Facebook sait mettre votre nom sur votre visage, et vous reconnaître parmi toutes les nouvelles photos postées par vos amis…
Malgré vous, votre visage a un sens pour les caméras qui vous filment. Les pseudo-sciences du 19e siècle prétendaient lire des traits psychologiques dans les traits du visage. Aujourd’hui, chaque visage dans la rue porte un casier judiciaire, un nom, des relations, des opinions exprimées sur les réseaux sociaux, des habitudes de consommation, des engagements divers, et qui sait quoi d’autre encore.
Quand les inconnus qui vous croisent dans la rue peuvent accéder à des données sur vous par le simple fait que l’image de votre visage a été captée par des Google Glass, on amène la puissance coercitive du réseau jusque dans la rue. Sur le réseau, il est possible de prendre plusieurs identités. Mais nos prises de position politiques, notre réseau amical, notre réseau professionnel, notre CV, etc., se retrouvent, dans la rue, associés à un élément unique, visible, et facilement accessible à tous. Les créateurs des Google Glass ont fini par interdire cette possibilité, pour ne pas tuer leur création dans l’œuf. Si cette technique devenait courante, qui peut assurer que nous n’assisterons pas à l’avènement d’une époque qui supprimera totalement l’anonymat dans l’espace public ?
Une société de la défaite
Une anthropologue britannique, Sally A. Applin, a récemment publié un article très intéressant sur les dégâts sociaux causés, et surtout révélés, par la reconnaissance faciale (à lire ici, en anglais). Elle part de la question posée par un dirigeant d’entreprise américain sur Twitter : « Vivons-nous vraiment dans une société aussi dangereuse, pour avoir à ce point besoin de la reconnaissance faciale ? », et la précise : la reconnaissance faciale, pour quoi faire ?
Elle évoque bien sûr les intérêts industriels, et la facilité politique consistant à remplacer le personnel humain par des machines. Mais elle va plus loin : derrière le succès politique et médiatique de la technique à visée sécuritaire, elle voit la peur de l’autre. Le regard remplace la parole, et la distance remplace la rencontre. Même les agents de surveillance ne regardent plus les gens, mais des écrans. Ce qui devrait être un média est devenu une vitre isolante. C’est une logique de traitement des symptômes qui ne s’adresse jamais aux causes.
Elle remarque aussi que la « démocratisation » des caméras, maintenant que chacun porte sur soi un smartphone, a sans doute aussi contribué à leur banalisation, en faisant de chacun le surveillant potentiel de l’autre. C’était d’ailleurs l’idée principale de l’application « Reporty », retoquée à Nice par la CNIL au printemps 2018 : la mairie voulait lancer une application pour smartphone afin que les habitants signalent par vidéo les incivilités dont ils seraient témoins. Sally A. Applin souligne par ailleurs que l’accumulation de millions d’heures de vidéosurveillance que personne n’a le temps de regarder explique peut-être en partie l’enthousiasme des décideurs politiques pour la reconnaissance faciale automatisée : le fantasme de la surveillance totale est matériellement hors d’atteinte, sauf si l’humanité s’y consacre à temps plein, ou si elle délègue le travail à des machines (biaisées).
Est-ce vraiment le monde que nous voulons ? Cette société sans contact, cette société qui a peur de la parole et de l’engagement physique des uns avec les autres est une société déprimée, qui ne s’aime pas. Il est permis d’en vouloir une autre. Elle commence par interdire la reconnaissance faciale.
";s:7:"dateiso";s:15:"20190621_153158";}s:15:"20190619_192253";a:7:{s:5:"title";s:64:"Loi haine adoptée en commission : dénonçons les responsables";s:4:"link";s:99:"https://www.laquadrature.net/2019/06/19/loi-haine-adoptee-en-commission-denoncons-les-responsables/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14377";s:7:"pubDate";s:31:"Wed, 19 Jun 2019 17:22:53 +0000";s:11:"description";s:271:"La loi « contre la haine » vient d’être adoptée en commission des lois de l’Assemblée. Les députés n’ont rien corrigé. Toujours aussi inutile, la loi se contentera de renforcer la censure politique (lire notre analyse juridique,…";s:7:"content";s:21947:"
La loi « contre la haine » vient d’être adoptée en commission des lois de l’Assemblée. Les députés n’ont rien corrigé. Toujours aussi inutile, la loi se contentera de renforcer la censure politique (lire notre analyse juridique, qui tient toujours). Ce désastre a des responsables identifiés.
Laetitia Avia
Laetitia Avia a été chargée par Emmanuel Macron, dont elle est personnellement proche, de « civiliser Internet », avec l’objectif de confier le Web aux grandes plateformes. Pour que ce projet réussisse, elle aura su empêcher la bonne tenue des débats, en manquant tant de rigueur que de respect pour le Parlement.
Certains passages de sa proposition de loi, remplie d’erreurs de numérotation ou de mots manquants1Exemples des erreurs dans la proposition de loi initiale : l’alinéa 1 de l’article 1er vise les « cinquième et sixième alinéas » de l’article 24 de la loi sur la presse de 1881, alors que Mme Avia nous a indiqué vouloir viser les « septième et huitième alinéas », très différents ; l’alinéa 5 de l’article 1er vise un « contenu signé » à la place d’un « contenu signalé » ; l’alinéa 2 de l’article 6 suggère de remplacer les personnes mentionnées au « 2 ou, à défaut, à toute personne mentionnée au 1 » d’un article de la LCEN par les personnes mentionnées « ou au 2 » (elle a probablement oublié un « 1 »), rendant ce bout de proposition incompréhensible. Les autres députés ont du proposer des amendements pour corriger ces erreurs., étaient presque incompréhensibles. Elle s’en excusait en expliquant qu’il ne s’agissait que d’un « brouillon ». Sauf que le rôle du Parlement est de débattre de textes finis, pas de brouillons. Ceci est d’autant plus grave qu’a été enclenchée la procédure accélérée — qui ne permet qu’une seule lecture du texte dans chaque chambre du Parlement (Assemblée et Sénat). Durant les semaines d’audition, Mme Avia a eu beau jeu d’esquiver chaque critique en jurant que son texte final serait parfait et qu’elle avait déjà prévu de tout corriger. Les autres députés que nous avons rencontrés ont avoué leur difficulté à travailler sur un texte imaginaire… Nous aussi.
Alors, que sont devenues ces promesses, en fin de course ? Pas grand chose de sérieux. Pour éviter les « sur-blocages » de contenus licites par les plateformes, risque dénoncé par tout le monde ou presque, son texte bricole une sanction des retraits « insuffisants ou excessifs ». C’est tout. Elle ne donne pas la moindre définition ou le moindre cadre à une notion juridique aussi inédite et complexe que la « responsabilité pour sur-blocage ». Mme Avia doit penser que ce n’est pas son rôle d’écrire la loi.
Conseil d’État
Pour tenter de renforcer la crédibilité juridique d’un texte qui en manquait tant, Mme Avia a saisi le Conseil d’État pour avis. En retour, le Conseil aura pris soin de ne rien faire d’utile. Les maigres pages de son avis évitent soigneusement les vrais problèmes juridiques, tel que le délai irréaliste et contre-productif de 24h pour retirer les contenus. Il ne fallait surtout pas freiner l’émissaire de Macron.
Paula Forteza
La croisade hors-sol de Mme Avia pouvait-elle être freinée par les députés En Marche, et notamment ceux qui se présentent habituellement comme experts du numérique ?
Nous avons discuté de la proposition de loi avec Paula Forteza. Un temps pressentie pour remplacer Mounir Mahjoubi au secrétariat d’État au numérique, elle se dit favorable aux libertés en ligne. Elle semblait prête à apporter un peu de droit et de technique au débat et, surtout, à porter notre proposition sur l’interopérabilité. Cette démarche pouvait impliquer de s’opposer à Mme Avia. Quand le moment de l’éventuelle confrontation est arrivé, Mme Forteza n’a finalement pas porté ce combat, retournant vers des sujets plus compatibles avec les projets de la majorité.
Éric Bothorel
Passons à Éric Bothorel, autre député En Marche habitué des sujets numériques. C’est assez inquiets que nous sommes allés le rencontrer, l’ayant entendu reprendre la propagande de Facebook, qui assure à l’envie que la « magique intelligence artificielle » nous protège du terrorisme, sans aucun recul critique. Inquiétude fondée : M. Bothorel ne comprend manifestement aucune des critiques juridiques ou techniques contre le texte de Mme Avia, dont il se serait récemment rapproché.
Le seul amendement qu’il a déposé va dans ce sens. Il reprend la stratégie dite « follow the money », promue par les ayants-droit des industries culturelles pour lutter contre le partage d’œuvres en ligne en contournant toute garantie légale ou juridictionnelle. Bothorel propose ainsi de couper les revenus publicitaires des sites que l’administration estime héberger des discours de haine, le tout sans aucun contrôle judiciaire. Toujours plus de répression aveugle et vaine, au mépris du droit. Tandis qu’au mur de son bureau pend un sac Facebook, remis quelque jours plus tôt par Mark Zuckerberg avec qui il déjeunait en compagnie de Mmes Avia et Forteza et de Cédric O, secrétaire d’État chargé du Numérique.
La Team Facebook
Paula Forteza, Mark Zuckerberg, Eric Bothorel
Mark Zuckerberg (de dos), Laetitia Avia, Cedric O
Le patron-tyran a en effet tenu à leur vendre son modèle de modération comme étant le plus efficace du Web. Un mensonge parfaitement intégré par Mme Avia, qui nous a expliqué que Facebook n’était pas une source de « haine en ligne » mais, au contraire, que c’était à Twitter et aux autres de faire aussi bien que le grand F (comprendre : exploiter des milliers de travailleur·es précarisé·e·s pour modérer une plateforme que la taille rend impossible à modérer, répondre aux demandes des États, et saupoudrer le tout de bouts d’IA inutile pour faire joli).
Cedric O
Nous avons également rencontré le Secrétaire d’État chargé du Numérique. Il nous a exposé les grands projets du gouvernement pour lutter contre la haine en ligne, sans presque dire un mot de la loi actuellement débattue. Manifestement incapable de répondre à nos critiques sur l’inutilité et les risques de celle-ci, il a préféré, lui aussi, rester dans l’imaginaire et les promesses faciles.
Nous espérions un moment le convaincre de soutenir notre proposition sur l’interopérabilité, qui avait déjà été favorablement accueillie par les différents ministères rencontrés au cours de l’année. Il a d’abord feint de ne pas voir le lien avec la loi de Mme Avia, comme si nous libérer de l’environnement conflictuel des géants ne permettrait pas de protéger les victimes d’oppressions. Puis il a bien dû reconnaître le lien entre ces deux sujets, tout en prétendant vouloir porter ce projet au niveau européen. Comme il l’a expliqué le lendemain en commission des lois (vidéo, à 02:38:33), il refuse de soutenir ce projet au niveau français, agitant la peur de représailles diplomatiques de la part de Trump si la France s’attaquait seule aux géants états-uniens. Une telle démission politique aura rarement été avouée avec autant de sincérité.
En résumé, alliant amateurisme, mutisme et posture politique creuse, toute la majorité s’est unie pour ruiner nos libertés. Tout ça pour rien, si ce n’est faire parler d’eux dans la presse, en se donnant les fausses allures d’un pouvoir libéral désireux de résister au racisme, au sexisme et à l’homophobie.
George Pau-Langevin et Hervé Saulignac
Le parti socialiste a organisé une table ronde pour recueillir l’avis d’une large variété d’acteurs, allant du Syndicat de la magistrature à la LICRA, en passant par Facebook et Google. Nous mettre tous dans la même pièce n’était pas garantir la simplicité des débats, mais un consensus s’est étonnamment dégagé : nous trouvions tous la loi inutile, prenant le problème de la mauvaise façon et manquant son but.
George Pau-Langevin et Hervé Saulignac, qui nous recevaient, se sont-ils approprié ces nombreuses critiques pour défendre les valeurs de liberté auxquelles la gauche est censée être attachée ? Sûrement pas ! Ils souhaitent que la France viole encore davantage la protection de l’anonymat garantie en droit de l’Union européenne. Leur amendement demande ainsi aux plateformes de collecter notre adresse mail et notre numéro de téléphone, en plus de notre adresse IP dont la conservation est déjà requise. Nous leur avions pourtant bien expliqué que la Cour de justice de l’Union européenne interdit d’imposer aux plateformes la collecte ne serait-ce que de notre adresse IP (et qu’on attaquait déjà le droit français pour cette raison). Ils ne valent pas mieux qu’En Marche.
Qui s’intéresse encore aux libertés sur Internet ?
Qui pense encore que la liberté d’expression mérite d’être défendue ?
Danièle Obono et Ugo Bernalicis
La France insoumise nous a reçu avec attention et a su reprendre nos arguments en commission, tant devant M. O que ce matin avant le vote. Mme Obono a défendu à l’oral nos positions et notre proposition sur l’interopérabilité et M. Bernalicis a déposé pour le groupe un amendement reprenant notre proposition législative (lire notre amendement sur l’interopérabilité, sur lequel se base celui de M. Bernalicis).
Les services de la commission des lois ont déclaré cette proposition sans lien avec « la haine en ligne ». À croire qu’il n’ont pas même lu le rapport de Mme Avia contre le racisme de septembre dernier, qui expliquait pourtant, s’agissant des « propos choquants ou extrémistes », que « l’intérêt des réseaux sociaux est d’en héberger le plus possible ». L’amendement devra être redéposé en séance plénière, où le vote se tiendra ce 3 juillet.
Saluons par ailleurs deux autres amendements de la France insoumise qui reprennent nos critiques. Un premier amendement pour supprimer l’article 5 de la proposition de loi, par lequel Mme Avia veut renforcer la sanction pour non-conservation des données de connexion (adresses IP et autres) par les hébergeurs — cette même obligation qui viole le droit de l’Union européenne et que nous attaquons en justice. Un deuxième amendement pour supprimer l’article 6 qui, au prétexte de lutter contre les « sites miroirs illicites », donnerait à la police des pouvoirs de censure excessifs dont elle ne pourra qu’abuser. Ces deux amendements ont été rejetés.
Philippe Latombe et Frédérique Dumas
N’y a-t-il donc qu’à la gauche du PS que l’intérêt de la population est défendu ? Non, le droit et les libertés sont apartisanes. On trouve encore des députés, même proches de la majorité, pour prendre au sérieux leur mission législative.
Philippe Latombe (UDI) a signé l’amendement de M. Bernalicis sur l’interopérabilité, rappelant que la gravité de ces sujets doit conduire à dépasser les clivages politiques. Frédérique Dumas (qui vient tout juste de quitter l’UDI) avait déposé un amendement identique– lui aussi déclaré irrecevable. Deux députés que nous ne connaissions pas, et qui se révèlent des experts bien plus sérieux que ceux mis en avant par la majorité En Marche.
Laure de La Raudière
Laure de La Raudière (UDI), dont nous connaissons l’intérêt de longue date qu’elle porte aux questions numériques, a déposé des amendements très pertinents. Un premier permettrait aux plateformes de saisir le juge en cas de doute sur le caractère « manifestement illicite » d’un contenu. Un position proche de nos revendications : seul un juge doit être en mesure de qualifier une infraction. Cette proposition a été rejetée.
Un autre amendement répond à nos critiques en exigeant l’intervention de l’autorité judiciaire pour bloquer les sites miroirs. Il a été écarté. Un troisième vise également à réduire les risques de censure politique : les signalements envoyés par la police n’obligeront plus les plateformes à un traitement sous 24h, ce qui constituait un moyen de pression excessif donné à la police, qui agit ici sans juge. Ce délai de 24h ne s’appliquera plus que pour les signalements des utilisateurs. Cet amendement de Mme de La Raudière a été adopté.
Les débats se poursuivront en séance plénière le 3 juillet. La procédure accélérée ayant été engagée, il s’agira en théorie du seul passage du texte à l’Assemblée.
Exemples des erreurs dans la proposition de loi initiale : l’alinéa 1 de l’article 1er vise les « cinquième et sixième alinéas » de l’article 24 de la loi sur la presse de 1881, alors que Mme Avia nous a indiqué vouloir viser les « septième et huitième alinéas », très différents ; l’alinéa 5 de l’article 1er vise un « contenu signé » à la place d’un « contenu signalé » ; l’alinéa 2 de l’article 6 suggère de remplacer les personnes mentionnées au « 2 ou, à défaut, à toute personne mentionnée au 1 » d’un article de la LCEN par les personnes mentionnées « ou au 2 » (elle a probablement oublié un « 1 »), rendant ce bout de proposition incompréhensible. Les autres députés ont du proposer des amendements pour corriger ces erreurs.
";s:7:"dateiso";s:15:"20190619_192253";}s:15:"20190617_143327";a:7:{s:5:"title";s:60:"Analyse juridique de la loi « contre la haine en ligne »";s:4:"link";s:93:"https://www.laquadrature.net/2019/06/17/analyse-juridique-de-la-loi-contre-la-haine-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14350";s:7:"pubDate";s:31:"Mon, 17 Jun 2019 12:33:27 +0000";s:11:"description";s:258:"Mise à jour : l’amendement n°CL206 ayant été déclaré irrecevable par les services de la commission des lois, il n’est plus accessible en ligne. Vous pouvez consulter notre proposition à l’origine de cet amendement, qui le…";s:7:"content";s:46195:"
Mise à jour : l’amendement n°CL206 ayant été déclaré irrecevable par les services de la commission des lois, il n’est plus accessible en ligne. Vous pouvez consulter notre proposition à l’origine de cet amendement, qui le reprenait en le simplifiant.
Le 19 Juin, la commission des lois de l’Assemblée nationale examinera la proposition de Laetitia Avia « contre la haine sur Internet ». La Quadrature du Net a envoyé aux 72 membres de cette commission l’analyse juridique reproduite ci-dessous (aussi en PDF), qui traduit en droit nos analyses politiques publiées ces derniers mois pour appeler au rejet des pires dispositions de ce texte (relire notamment nos articles de février et de mai).
Lettre aux députés : PPL Avia, refusez les mesures inutiles et dangereuses
Mesdames, Messieurs les députées,
Membres de la commission constitutionnelle, de la législation et de l’administration générale de la République,
Vous examinerez mercredi prochain la proposition de loi « contre la haine sur Internet ». En l’état, cette proposition, et surtout son article 1er, ne permettra pas d’atteindre l’objectif qu’elle se donne mais renforcera uniquement les risques de censure politique.
La Quadrature du Net vous appelle à supprimer cet article 1er et à modifier la loi tel qu’exposé ci-après.
Nous vous appelons également à adopter l’amendement n°CL206, qui propose une solution plus efficace pour protéger les victimes d’oppression en ligne, forçant les grandes plateformes commerciales à devenir interopérables pour permettre à ces victimes de se libérer de leur environnement toxique.
A. Le champ personnel excessif du retrait en 24h
En droit, toute restriction de libertés, telle que la liberté de communication, n’est valide que si elle est strictement nécessaire à la réalisation de l’objectif qu’elle poursuit1Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007)..
L’objectif poursuivi par cette PPL est de contenir la multiplication des discours de haine et de harcèlement survenue sur les grandes plateformes commerciales — Facebook, Youtube et Twitter. Pour ce faire, son article 1er exige le retrait en 24h des contenus signalés qui sont manifestement illicites, restreignant la liberté de communication tant de ces plateformes que de leurs utilisateurs.
Toutefois, cette obligation ne pèse pas seulement sur les grandes plateformes commerciales, à l’origine du problème, mais sur tout « opérateur » visé à l’article L111-7 du code de consommation et dont le nombre d’utilisateurs dépasse un seuil fixé par décret (qu’on nous annonce à 2 millions). En pratique, des sites sans activité commerciale tel que Wikipédia seront aussi concernés. Pourtant, leur modèle de modération qui repose sur une communauté bénévole et investie a su se montrer bien plus efficace pour limiter la diffusion de la haine et du harcèlement que les grandes plateformes commerciales. Ce constat n’est remis en cause ni par Mme Avia ni par le gouvernement.
Tout en restant perfectibles, les plateformes non-commerciales satisfont déjà largement l’objectif poursuivi par cette PPL. Pourtant, n’ayant pas de modérateurs professionnels, elles ne pourront en respecter l’article 1er et devront cesser leur activité devant la menace de sanctions inévitables. Cette restriction de leur liberté de communication est inutile et donc juridiquement invalide.
B. Un délai de 24h contre-productif
En droit, une mesure est invalide si elle restreint davantage de libertés que ne le ferait une autre mesure capable d’atteindre aussi efficacement l’objectif qu’elle poursuit2Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil)..
En l’espèce, imposer un délai de 24h pour retirer un contenu manifestement illicite est susceptible de provoquer d’importantes restrictions de libertés, tel que le sur-blocage de propos licites ou le dévoiement de la mesure à des fins de censure politique. Ce délai fixe produit un autre effet nocif : il empêche les plateformes d’examiner en priorité les contenus les plus graves ou les plus partagés, car elles doivent traiter tous les signalements, même les moins graves, dans un même et unique délai.
À l’inverse, le droit actuel (la loi pour la confiance dans l’économie numérique de 2004, LCEN) n’exige le retrait des contenus manifestement illicites que dans un délai « prompt » : proportionné à la gravité du contenu, aux conséquences et à l’ampleur de sa diffusion. Ceci permet de traiter en priorité les situations les plus nocives, ce qui est bien plus efficace pour atteindre l’objectif poursuivi par la loi, tout en réduisant les risques de sur-blocage et de censure politique.
Par ailleurs, imposer un délai de 24h serait d’autant plus inutile qu’il est matériellement irréaliste : dans bien des cas, il ne pourra être respecté par aucune plateforme et ne sera donc pas sanctionné. Exemple sinistre mais probant, la vidéo de la tuerie de Christchurch a été dupliquée 1,5 millions de fois sur Facebook dans les 24h suivant l’attentat, au cours desquelles 300.000 copies auraient entièrement échappé aux outils de modération automatisés de l’entreprise, de l’aveu même de celle-ci3« Update on New Zealand », Facebook Newsroom, 18 mars 2019, https://newsroom.fb.com/news/2019/03/update-on-new-zealand. Cet événement a démontré l’incapacité structurelle des outils de modération automatisés à faire face à de telles menaces en 24h. La loi perdrait toute emprise sur le réel en exigeant l’inverse.
À l’inverse, le droit actuel a déjà pu s’appliquer concrètement contre un hébergeur ayant échoué à retirer en 24h un contenu illicite dans le cas où un tel délai était réaliste et où la situation le justifiait spécifiquement4Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi..
En conclusion, imposer un délai de 24h serait moins efficace qu’un délai apprécié au cas par cas, tel que prévu actuellement par la LCEN, car cela empêcherait de traiter les situations les plus graves en priorité tout en étant matériellement irréaliste, privant la loi de son lien au réel. Puisqu’une telle mesure restreindrait davantage de libertés que celles prévues actuellement par la LCEN, elle serait inutile et donc invalide.
C. Un délai de 24h favorisant la censure politique
En droit, le principe de la séparation des pouvoir exige que l’autorité qui poursuit les auteurs d’infractions (le pouvoir exécutif) soit distincte de celle qui constate ces infractions (pouvoir judiciaire) et que cette seconde autorité soit indépendante de la première5Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. ».
En l’espèce, le délai de 24h pour retirer les contenus est si court qu’il empêchera les plateformes d’examiner tous les signalements avec le même niveau de diligence. Dans ces conditions, elles n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables. L’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, sera vraisemblablement le premier de ces partenaires : Facebook ou Twitter seraient bien peu pragmatiques s’ils « perdaient du temps » à examiner les signalements de la police alors que des milliers de signalements à l’origine bien plus incertaine et complexe devront être examinés en urgence dans la même journée.
Ce pouvoir « de fait » de l’OCLCTIC a déjà été dévoyé à des fins de censure politique. Dernier exemple en date : en réponse à une demande CADA de La Quadrature du Net, la police a expliqué avoir signalé à Google le 13 janvier 2019 une image caricaturant Emmanuel Macron sous les traites du dictateur Pinochet. Dans les documents transmis, le signalement est enregistré dans la catégorie « injures et diffamations xénophobes ou discriminatoires »6Le signalement de la caricature de Macron sous les traits de Pinochet est documenté sur le site de La Quadrature du Net : https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron. Cette qualification, en plus d’être une aberration juridique, entre exactement dans le champ des infractions que la PPL Avia imposera de retirer en 24h.
En conclusion, l’article 1er de la PPL Avia, en exigeant d’évaluer la licéité des contenus signalés dans un délai de 24h, décuplera les risques de retrait de contenus signalés par la police qui, tout en étant licites, vexeraient le pouvoir exécutif. En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les « infractions » contre lesquelles il prétend lutter et imposant cette qualification aux plateformes qui, menacées de lourdes sanctions, lui sont largement soumises et nullement indépendantes. Ce délai n’étant par ailleurs pas nécessaire, il est d’autant moins valide qu’il accroît sensiblement les risques de violation de la séparation des pouvoirs.
D. Une lutte illégitime contre les travailleuses du sexe
L’amendement CL93 déposée par Mme Avia propose de compléter la liste des infractions justifiant à l’article 1 de la PPL de censurer un contenu en 24 heures. Sont notamment ajoutées les infractions définies aux articles 227-23 et 227-24 du code pénale, qui punissent les faits « d’aider, d’assister ou de protéger la prostitution d’autrui » ou bien « de faire office d’intermédiaire entre deux personnes dont l’une se livre à la prostitution et l’autre exploite ou rémunère la prostitution d’autrui ».
Cet ajout pousserait encore davantage Facebook et Twitter à exclure activement de leurs plateformes les travailleuses du sexe ainsi que leurs groupes d’entraide, leur fermant une alternative au travail en extérieur où elles seraient exposées à bien plus de violences. Une telle proposition trahit l’objectif de cette PPL qui prétend défendre les victimes de violences et doit être rejetée.
E. La conservation des données renforcée, en violation du droit de l’Union
L’article 5 de la proposition de loi initiale (qui serait déplacé « après l’article 3 » par l’amendement CL112 de Mme Avia) propose d’augmenter la sanction des fournisseurs d’accès à Internet et des hébergeurs ne conservant pas les données de connexion de l’ensemble de leurs utilisateurs (adresses IP notamment), telle que fixée au 1 du VI de l’article 6 de la LCEN.
Dans son arrêt Tele27L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2, la Cour de justice de l’Union européenne a déclaré qu’une telle mesure de surveillance de masse est contraire à la Charte des droits fondamentaux de l’Union et que seules des mesures de conservation ciblée sur des personnes soupçonnées peuvent être autorisées. La Quadrature a contesté la conformité de l’obligation française devant le Conseil d’État, dont le rapporteur public a reconnu l’absence de conformité du droit français au droit de l’Union et conduit le Conseil à transmettre des questions préjudicielles à la Cour de justice de l’Union européenne à ce sujet8Voir la décision du Conseil d’État transmettant les questions à la Cour de justice, 10ème – 9ème chambres réunies, 26 juillet 2018, affaire n° 393099, https://www.legifrance.gouv.fr/affichJuriAdmin.do?oldAction=rechJuriAdmin&idTexte=CETATEXT000037253929&fastReqId=1863567356&fastPos=1.
Dans l’attente de la réponse de cette dernière, la moindre des choses de la part du législateur serait de ne pas aggraver la violation par la France du droit de l’Union en renforçant la sanction de cette obligation inconventionnelle. Cet article doit être supprimé.
F. L’absence de garde fou à la lutte contre les sites miroirs
L’article 6 de la PPL Avia propose de permettre à la police d’ordonner aux opérateurs Internet de bloquer un site sur lequel est reproduit un contenu reconnu illicite par un juge. L’amendement CL121 déposé par Mme Avia précise que cette décision judiciaire interdit explicitement « la reprise totale ou partielle » du contenu concerné.
Cette précision ne limite en rien les graves risques de dévoiement de la mesure à des fins de censure politique. L’exemple donné plus haut de la vidéo de Christchurch en donne une illustration parfaite. Si un juge, doté des pouvoirs prévus par cet article 6, avait interdit « la reprise totale ou partielle » de la vidéo du massacre de Christchurch (hypothèse crédible), la police aurait eu toute liberté pour exiger le blocage de l’ensemble du site Facebook, dans la mesure où Facebook a été incapable de supprimer la vidéo, dont au moins 300 000 copies ont échappé à sa modération.
Mme Avia semble parfaitement ignorer cette réalité : il est impossible pour un hébergeur d’éviter que ses utilisateurs ne partagent la moindre copie d’un contenu interdit. Une poignée d’amateurs l’a parfaitement démontré en modifiant légèrement la durée, la couleur ou le son de la vidéo de Christchurch pour contourner presque entièrement les algorithmes de Facebook.
Si la « reprise totale ou partielle » d’un contenu était interdite par un juge, en application de cet article 6, absolument tout hébergeur serait virtuellement en violation de cette obligation du fait de certains des ses utilisateurs, sans qu’il ne puisse rien y faire. La police se trouvera seule à décider lesquels de ces sites seront censurés, entièrement libre de dévoyer ce choix arbitraire à des fins politiques. Hypothèse concrète : la police ne demanderait pas la blocage de la plupart des sites hébergeant un contenu interdit par un juge (tels que Facebook ou Youtube) mais exigerait le blocage de plateformes critiquant la politique du gouvernement et où un utilisateur malveillant aurait insidieusement publié le contenu interdit. Cette hypothèse est des plus crédibles lorsqu’on rappelle que l’OCLCTIC a déjà dévoyé de façon illégale ses pouvoirs de lutte contre le terrorisme pour tenter de censurer des plateformes d’extrême-gauche telles que Indymedia (voir le jugement du 31 janvier 2019 du tribunal administratif de Cergy-Pontoise, qui reconnaît cet abus de la police).
Une garantie classique contre cette dérive est le « principe de subsidiarité », prévu de façon imparfaite (mais prévu toutefois) à l’article 6-1 de la LCEN en matière de censure administrative des contenus terroristes et pédopornographiques. Ce principe veut que les pouvoirs publics demandent d’abord à l’hébergeur de retirer le contenu interdit. Ce n’est que dans le cas où celui-ci refuse clairement de coopérer, lorsque lui a été laissé un délai suffisant pour ce faire et que sa défaillance ne résulte que d’une faute lourde et manifeste, que son blocage par les opérateurs Internet peut être considéré.
Sans rendre les mesures de censure efficaces ou légitimes, cette garantie est la moindre des choses requises. Il serait inconcevable que la lutte contre la haine soit encadrée de moins de garanties que la lutte contre le terrorisme.
G. La disparition du principe de subsidiarité en matière de signalement
L’article 2 la proposition de loi initiale (qui serait déplacé « après l’article premier » par l’amendement CL97 de Mme Avia) propose de modifier le formalisme de signalement aux hébergeurs des contenus problématiques, tel que défini actuellement à l’article 6, 1, 5, de la LCEN.
La principale modification est que l’auteur d’un signalement ne doit plus justifier avoir contacté au préalable l’auteur du propos problématique pour lui demander de le corriger. La suppression de cette exigence constitue un autre renoncement au « principe de subsidiarité », pourtant au cœur du mécanisme de signalement de la LCEN.
Ce principe veut que les utilisateurs tentent de régler les situations problématiques d’abord entre eux, notamment pour dissiper les simples malentendus ou confusions qui auraient pris l’apparence du conflit. Ce n’est que lorsque cette tentative a échoué que la plateforme doit être contactée pour résoudre le conflit. Ceci permet à la plateforme de se concentrer sur les cas les plus graves sans être retardée par des cas que les utilisateurs auraient résolus plus efficacement eux-mêmes.
Exemple typique : une personne cite sur Twitter un propos haineux pour le dénoncer ; un tiers est choqué par ce propos et n’est pas certain s’il s’agit d’un propos original ou d’une citation critique ; plutôt que de signaler le propos à Twitter, qui peine déjà tant à traiter les très nombreux signalements qu’il reçoit, il serait plus efficace que le tiers contacte lui-même l’utilisateur initial, afin que celui-ci dissipe la confusion et corrige son message initial pour le rendre moins ambigu.
La suppression de ce principe de proportionnalité dessert l’objectif de lutte contre les propos oppressifs, car surchargerait inutilement les plateformes de signalements qui auraient été plus efficacement traités autrement. L’article 2 de la proposition de loi initiale doit être supprimé.
H. L’interopérabilité, une solution plus efficace que la répression
Les mesures restrictives de libertés sont d’autant moins nécessaires, et donc valides, si le législateur pouvait adopter d’autres mesures qui, ne limitant aucune liberté, permettraient de se rapprocher davantage de l’objectif poursuivi. L’objectif de cette PPL n’est pas de sanctionner les auteurs de propos haineux mais uniquement de limiter la façon dont le public, et plus particulièrement les victimes, y sont exposées.
Comme vu ci-avant, le délai de 24h est contre-productif pour atteindre cet objectif. Son inefficacité résulte du fait qu’il ne cherche à traiter que les symptômes et non les causes. Or, deux des causes du problème que la PPL souhaite résoudre peuvent être efficacement traitées par le législateur.
1. Deux causes
Première cause : le nombre de personnes réunies sur les plateformes commerciales géantes facilite les stratégies de harcèlement, plaçant les victimes à portée immédiate de leurs oppresseurs. Leur taille est si importante qu’elle empêche toute modération crédible : Facebook ne pourra jamais embaucher assez de modérateurs pour ses 2 milliards d’utilisateurs revendiqués et ses outils automatisés ont prouvé leur inefficacité intrinsèque avec l’événement de Christchurch.
Seconde cause : Mme Avia dénonce elle-même le « lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus, car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt des réseaux sociaux est d’en héberger le plus possible »9Rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, Karim AMELLAL, Laetitia AVIA, Gil TAÏEB, remis au Premier ministre
le 20 septembre 2018, https://www.gouvernement.fr/rapport-visant-a-renforcer-la-lutte-contre-le-racisme-et-l-antisemitisme-sur-internet. Ce que nous appelons « culture du buzz » ou « économie de l’attention » est au cœur du modèle des grandes plateformes commerciales, dont la raison d’être est de capter l’attention du plus grand nombre de personnes possible, le plus longtemps possible, afin de leur afficher de la publicité.
D’après Youtube, 70% des vidéo visionnées sur la plateforme le sont sur recommandation de son algorithme10« YouTube’s AI is the puppet master over most of what you watch », Cnet, 10 janvier 2018, https://www.cnet.com/news/youtube-ces-2018-neal-mohan. Guillaume Chaslot, ancien employé de l’entreprise, explique que cet algorithme favorise avant tout les vidéos regardées le plus longtemps, indépendamment de leur contenu ou de leur réception par le public (pouces bleus et rouges). En étudiant ces recommandations, il constate que l’algorithme favorise les contenus agressifs, diffamants, choquants ou complotistes : « C’est comme une bagarre dans la rue, la plupart des gens s’arrêtent pour regarder, quasiment tout le monde réagit »11Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.. Par leur effet sidérant, ces contenus retiendraient efficacement notre attention. Pour être mieux référencées, les vidéastes se retrouvent implicitement incités à en produire.
Twitter provoque une situation similaire : le fonctionnement de son « fil d’actualité », la brièveté des messages qu’il impose ainsi que ses mécanismes de citation favorisent l’invective, le buzz, le conflit, tout en rendant quasiment impossibles les propos d’apaisement et de compréhension qui peuvent rarement se tenir en 280 caractères. Quant à Facebook, pour séduire les annonceurs, il se vante directement d’être capable d’altérer l’humeur de ses utilisateurs en manipulant leur « fil d’actualité »12« Des utilisateurs de Facebook « manipulés » pour une expérience psychologique », Le Monde, 30 juin 2014, https://www.lemonde.fr/pixels/article/2014/06/30/des-utilisateurs-de-facebook-manipules-pour-une-experience-psychologique_4447625_4408996.html, ce qui permet de faire naître les attentes et angoisses propices à la publicité tout en faisant rester les utilisateurs plus longtemps.
2. Une solution
Ces deux sources de mal-être (la taille ingérable des plateformes et leur culture du buzz) contribuent sensiblement au ressenti de « haine en ligne » contre lequel la PPL Avia entend lutter, sans toutefois rien proposer pour le résoudre efficacement. Une solution législative concrète serait de permettre aux utilisateurs de ces plateformes d’en partir : aujourd’hui, partir de Facebook ou de Twitter implique de ne plus communiquer avec toutes les personnes (famille, amis, soutiens) qui s’y trouvent. De nombreuses personnes sont donc contraintes de rester dans ces environnements toxiques, propices aux conflits et au harcèlement, car le coût social à payer pour s’en libérer est trop important.
Pour faire disparaître ce coût et permettre aux victimes de se protéger librement, la loi devrait obliger les grandes plateformes commerciales à devenir « interopérables » : qu’elles permettent à leurs utilisateurs de communiquer avec les utilisateurs d’autres plateformes similaires (dans le cas de Twitter, par exemples, ces « autres plateformes similaires » pourraient être les milliers de services utilisant le logiciel de micro-blogging décentralisé Mastodon). Ces autres plateformes, déjà nombreuses, offrent des règles de modérations variées et, ainsi, adaptées aux besoins et envies de chaque personne, allant de lieux « sanctuaires » ou non-mixtes à des espaces de discussions libres moins strictement modérés. Chaque personne peut librement choisir le type de modération correspondant à ses besoins.
D’un point de vue technique, respecter cette obligation serait facilité par les nombreux développements récents en matière de réseaux sociaux décentralisés, que ce soit de la part des acteurs du logiciel libre (GNU Social, Mastodon, Plemora, PeerTube…) ou des organisations internationales de normalisation, tel que le W3C (World-Wide Web Consortium) ayant publié en 2018 un protocole pour réseaux sociaux décentralisés, « ActivityPub ».
L’amendement n°CL206 propose d’imposer cette interopérabilité aux grandes plateformes commerciales, offrant aux victimes d’oppressions en ligne davantage de liberté pour se protéger. Nous vous vous appelons à l’adopter.
Ce principe est le plus clairement exprimé à l’article 52 de la Charte des droits fondamentaux de l’Union européenne : « Toute limitation de l’exercice des droits et libertés […] ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d’intérêt général ». Ce principe a été intégré dans le contrôle réalisé par le Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] doit être adéquate, c’est-à-dire appropriée, ce qui suppose qu’elle soit a priori susceptible de permettre ou de faciliter la réalisation du but recherché par son auteur » (« Le contrôle de proportionnalité exercé par le Conseil constitutionnel », Cahier du Conseil constitutionnel n° 22 – juin 2007).
2.
↑
Ce principe découle de la jurisprudence du Conseil constitutionnel : « toute mesure restreignant un droit fondamental […] ne doit pas excéder – par sa nature ou ses modalités – ce qu’exige la réalisation du but poursuivi, d’autres moyens appropriés, mais qui affecteraient de façon moins préjudiciable les personnes concernées ou la collectivité, ne devant pas être à la disposition de son auteur » (article précité du Cahier du Conseil).
Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de souligner que la Cour de cassation n’a absolument pas contesté qu’un délai « prompt » de 24 heures puisse correspondre à ce qu’exige la loi.
5.
↑
Garanti à l’article 16 de la Déclaration des Droits de l’Homme et du Citoyen de 1789 et à l’article 64 de la Constitution, un des principes fondamentaux de la séparation des pouvoirs est explicité à l’article préliminaire du code de procédure pénale comme « la séparation des autorités chargées de l’action publique et des autorités de jugement. »
L’arrêt Tele2 Sverige AB, grande chambre de la Cour de justice de l’Union européenne, 21 décembre 2016, affaires C-203/15 et C-698/15, est commenté par notre équipe contentieuse à cette adresse : https://exegetes.eu.org/posts/tele2
";s:7:"dateiso";s:15:"20190617_143327";}s:15:"20190613_142735";a:7:{s:5:"title";s:72:"C’est quoi, l’interopérabilité, et pourquoi est-ce beau et bien ?";s:4:"link";s:100:"https://www.laquadrature.net/2019/06/13/cest-quoi-linteroperabilite-et-pourquoi-est-ce-beau-et-bien/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14332";s:7:"pubDate";s:31:"Thu, 13 Jun 2019 12:27:35 +0000";s:11:"description";s:220:"Nous republions l'article de Stéphane Bortzmeyer publié le 12 juin 2019 sur Framablog, qui traduit en langage clair et compréhensible la notion technique d'« interopérabilité », centrale dans nos combats en cours.";s:7:"content";s:25389:"
Nous republions l’article de Stéphane Bortzmeyer publié le 12 juin 2019 sur Framablog, qui traduit en langage clair et compréhensible la notion technique d’« interopérabilité », centrale dans nos combats en cours.
Protocoles
Le 21 mai 2019, soixante-neuf organisations, dont Framasoft, ont signé un appel à ce que soit imposé, éventuellement par la loi, un minimum d’interopérabilité pour les gros acteurs commerciaux du Web.
« Interopérabilité » est un joli mot, mais qui ne fait pas forcément partie du vocabulaire de tout le monde, et qui mérite donc d’être expliqué. On va donc parler d’interopérabilité, de protocoles, d’interfaces, de normes, et j’espère réussir à le faire tout en restant compréhensible (si vous êtes informaticien·ne professionnel·lle, vous savez déjà tout cela ; mais l’appel des 69 organisations concerne tout le monde).
Le Web, ou en fait tout l’Internet, repose sur des protocoles de communication. Un protocole, c’est un ensemble de règles qu’il faut suivre si on veut communiquer. Le terme vient de la communication humaine, par exemple, lorsqu’on rencontre quelqu’un, on se serre la main, ou bien on se présente si l’autre ne vous connaît pas, etc. Chez les humains, le protocole n’est pas rigide (sauf en cas de réception par la reine d’Angleterre dans son palais, mais cela doit être rare chez les lectrices et lecteurs du Framablog). Si la personne avec qui vous communiquez ne respecte pas exactement le protocole, la communication peut tout de même avoir lieu, quitte à se dire que cette personne est bien impolie. Mais les logiciels ne fonctionnent pas comme des humains. Contrairement aux humains, ils n’ont pas de souplesse, les règles doivent être suivies exactement. Sur un réseau comme l’Internet, pour que deux logiciels puissent communiquer, chacun doit donc suivre exactement les mêmes règles, et c’est l’ensemble de ces règles qui fait un protocole.
Un exemple concret ? Sur le Web, pour que votre navigateur puisse afficher la page web désirée, il doit demander à un serveur web un ou plusieurs fichiers. La demande se fait obligatoirement en envoyant au serveur le mot GET (« donne », en anglais) suivi du nom du fichier, suivi du mot « HTTP/1.1 ». Si un navigateur web s’avisait d’envoyer le nom du fichier avant le mot GET, le serveur ne comprendrait rien, et renverrait plutôt un message d’erreur. En parlant d’erreurs, vous avez peut-être déjà rencontré le chiffre 404 qui est simplement le code d’erreur qu’utilisent les logiciels qui parlent HTTP pour signaler que la page demandée n’existe pas. Ces codes numériques, conçus pour être utilisés entre logiciels, ont l’avantage sur les textes de ne pas être ambigus, et de ne pas dépendre d’une langue humaine particulière. Cet exemple décrit une toute petite partie du protocole nommé HTTP (pour Hypertext Transfer Protocol) qui est le plus utilisé sur le Web.
Il existe des protocoles bien plus complexes. Le point important est que, derrière votre écran, les logiciels communiquent entre eux en utilisant ces protocoles. Certains servent directement aux logiciels que vous utilisez (comme HTTP, qui permet à votre navigateur Web de communiquer avec le serveur qui détient les pages désirées), d’autres protocoles relèvent de l’infrastructure logicielle de l’Internet ; vos logiciels n’interagissent pas directement avec eux, mais ils sont indispensables.
Le protocole, ces règles de communication, sont indispensables dans un réseau comme l’Internet. Sans protocole, deux logiciels ne pourraient tout simplement pas communiquer, même si les câbles sont bien en place et les machines allumées. Sans protocole, les logiciels seraient dans la situation de deux humains, un Français ne parlant que français, et un Japonais ne parlant que japonais. Même si chacun a un téléphone et connaît le numéro de l’autre, aucune vraie communication ne pourra prendre place. Tout l’Internet repose donc sur cette notion de protocole.
Le protocole permet l’interopérabilité. L’interopérabilité est la capacité à communiquer de deux logiciels différents, issus d’équipes de développement différentes. Si une université bolivienne peut échanger avec une entreprise indienne, c’est parce que toutes les deux utilisent des protocoles communs.
Seuls les protocoles ont besoin d’être communs : l’Internet n’oblige pas à utiliser les mêmes logiciels, ni à ce que les logiciels aient la même interface avec l’utilisateur. Si je prends l’exemple de deux logiciels qui parlent le protocole HTTP, le navigateur Mozilla Firefox (que vous êtes peut-être en train d’utiliser pour lire cet article) et le programme curl (utilisé surtout par les informaticiens pour des opérations techniques), ces deux logiciels ont des usages très différents, des interfaces avec l’utilisateur reposant sur des principes opposés, mais tous les deux parlent le même protocole HTTP. Le protocole, c’est ce qu’on parle avec les autres logiciels (l’interface avec l’utilisateur étant, elle, pour les humain·e·s.).
La distinction entre protocole et logiciel est cruciale. Si j’utilise le logiciel A parce que je le préfère et vous le logiciel B, tant que les deux logiciels parlent le même protocole, aucun problème, ce sera juste un choix individuel. Malgré leurs différences, notamment d’interface utilisateur, les deux logiciels pourront communiquer. Si, en revanche, chaque logiciel vient avec son propre protocole, il n’y aura pas de communication, comme dans l’exemple du Français et du Japonais plus haut.
Babel
Alors, est-ce que tous les logiciels utilisent des protocoles communs, permettant à tout le monde de communiquer avec bonheur ? Non, et ce n’est d’ailleurs pas obligatoire. L’Internet est un réseau à « permission facultative ». Contrairement aux anciennes tentatives de réseaux informatiques qui étaient contrôlés par les opérateurs téléphoniques, et qui décidaient de quels protocoles et quelles applications tourneraient sur leurs réseaux, sur l’Internet, vous pouvez inventer votre propre protocole, écrire les logiciels qui le parlent et les diffuser en espérant avoir du succès. C’est d’ailleurs ainsi qu’a été inventé le Web : Tim Berners-Lee (et Robert Cailliau) n’ont pas eu à demander la permission de qui que ce soit. Ils ont défini le protocole HTTP, ont écrit les applications et leur invention a connu le succès que l’on sait.
Cette liberté d’innovation sans permission est donc une bonne chose. Mais elle a aussi des inconvénients. Si chaque développeur ou développeuse d’applications invente son propre protocole, il n’y aura plus de communication ou, plus précisément, il n’y aura plus d’interopérabilité. Chaque utilisatrice et chaque utilisateur ne pourra plus communiquer qu’avec les gens ayant choisi le même logiciel. Certains services sur l’Internet bénéficient d’une bonne interopérabilité, le courrier électronique, par exemple. D’autres sont au contraire composés d’un ensemble de silos fermés, ne communiquant pas entre eux. C’est par exemple le cas des messageries instantanées. Chaque application a son propre protocole, les personnes utilisant WhatsApp ne peuvent pas échanger avec celles utilisant Telegram, qui ne peuvent pas communiquer avec celles qui préfèrent Signal ou Riot. Alors que l’Internet était conçu pour faciliter la communication, ces silos enferment au contraire leurs utilisateurs et utilisatrices dans un espace clos.
La situation est la même pour les réseaux sociaux commerciaux comme Facebook. Vous ne pouvez communiquer qu’avec les gens qui sont eux-mêmes sur Facebook. Les pratiques de la société qui gère ce réseau sont déplorables, par exemple en matière de captation et d’utilisation des données personnelles mais, quand on suggère aux personnes qui utilisent Facebook de quitter ce silo, la réponse la plus courante est « je ne peux pas, tou·te·s mes ami·e·s y sont, et je ne pourrais plus communiquer avec eux et elles si je partais ». Cet exemple illustre très bien les dangers des protocoles liés à une entreprise et, au contraire, l’importance de l’interopérabilité.
Mais pourquoi existe-t-il plusieurs protocoles pour un même service ? Il y a différentes raisons. Certaines sont d’ordre technique. Je ne les développerai pas ici, ce n’est pas un article technique, mais les protocoles ne sont pas tous équivalents, il y a des raisons techniques objectives qui peuvent faire choisir un protocole plutôt qu’un autre. Et puis deux personnes différentes peuvent estimer qu’en fait deux services ne sont pas réellement identiques et méritent donc des protocoles séparés, même si tout le monde n’est pas d’accord.
Mais il peut aussi y avoir des raisons commerciales : l’entreprise en position dominante n’a aucune envie que des acteurs plus petits la concurrencent, et ne souhaite pas permettre à des nouveaux entrants d’arriver. Elle a donc une forte motivation à n’utiliser qu’un protocole qui lui est propre, que personne d’autre ne connaît.
Enfin, il peut aussi y avoir des raisons plus psychologiques, comme la conviction chez l·e·a créat·eur·rice d’un protocole que son protocole est bien meilleur que les autres.
Un exemple d’un succès récent en termes d’adoption d’un nouveau protocole est donné par le fédivers. Ce terme, contraction de « fédération » et « univers » (et parfois écrit « fédiverse » par anglicisme) regroupe tous les serveurs qui échangent entre eux par le protocole ActvityPub, que l’appel des soixante-neuf organisations mentionne comme exemple. ActivityPub permet d’échanger des messages très divers. Les logiciels Mastodon et Pleroma se servent d’ActivityPub pour envoyer de courts textes, ce qu’on nomme du micro-blogging (ce que fait Twitter). PeerTube utilise ActivityPub pour permettre de voir les nouvelles vidéos et les commenter. WriteFreely fait de même avec les textes que ce logiciel de blog permet de rédiger et diffuser. Et, demain, Mobilizon utilisera ActivityPub pour les informations sur les événements qu’il permettra d’organiser. Il s’agit d’un nouvel exemple de la distinction entre protocole et logiciel. Bien que beaucoup de gens appellent le fédivers « Mastodon », c’est inexact. Mastodon n’est qu’un des logiciels qui permettent l’accès au fédivers.
Le terme d’ActivityPub n’est d’ailleurs pas idéal. Il y a en fait un ensemble de protocoles qui sont nécessaires pour communiquer au sein du fédivers. ActivityPub n’est que l’un d’entre eux, mais il a un peu donné son nom à l’ensemble.
Tous les logiciels de la mouvance des « réseaux sociaux décentralisés » n’utilisent pas ActivityPub. Par exemple, Diaspora ne s’en sert pas et n’est donc pas interopérable avec les autres.
Appel
Revenons maintenant l’appel cité au début, Que demande-t-il ? Cet appel réclame que l’interopérabilité soit imposée aux GAFA, ces grosses entreprises capitalistes qui sont en position dominante dans la communication. Tous sont des silos fermés. Aucun moyen de commenter une vidéo YouTube si on a un compte PeerTube, de suivre les messages sur Twitter ou Facebook si on est sur le fédivers. Ces GAFA ne changeront pas spontanément : il faudra les y forcer.
Il ne s’agit que de la communication externe. Cet appel est modéré dans le sens où il ne demande pas aux GAFA de changer leur interface utilisateur, ni leur organisation interne, ni leurs algorithmes de sélection des messages, ni leurs pratiques en matière de gestion des données personnelles. Il s’agit uniquement d’obtenir qu’ils permettent l’interopérabilité avec des services concurrents, de façon à permettre une réelle liberté de choix par les utilisateurs. Un tel ajout est simple à implémenter pour ces entreprises commerciales, qui disposent de fonds abondants et de nombreu·ses-x programmeur·e·s compétent·e·s. Et il « ouvrirait » le champ des possibles. Il s’agit donc de défendre les intérêts des utilisateurs et utilisatrices. (Alors que le gouvernement, dans ses commentaires, n’a cité que les intérêts des GAFA, comme si ceux-ci étaient des espèces menacées qu’il fallait défendre.)
Qui commande ?
Mais au fait, qui décide des protocoles, qui les crée ? Il n’y a pas de réponse simple à cette question. Il existe plein de protocoles différents et leurs origines sont variées. Parfois, ils sont rédigés, dans un texte qui décrit exactement ce que doivent faire les deux parties. C’est ce que l’on nomme une spécification. Mais parfois il n’y a pas vraiment de spécification, juste quelques vagues idées et un programme qui utilise ce protocole. Ainsi, le protocole BitTorrent, très utilisé pour l’échange de fichiers, et pour lequel il existe une très bonne interopérabilité, avec de nombreux logiciels, n’a pas fait l’objet d’une spécification complète. Rien n’y oblige développeurs et développeuses : l’Internet est « à permission facultative ». Dans de tels cas, celles et ceux qui voudraient créer un programme interopérable devront lire le code source (les instructions écrites par le ou la programmeur·e) ou analyser le trafic qui circule, pour essayer d’en déduire en quoi consiste le protocole (ce qu’on nomme la rétro-ingénierie). C’est évidemment plus long et plus difficile et il est donc très souhaitable, pour l’interopérabilité, qu’il existe une spécification écrite et correcte (il s’agit d’un exercice difficile, ce qui explique que certains protocoles n’en disposent pas).
Parfois, la spécification est adoptée formellement par un organisme dont le rôle est de développer et d’approuver des spécifications. C’est ce qu’on nomme la normalisation. Une spécification ainsi approuvée est une norme. L’intérêt d’une norme par rapport à une spécification ordinaire est qu’elle reflète a priori un consensus assez large d’une partie des acteurs, ce n’est plus un acte unilatéral. Les normes sont donc une bonne chose mais, rien n’étant parfait, leur développement est parfois laborieux et lent.
Toutes les normes ne se valent pas. Certaines sont publiquement disponibles (comme les normes importantes de l’infrastructure de l’Internet, les RFC – Request For Comments), d’autres réservées à ceux qui paient, ou à ceux qui sont membres d’un club fermé. Certaines normes sont développées de manière publique, où tout le monde a accès aux informations, d’autres sont créées derrière des portes soigneusement closes. Lorsque la norme est développée par une organisation ouverte à tous et toutes, selon des procédures publiques, et que le résultat est publiquement disponible, on parle souvent de normes ouvertes. Et, bien sûr, ces normes ouvertes sont préférables pour l’interopérabilité.
L’une des organisations de normalisation ouverte les plus connues est l’IETF (Internet Engineering Task Force, qui produit notamment la majorité des RFC). L’IETF a développé et gère la norme décrivant le protocole HTTP, le premier cité dans cet article. Mais d’autres organisations de normalisation existent comme le W3C (World-Wide Web Consortium) qui est notamment responsable de la norme ActivityPub.
Par exemple, pour le cas des messageries instantanées que j’avais citées, il y a bien une norme, portant le doux nom de XMPP (Extensible Messaging and Presence Protocol). Google l’utilisait, puis l’a abandonnée, jouant plutôt le jeu de la fermeture.
Difficultés
L’interopérabilité n’est évidemment pas une solution magique à tous les problèmes. On l’a dit, l’appel des soixante-neuf organisations est très modéré puisqu’il demande seulement une ouverture à des tiers. Si cette demande se traduisait par une loi obligeant à cette interopérabilité, tout ne serait pas résolu.
D’abord, il existe beaucoup de moyens pour respecter la lettre d’un protocole tout en violant son esprit. On le voit pour le courrier électronique où Gmail, en position dominante, impose régulièrement de nouvelles exigences aux serveurs de messagerie avec lesquels il daigne communiquer. Le courrier électronique repose, contrairement à la messagerie instantanée, sur des normes ouvertes, mais on peut respecter ces normes tout en ajoutant des règles. Ce bras de fer vise à empêcher les serveurs indépendants de communiquer avec Gmail. Si une loi suivant les préconisations de l’appel était adoptée, nul doute que les GAFA tenteraient ce genre de jeu, et qu’il faudrait un mécanisme de suivi de l’application de la loi.
Plus subtil, l’entreprise qui voudrait « tricher » avec les obligations d’interopérabilité peut aussi prétendre vouloir « améliorer » le protocole. On ajoute deux ou trois choses qui n’étaient pas dans la norme et on exerce alors une pression sur les autres organisations pour qu’elles aussi ajoutent ces fonctions. C’est un exercice que les navigateurs web ont beaucoup pratiqué, pour réduire la concurrence.
Jouer avec les normes est d’autant plus facile que certaines normes sont mal écrites, laissant trop de choses dans le vague (et c’est justement le cas d’ActivityPub). Écrire une norme est un exercice difficile. Si on laisse beaucoup de choix aux programmeuses et programmeurs qui créeront les logiciels, il y a des risques de casser l’interopérabilité, suite à des choix trop différents. Mais si on contraint ces programmeuses et programmeurs, en imposant des règles très précises pour tous les détails, on empêche les logiciels d’évoluer en réponse aux changements de l’Internet ou des usages. La normalisation reste donc un art difficile, pour lequel on n’a pas de méthode parfaite.
Conclusion
Voilà, désolé d’avoir été long, mais les concepts de protocole et d’interopérabilité sont peu enseignés, alors qu’ils sont cruciaux pour le fonctionnement de l’Internet et surtout pour la liberté des citoyen·ne·s qui l’utilisent. J’espère les avoir expliqués clairement, et vous avoir convaincu⋅e de l’importance de l’interopérabilité. Pensez à soutenir l’appel des soixante-neuf organisations !
Après
Et si vous voulez d’autres informations sur ce sujet, il y a :
";s:7:"dateiso";s:15:"20190613_142735";}s:15:"20190612_174129";a:7:{s:5:"title";s:38:"L’interopérabilité contre la haine";s:4:"link";s:70:"https://www.laquadrature.net/2019/06/12/interoperabilite-contre-haine/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14314";s:7:"pubDate";s:31:"Wed, 12 Jun 2019 15:41:29 +0000";s:11:"description";s:248:"Ces dix dernières années, Internet s’est métamorphosé, laissant entrevoir pour La Quadrature de nouveaux combats à mener. Les quelques gros acteurs qui se sont emparés du Web ont fait émerger un nouveau problème : celui de…";s:7:"content";s:7988:"
Ces dix dernières années, Internet s’est métamorphosé, laissant entrevoir pour La Quadrature de nouveaux combats à mener. Les quelques gros acteurs qui se sont emparés du Web ont fait émerger un nouveau problème : celui de l’organisation politique des médias sociaux. À ses débuts, Internet s’était construit comme un outil de partage des connaissances et d’entraide. Quiconque, isolé dans un problème spécifique, s’est mis à pouvoir s’appuyer sur les expériences et conseils de personnes dans le même cas. Qu’il s’agisse simplement de problèmes techniques ou de problèmes de société, de discrimination, de santé, etc. Internet a pu être utilisé comme un outil pour sortir de l’isolement, pour s’émanciper, pour visibiliser des minorités et est devenu un point d’appui aux mobilisations. Des protocoles standardisés permettaient à quiconque de mettre en place sa plateforme et de communiquer avec les autres personnes.
Les géants du Web, y trouvant une nouvelle source de pouvoir, se sont constitués en tant qu’intermédiaires et se sont fait symboles de ces nouveaux modes de communication. À leurs débuts, ils remplissaient encore un peu ce rôle. Ils étaient en quête de nouveaux yeux à qui afficher leurs publicités. Il était possible, depuis Facebook, de communiquer avec quelqu’une ne possédant pas de compte grâce au protocole libre XMPP utilisé par sa messagerie. On pouvait importer ses contacts Facebook dans son répertoire Google via le format vCard. L’API de Twitter était ouverte, permettant gratuitement à qui le voulait d’expérimenter le réseau social sous d’autres jours.
Les groupes d’entraide sur Facebook fleurissaient, permettant aux personnes LGBT, aux sans-papiers, aux personnes atteintes de maladies rares d’unir leurs forces.
Les nouvelles rencontres sur Twitter faisaient apparaître de nouveaux fronts et de nouvelles méthodes de lutte.
En 2013, Twitter ferma son API, en 2015 Facebook cessa d’utiliser un protocole ouvert pour sa messagerie et en quelques années, les géants se refermèrent sur eux-même et cessèrent de communiquer, même entre eux. Ils n’avaient plus de raisons de permettre de communiquer avec l’extérieur, « tout le monde » était déjà là, prisonnier et ne pouvant s’échapper sous peine de voir un pan de sa vie sociale disparaître.
Les géants auraient pu se contenter de cette simple cage dorée, mais ils voulaient toujours plus d’argent. C’est ainsi qu’ils ont développé, sans aucun égard pour nous, leurs utilisatrices, des algorithmes millimétrés pour optimiser l’impact de la publicité sur notre cerveau (Lire notre article « Pourquoi attaquer Facebook »), en se servant du contenu même de nos communications. Visibiliser les contenus choquants, déclencheurs d’émotions, nous fait rester plus longtemps sur le service et nous pousse à en partager à notre tour pour entraîner nos relations dans la consommation de contenus. Ils ont fait naître la culture du buzz, nous poussant à user nous-même des rhétoriques de l’attention : contenus choquants, clivants, violents. Les géants ont fait du conflit et de la haine un moteur de croissance.
Aujourd’hui, tout le monde s’offusque. La « haine sur Internet » est devenue un sujet à part entière et même un sujet législatif. Au lieu de retracer l’histoire de l’explosion des propos violents en ligne, d’analyser ses mécanismes de mise en avant, la majorité gouvernementale se demande encore comment faire pour sauver ce modèle mortifère. Et comme à son habitude, en témoignent les dernières lois européennes (lire notre article bilan sur le règlement terroriste et la directive copyright), les réflexes de nos dirigeants sont :
1. de déléguer la mission de protéger les victimes aux géants du Web, les mêmes qui capitalisent sur la promotion de la haine (lire notre article sur les pompiers pyromanes)
2. de censurer suffisamment pour rendre la violence, les désaccords et les oppositions invisibles.
Une passerelle pour se libérer
Aujourd’hui, le navire coule. On reste sur ces plateformes pour ne pas perdre nos contacts, mais la force émancipatrice des débuts est en voie de disparation. Les mouvements sociaux parviennent difficilement à éviter la censure de Facebook. Twitter est devenu un outil efficace pour harceler les personnes transgenres, de confession musulmane, etc. Chacun se défend tant bien que mal, par exemple, grâce à des listes de blocage que l’on se partage. Il est temps de reprendre la main sur la modération en se libérant des géants.
L’interopérabilité garantit à tout le monde de ne pas se trouver captif d’une plateforme : de pouvoir librement la quitter, sans perdre ses liens sociaux, et de continuer à communiquer avec ses contacts. L’interopérabilité permet à quiconque de lire depuis un service A les contenus diffusés par ses contacts sur un service B, et d’y répondre comme si elle y était.
Échapper à l’emprise des géants sans rompre le lien avec nos proches. Si Facebook était interopérable, nous pourrions parler à nos proches qui ont fait le choix d’y rester, et ce depuis un autre service : qu’il soit libre, comme Mastodon et Peertube, ou non.
L’avantage de pouvoir se soustraire à la façon dont les géants organisent nos échanges est que l’on peut échapper à la sur-représentation des contenus choquants et déclencheurs d’émotions, impulsés par le modèle économique des géants pour les retrouver dans leur proportion organique, voir les limiter encore plus. Nous échapperions par la même occasion à l’incitation d’être nous-mêmes choquants dans nos propos puisque les règles de diffusion de contenus ne récompenseraient plus particulièrement ces pratiques.
Il est temps d’arrêter de croire que la planète entière doit être enfermée dans la même boîte en permanence, sous une modération dictatoriale et unique. La part du réseau global avec laquelle on communique sur Facebook est si infime que son immensité ne sert qu’à nourrir le fantasme de la communication avec n’importe-qui-partout-dans-le-monde, qui est en réalité souvent bien loin des usages que l’on a du réseau.
La décentralisation des médias sociaux n’entraînerait aucune perte de communication et donnerait aux personnes le choix de la modération à laquelle elles se soumettent. Il serait beaucoup plus aisé, pour des minorités victimes de harcèlement, de construire un lieu ouvert sur l’extérieur, mais ne laissant passer aucun contenu oppressant, s’ils avaient la main sur la modération de cet espace. De la même manière, se développeraient des espaces d’expression libre à même de recevoir les débats les plus virulents et les plus franches oppositions.
Savoir à qui on confie le pouvoir de nous informer, la gestion de nos interactions sociales en ligne et aux passage nos données personnelles est une question de pouvoir politique : cessons de céder ce pouvoir aux géants, construisons nos propres espaces avec nos propres règles.
";s:7:"dateiso";s:15:"20190612_174129";}s:15:"20190604_150007";a:7:{s:5:"title";s:110:"Lancement d’une campagne dans neuf pays de l’UE contre les techniques illégales de la publicité en ligne";s:4:"link";s:143:"https://www.laquadrature.net/2019/06/04/lancement-dune-campagne-dans-neuf-pays-de-lue-contre-les-techniques-illegales-de-la-publicite-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14301";s:7:"pubDate";s:31:"Tue, 04 Jun 2019 13:00:07 +0000";s:11:"description";s:273:"L’association berlinoise Liberties lance aujourd’hui avec de nombreux alliés une campagne d’actions contre le ciblage publicitaire devant les autorités 9 pays européens, et vous invite à la rejoindre. La Quadrature du Net assiste Liberties pour…";s:7:"content";s:5376:"
L’association berlinoise Liberties lance aujourd’hui avec de nombreux alliés une campagne d’actions contre le ciblage publicitaire devant les autorités 9 pays européens, et vous invite à la rejoindre. La Quadrature du Net assiste Liberties pour porter cette action devant la CNIL dans les jours à venir. Nous reproduisons ici leur communiqué de presse.
Berlin, le 4 juin 2019.
La campagne #StopSpyingOnUs est lancée aujourd’hui dans neuf pays de l’UE : 14 organisations de défense des droits humains et droits numériques, coordonnées par Liberties, déposent simultanément des plaintes auprès des autorités nationales en charge de la protection des données personnelles concernant les techniques illégales utilisées par la publicité comportementale en ligne. Les pays concernés sont l’Allemagne, la Belgique, la France, l’Italie, l’Estonie, la Bulgarie, la Hongrie, la Slovénie et la République tchèque. Il s’agit de la troisième vague de plaintes depuis septembre 2018. Les deux premières avaient été déposées auprès des autorités de protection des données du Royaume-Uni et de l’Irlande.
À travers cette campagne, nous demandons aux autorités de protection des données personnelles d’ouvrir des enquêtes sur les violations actuelles et massives qui sont commises des millions de fois par jour et qui affectent l’ensemble des internautes.
“This campaign will have organisations and individuals joining forces to protect personal information that may be shared without our consent, such as browsing history and location, but also even sexual orientation and unique ID codes. The complaints submitted to the data protection authorities point out that the real-time bidding advertising system may be broadcasting the personal data of users to hundreds or thousands of companies. This advertising method clearly breaches the EU’s data protection regulation (GDPR). We decided to start a campaign for the enforcement of the GDPR, saying it is time to #StopSpyingOnUs,” says Eva Simon, Liberties´ legal expert.
« Cette campagne réunira les organisations et les individus qui souhaitent rejoindre la lutte en vue de protéger les données personnelles qui peuvent être partagées sans notre consentement, telles que l’historique de navigation, la localisation ou encore l’orientation sexuelle et les codes d’identification unique. Les réclamations soumises aux autorités de protection des données personnelles alertent sur le fait que le système de Real Time Bidding (enchères en temps réel) peut transmettre les données personnelles des utilisateur.trice.s à des centaines de milliers d’entreprises. Cette technique publicitaire est en claire violation de la réglementation de l’UE en matière de protection des données personnelles (le GDPR). Nous avons décidé de lancer une campagne visant à faire respecter le GDPR, sous le slogan « StopSpyingOnUs » (arrêtez de nous espionner) », explique Éva Simon, experte juridique de Liberties.
En plus d’avoir coordonné le dépôt des réclamations officielles, soumises par les organisations des droits humains et droits numériques, Liberties et ses partenaires ont aussi préparé des plaintes pré-remplies dans plusieurs langues pour les individus qui souhaitent participer à la campagne #StopSpyingOnUs. Dans certains pays, les citoyen.ne.s peuvent participer à ces efforts en envoyant tout simplement une plainte auprès de l’autorité de protection des données personnelles de leur pays et en utilisant le modèle de lettre disponible sur Liberties.eu.
« Nous voulons que la voix du peuple soit entendue et pour cela nous mettons à la disposition des individus tous les outils nécessaires en vue de mettre un terme aux violations de leurs droits commises dans le cadre de la publicité en ligne. Si une personne ou entité partage nos données personnelles sans notre permission, nous devons être en mesure de leur dire que nous y sommes opposés et de leur demander de cesser ces activités », insiste Orsolya Reich, chargée de plaidoyer de Liberties.
Cette technique publicitaire en ligne est utilisée par des acteurs clés de la sphère numérique, tels que Google, et de fait, un très grand nombre d’individus sont exposés au partage illégal de leurs données personnelles. Par exemple, DoubleClick de Google (récemment renommé « Authorized Buyers ») est actif sur 8,4 millions de sites web, et transmet les données personnelles des visiteurs à plus de 2 000 entreprises. Il est grand temps qu’ils cessent de nous espionner : #StopSpyingOnUs.
Pour de plus amples informations sur la campagne, merci de contacter : Éva Simon
Chargée de plaidoyer « Vie privée et Liberté d’expression » – Liberties
eva.simon@liberties.eu
Pour toute autre demande concernant Liberties, merci de contacter : Vanja Prokic
Chargée de communication – Liberties
v.prokic@liberties.eu
";s:7:"dateiso";s:15:"20190604_150007";}s:15:"20190602_140000";a:7:{s:5:"title";s:60:"[Politis] « On pourrait avoir du libre presque partout »";s:4:"link";s:91:"https://www.laquadrature.net/2019/06/02/politis-on-pourrait-avoir-du-libre-presque-partout/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14297";s:7:"pubDate";s:31:"Sun, 02 Jun 2019 12:00:00 +0000";s:11:"description";s:272:"Selon le juriste Lionel Maurel, derrière l’open source, c’est un questionnement économique et politique qui bouillonne.
Outil puissant et discret, le logiciel libre a façonné l’informatique mondiale. Mais les obstacles pour qu’il s’étende au reste de…";s:7:"content";s:832:"
Selon le juriste Lionel Maurel, derrière l’open source, c’est un questionnement économique et politique qui bouillonne.
Outil puissant et discret, le logiciel libre a façonné l’informatique mondiale. Mais les obstacles pour qu’il s’étende au reste de l’économie restent importants. […]
";s:7:"dateiso";s:15:"20190602_140000";}s:15:"20190602_130000";a:7:{s:5:"title";s:80:"[FranceInter] Le reportage villes intelligentes dans On n’arrête pas l’Éco";s:4:"link";s:111:"https://www.laquadrature.net/2019/06/02/franceinter-le-reportage-villes-intelligentes-dans-on-narrete-pas-leco/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14298";s:7:"pubDate";s:31:"Sun, 02 Jun 2019 11:00:00 +0000";s:11:"description";s:298:"L’intelligence artificielle n’est pas réservée qu’aux géants du numérique. En France, par exemple, 24 villes, parmi lesquelles Lille, Marseille, Nice, Montpellier, Nantes, Issy-les-Moulineaux ou Paris, utilisent ses outils pour mettre en place de la vidéosurveillance,…";s:7:"content";s:1832:"
L’intelligence artificielle n’est pas réservée qu’aux géants du numérique. En France, par exemple, 24 villes, parmi lesquelles Lille, Marseille, Nice, Montpellier, Nantes, Issy-les-Moulineaux ou Paris, utilisent ses outils pour mettre en place de la vidéosurveillance, contrôler la circulation, gérer l’éclairage public…
Une façon de faire entrer concrètement la technologie dans nos vies quotidiennes mais une pratique qui interroge aussi sur la collecte et l’utilisation des données. De Paris à Dijon, Anaëlle Verzaux se penche dans son reportage sur la montée de ces villes intelligentes.
";s:7:"dateiso";s:15:"20190602_130000";}s:15:"20190602_120000";a:7:{s:5:"title";s:82:"[LeMondeDiplomatique] La « ville sûre » ou la gouvernance par les algorithmes";s:4:"link";s:112:"https://www.laquadrature.net/2019/06/02/lemondediplomatique-la-ville-sure-ou-la-gouvernance-par-les-algorithmes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14299";s:7:"pubDate";s:31:"Sun, 02 Jun 2019 10:00:00 +0000";s:11:"description";s:254:"Par Félix Tréguer, chercheur et membre de La Quadrature du Net.
Les outils policiers fondés sur le big data et l’intelligence artificielle se déploient dans de nombreuses villes françaises. À travers des expérimentations pilotées par des…";s:7:"content";s:1564:"
Par Félix Tréguer, chercheur et membre de La Quadrature du Net.
Les outils policiers fondés sur le big data et l’intelligence artificielle se déploient dans de nombreuses villes françaises. À travers des expérimentations pilotées par des groupes privés qui cherchent à se hisser au niveau de la concurrence américaine ou chinoise, la « ville intelligente » révèle son vrai visage : celui d’une cité sous surveillance. […]
Sur le terrain aussi, la « ville sûre » engage une privatisation sans précédent des politiques de sécurité. L’expertise technique est toute entière confiée aux acteurs privés, tandis que les paramètres qui président à leurs algorithmes resteront selon toute vraisemblance soumis au secret des affaires. Sur le plan juridique, il n’existe à ce jour aucune analyse sérieuse de la conformité de ces dispositifs avec le droit au respect de la vie privée ou avec la liberté d’expression et de conscience, pourtant directement mis en cause. […]
";s:7:"dateiso";s:15:"20190602_120000";}s:15:"20190602_110000";a:7:{s:5:"title";s:113:"[20Minutes] Anniversaire du RGPD: Les géants du Web continuent de « marchandiser les données personnelles »";s:4:"link";s:141:"https://www.laquadrature.net/2019/06/02/20minutes-anniversaire-du-rgpd-les-geants-du-web-continuent-de-marchandiser-les-donnees-personnelles/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14300";s:7:"pubDate";s:31:"Sun, 02 Jun 2019 09:00:00 +0000";s:11:"description";s:269:"Le Règlement général sur la protection des données, c’est, en un an, 145.000 plaintes individuelles, 440 enquêtes ouvertes et une seule condamnation majeure. […]
Ce samedi, le RGPD souffle sa première bougie. Sigle technocrate so européen, le…";s:7:"content";s:1780:"
Le Règlement général sur la protection des données, c’est, en un an, 145.000 plaintes individuelles, 440 enquêtes ouvertes et une seule condamnation majeure. […]
Ce samedi, le RGPD souffle sa première bougie. Sigle technocrate so européen, le Règlement général sur la protection des données, dont la vocation était de renforcer les droits des citoyens européens en la matière, en mettant en place diverses obligations pour les entreprises, a eu le mérite de « provoquer une prise de conscience » du grand public, estime Richard Weaver, responsable de la protection des données au sein de l’entreprise de sécurité informatique FireEye. Mais pour Arthur Messaud, juriste de l’association La Quadrature du Net, « le RGPD n’est, pour l’instant, encore presque pas appliqué, et encore moins respecté ». Même verdict de l’Autrichien Max Schrems, Némésis de Facebook, qui dénonce auprès de 20 Minutes « un non-respect massif de la loi. » Le bilan est donc contrasté. […]
";s:7:"dateiso";s:15:"20190602_110000";}s:15:"20190601_140000";a:7:{s:5:"title";s:102:"[01net] 56 associations exhortent le gouvernement à imposer l’interopérabilité aux géants du Net";s:4:"link";s:134:"https://www.laquadrature.net/2019/06/01/01net-56-associations-exhortent-le-gouvernement-a-imposer-linteroperabilite-aux-geants-du-net/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14293";s:7:"pubDate";s:31:"Sat, 01 Jun 2019 12:00:00 +0000";s:11:"description";s:278:"La Quadrature du Net, avec 55 associations de défense des libertés et organisations professionnelles, hébergeurs et FAI associatifs, demandent aux autorités de légiférer en faveur de l’interopérabilité. Ils prêchent pour rendre Twitter, Facebook ou YouTube…";s:7:"content";s:1676:"
La Quadrature du Net, avec 55 associations de défense des libertés et organisations professionnelles, hébergeurs et FAI associatifs, demandent aux autorités de légiférer en faveur de l’interopérabilité. Ils prêchent pour rendre Twitter, Facebook ou YouTube compatibles avec les autres services Internet.
« Nous, défenseurs d’un Internet neutre, libre et ouvert, appelons le législateur à agir pour que les grandes plateformes deviennent interopérables avec les autres services Internet. » Dans une lettre ouverte publiée mardi 21 mai, La Quadrature du Net et 55 autres associations et organisations demandent d’imposer aux géants du Net la compatibilité de leurs services en ligne avec les autres. […]
";s:7:"dateiso";s:15:"20190601_140000";}s:15:"20190601_130000";a:7:{s:5:"title";s:97:"[NextINpact] Conservation généralisée des données : l’attentisme du gouvernement français";s:4:"link";s:125:"https://www.laquadrature.net/2019/06/01/nextinpact-conservation-generalisee-des-donnees-lattentisme-du-gouvernement-francais/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14294";s:7:"pubDate";s:31:"Sat, 01 Jun 2019 11:00:00 +0000";s:11:"description";s:235:"[…] Ses yeux sont tournés sur les questions préjudicielles posées par le Conseil d’État le 28 juillet 2018, à l’occasion de deux arrêts rendus à l’initiative de la FDN, FFDN et la Quadrature du Net. Comme…";s:7:"content";s:1497:"
[…] Ses yeux sont tournés sur les questions préjudicielles posées par le Conseil d’État le 28 juillet 2018, à l’occasion de deux arrêts rendus à l’initiative de la FDN, FFDN et la Quadrature du Net. Comme expliqué, la juridiction est en quête de brèches permettant à la France de maintenir son régime actuel, au désespoir des requérants.
Le gouvernement se dit « particulièrement attentif » à la jurisprudence signalée par Laure de La Raudière. Il est cependant « nécessaire de recueillir au préalable les précisions demandées notamment par le Conseil d’État à la Cour de Justice de l’Union européenne avant d’apprécier dans quelle mesure il est nécessaire d’adapter le cadre normatif national aux exigences du droit européen », explique poliment Nicole Belloubet.
";s:7:"dateiso";s:15:"20190601_130000";}s:15:"20190601_120000";a:7:{s:5:"title";s:72:"[LaCroix] A Saint-Étienne, la surveillance sonore de la rue fait débat";s:4:"link";s:108:"https://www.laquadrature.net/2019/06/01/lacroix-a-saint-etienne-la-surveillance-sonore-de-la-rue-fait-debat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14295";s:7:"pubDate";s:31:"Sat, 01 Jun 2019 10:00:00 +0000";s:11:"description";s:267:"La préfecture de la Loire a différé la pose expérimentale de « capteurs sonores », dans l’attente d’un avis de la Commission nationale de l’informatique et des libertés (Cnil). […]
Pour La Quadrature du Net, le projet porte un…";s:7:"content";s:1241:"
La préfecture de la Loire a différé la pose expérimentale de « capteurs sonores », dans l’attente d’un avis de la Commission nationale de l’informatique et des libertés (Cnil). […]
Pour La Quadrature du Net, le projet porte un « idéal de surveillance complète de l’espace public ». L’association de défense des droits numériques juge que la ville poursuit « le rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines ». […]
";s:7:"dateiso";s:15:"20190601_120000";}s:15:"20190531_140000";a:7:{s:5:"title";s:61:"[RTS] Internet devient-il un Minitel 2.0 ou un bien commun ?";s:4:"link";s:97:"https://www.laquadrature.net/2019/05/31/rts-internet-devient-il-un-minitel-2-0-ou-un-bien-commun/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14289";s:7:"pubDate";s:31:"Fri, 31 May 2019 12:00:00 +0000";s:11:"description";s:215:"Nous fêtons cette année les 50 ans dʹInternet et les 30 ans du WEB conçu au CERN par Tim Berners Lee. Que reste-t-il de ce réseau décentralisé et libre des origines ? Quelles sont les alternatives…";s:7:"content";s:1580:"
Nous fêtons cette année les 50 ans dʹInternet et les 30 ans du WEB conçu au CERN par Tim Berners Lee. Que reste-t-il de ce réseau décentralisé et libre des origines ? Quelles sont les alternatives aux géants du Net que sont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et autres Airbnb ou Alibaba en Chine ?
Eléments de réponse avec notre invité Benjamin Bayart spécialiste des réseaux, Président de la Fédération des fournisseurs d’Accès à Internet associatifs et cofondateur de la Quadrature du Net.
";s:7:"dateiso";s:15:"20190531_140000";}s:15:"20190531_131000";a:7:{s:5:"title";s:79:"[LADN] Vous n’arrivez pas à vous déconnecter des GAFA ? Embrouillez-les !";s:4:"link";s:107:"https://www.laquadrature.net/2019/05/31/ladn-vous-narrivez-pas-a-vous-deconnecter-des-gafa-embrouillez-les/";s:4:"guid";s:107:"https://www.laquadrature.net/2019/05/31/ladn-vous-narrivez-pas-a-vous-deconnecter-des-gafa-embrouillez-les/";s:7:"pubDate";s:31:"Fri, 31 May 2019 11:10:00 +0000";s:11:"description";s:249:"Vous n’échapperez pas à la surveillance de masse, mais vous pouvez la gêner. C’est la théorie des chercheurs américains Helen Nissembaum et Finn Brunton. Dans leur livre Obfuscation, La vie privée, mode d’emploi ils expliquent…";s:7:"content";s:2004:"
Vous n’échapperez pas à la surveillance de masse, mais vous pouvez la gêner. C’est la théorie des chercheurs américains Helen Nissembaum et Finn Brunton. Dans leur livre Obfuscation, La vie privée, mode d’emploi ils expliquent comment embrouiller les algorithmes en publiant de fausses infos. […]
Les auteurs définissent d’ailleurs l’obfuscation comme l’« arme du faible ». « On est de toute évidence dans un rapport très inégalitaire. Face à la volonté des États et des GAFA de contrôler nos données, il y a peu de solutions, explicite Laurent Chemla. C’est une guérilla », précise-t-il. Une guerre asymétrique. Et les armes de cette guerre sont économiques. En clair : on se bat contre des géants avec des bâtons, mais il faut se battre quand même. « Si tout le monde publie de fausses informations alors les données perdent de la valeur. C’est un moyen de financer un peu moins les monstres comme Google, Facebook et Amazon. » […]
Pour Laurent Chemla, le réel antidote contre la surveillance de masse se trouve chez les services alternatifs à ceux des géants de la tech. Les utiliser permet de décentraliser le web et de complexifier le traçage des données. Toutefois, l’obfuscation reste, à ses yeux, une solution pertinente en attendant que ces services se démocratisent.
";s:7:"dateiso";s:15:"20190531_131000";}s:15:"20190531_120000";a:7:{s:5:"title";s:64:"[RFI] La technologie au service du bien commun, un vœu pieux ?";s:4:"link";s:99:"https://www.laquadrature.net/2019/05/31/rfi-la-technologie-au-service-du-bien-commun-un-voeu-pieux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14285";s:7:"pubDate";s:31:"Fri, 31 May 2019 10:00:00 +0000";s:11:"description";s:217:"La technologie pour faire le bien de tous et toutes, vaste programme discuté, en ce moment même, au palais de l’Elysée où Emmanuel Macron reçoit à la fois des dirigeants politiques et des patrons de…";s:7:"content";s:1789:"
La technologie pour faire le bien de tous et toutes, vaste programme discuté, en ce moment même, au palais de l’Elysée où Emmanuel Macron reçoit à la fois des dirigeants politiques et des patrons de géants du numérique. À cette occasion, a été lancé l’appel de Christchurch pour lutter contre la diffusion de contenus haineux en ligne, mais le secteur des nouvelles technologies doit aussi répondre aux questions de plus en plus pressantes autour de la protection des données ou de la remise en cause du droit du travail liée aux modèles économiques des Uber, Amazon et autres Deliveroo.
Avec :
Benjamin Sonntag, co-fondateur de la Quadrature du net
Lucien Castex, chercheur à l’Université Sorbonne nouvelle, secrétaire général d’Internet society France.
";s:7:"dateiso";s:15:"20190531_120000";}s:15:"20190531_110000";a:7:{s:5:"title";s:39:"[LExpress] Facebook, l’empire du faux";s:4:"link";s:74:"https://www.laquadrature.net/2019/05/31/lexpress-facebook-lempire-du-faux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14286";s:7:"pubDate";s:31:"Fri, 31 May 2019 09:00:00 +0000";s:11:"description";s:289:"Faux comptes, faux clics, fausses audiences et fausse protection des données personnelles. Face aux scandales, Facebook promet de changer. Peut-on encore y croire ? […]
Ce décalage entre discours public policé et réalité n’est pas nouveau. Arthur Messaud,…";s:7:"content";s:1937:"
Faux comptes, faux clics, fausses audiences et fausse protection des données personnelles. Face aux scandales, Facebook promet de changer. Peut-on encore y croire ? […]
Ce décalage entre discours public policé et réalité n’est pas nouveau. Arthur Messaud, analyste juridique et politique de La Quadrature du Net, une association qui défend elle aussi les internautes, livre un témoignage similaire. « Quand nous les avons attaqués en mai 2018 devant la Commission nationale de l’informatique et des libertés (CNIL), ils ont engagé une armée de juristes pour noyer le poisson et faire croire qu’ils étaient en accord avec le règlement général sur la protection des données (RGPD), se souvient-il. Sauf que tout leur discours a été déconstruit par la CNIL. » Selon lui, le seul espoir de la firme est de faire changer l’interprétation de la loi en exerçant un lobbying intense auprès des instances européennes. « Leur principal argument consiste à dire qu’ils œuvrent pour le bien de l’humanité en connectant les gens, en luttant contre le terrorisme et les fake news, etc., analyse-t-il. Une lutte qui demande énormément d’argent, ce qui justifie, selon eux, la publicité et donc la collecte systématique des données personnelles. » […]
";s:7:"dateiso";s:15:"20190531_110000";}s:15:"20190530_130500";a:7:{s:5:"title";s:120:"[LObs] Violence en ligne : « L’appel de Christchurch, c’est demander aux pyromanes d’éteindre l’incendie »";s:4:"link";s:134:"https://www.laquadrature.net/2019/05/30/lobs-violence-en-ligne-lappel-de-christchurch-cest-demander-aux-pyromanes-deteindre-lincendie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14281";s:7:"pubDate";s:31:"Thu, 30 May 2019 11:05:00 +0000";s:11:"description";s:269:"Pour La Quadrature du Net, Facebook et autres géants reposent « sur un modèle de surveillance et de captation du temps de cerveau disponible » qui n’est pas amendable. […]
Critique, l’association La Quadrature du Net, qui défend les…";s:7:"content";s:1410:"
Pour La Quadrature du Net, Facebook et autres géants reposent « sur un modèle de surveillance et de captation du temps de cerveau disponible » qui n’est pas amendable. […]
Critique, l’association La Quadrature du Net, qui défend les libertés dans l’environnement numérique, et qui a lancé en 2018 une série de plaintes collectives contre les GAFAM, estime avec ce texte qu’« Emmanuel Macron demande aux pyromanes d’éteindre l’incendie ».
Arthur Messaud, juriste à La Quadrature, a accepté de répondre à nos questions. […]
";s:7:"dateiso";s:15:"20190530_130500";}s:15:"20190530_110500";a:7:{s:5:"title";s:85:"[RMC] Peut-on vraiment lutter contre les contenus haineux sur les réseaux sociaux ?";s:4:"link";s:120:"https://www.laquadrature.net/2019/05/30/rmc-peut-on-vraiment-lutter-contre-les-contenus-haineux-sur-les-reseaux-sociaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14282";s:7:"pubDate";s:31:"Thu, 30 May 2019 09:05:00 +0000";s:11:"description";s:248:"Mark Zukerberg est reçu à l’Elysée ce vendredi. Après une première rencontre l’an dernier, le patron de Facebook doit discuter avec Emmanuel Macron d’une meilleure régulation d’Internet. La France veut se doter d’une loi pour…";s:7:"content";s:1838:"
Mark Zukerberg est reçu à l’Elysée ce vendredi. Après une première rencontre l’an dernier, le patron de Facebook doit discuter avec Emmanuel Macron d’une meilleure régulation d’Internet. La France veut se doter d’une loi pour modérer les propos haineux en ligne. […]
Sur Christchurch, ces vidéos de l’attentat de la mosquée, diffusées en direct, partagées ensuite plus d’un million de fois. C’est l’exemple même de l’impossibilité technique d’agir pour Facebook selon Arthur Messaud, juriste à la Quadrature du Net, une association de défense des droits et libertés des citoyens :
« Si on veut savoir comment Facebook censure sa plateforme, on peut regarder ce qu’il s’est passé avec l’attentat de Christchurch. Google et Facebook ont entièrement échoué à empêcher la diffusion de cette vidéo pendant au moins 24 heures et plus. Tout simplement, parce que leurs algorithmes de recommandation et leur millier de modérateurs embauchés ne suffisaient pas du tout à contrer une attaque de propagande faite juste par une dizaine de personnes« . […]
";s:7:"dateiso";s:15:"20190530_110500";}s:15:"20190523_162159";a:7:{s:5:"title";s:65:"Audience contre le Privacy Shield devant le Tribunal de l’UE !";s:4:"link";s:100:"https://www.laquadrature.net/2019/05/23/audience-contre-le-privacy-shield-devant-le-tribunal-de-lue/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14255";s:7:"pubDate";s:31:"Thu, 23 May 2019 14:21:59 +0000";s:11:"description";s:239:"Le régime de surveillance des Etats-Unis va de nouveau être examiné par les juges européens. Après 3 ans de procédure, l’audience sur notre affaire contre le « Privacy Shield » a enfin été fixée aux 1er et…";s:7:"content";s:4440:"
Le régime de surveillance des Etats-Unis va de nouveau être examiné par les juges européens. Après 3 ans de procédure, l’audience sur notre affaire contre le « Privacy Shield » a enfin été fixée aux 1er et 2 juillet. Retour sur ces 3 années de combat.
En 2000, la Commission européenne a autorisé un accord, appelé « Safe Harbor », pour faciliter le transfert de données personnelles des européens vers les États-Unis.
Le 6 octobre 2015, la Cour de justice de l’Union européenne a invalidé cette autorisation, dans un recours initié par Max Schrems (lire notre réaction de l’époque). Pourquoi ? Car le Safe Harbor laissait les services de renseignement états-uniens accéder aux données des personnes européennes et qu’Edward Snowden venait de révéler l’atteinte massive qui en résultait pour nos libertés.
Le 12 juillet 2016, la Commission européenne a tenté de revoir sa copie : elle a autorisé un nouvel accord de transfert de données vers les États-Unis, le « Privacy Shield » (voir notre réaction).
Le 17 novembre 2016, nous attaquions ce nouvel accord devant le Tribunal de l’Union européenne aux côtés de FFDN et FDN (voir notre saisine commune). Bien qu’un peu moins vague que le Safe Harbor, ce nouveau Privacy Shield continue de permettre des mesures abusives de la part des États-Unis, telles que la surveillance de masse – la Commission le reconnaissait elle même. De plus, pour nous, faire invalider cet accord serait une façon de renforcer la jurisprudence européenne opposée à la surveillance de masse, que nous pourrions ensuite utiliser contre les abus de la loi française.
Le Tribunal de l’Union a jugé notre recours suffisamment grave et sérieux pour ouvrir la procédure. La Commission européenne a du défendre son texte, au secours duquel sont venus de nombreux pays (au premier rang desquels les États-Unis et la France, mais également l’Allemagne, le Royaume-Unis, les Pays-Bas, la République tchèque) et entreprises (Microsoft et Digitaleurope, représentant notamment tous les GAFAM), chacun produisant leurs écritures, auxquelles nous avons du répondre à notre tour (voir notre réponse à la Commission puis celle à ses alliées).
De notre côté, l’UFC Que Choisir est intervenue à notre soutien et l’ACLU (association historique de défense des libertés aux États-Unis) nous a largement aidé pour décrire en détail le régime de surveillance états-unien.
Ces différents échanges d’écritures ont pris fin le 10 avril 2019, où nous avons répondu à une série de questions posées par le Tribunal pour éclairer sa décision. Après presque 3 ans de procédure, le jour de l’audience est donc enfin venu ! Elle se tiendra le 1er et 2 juillet au Luxembourg, nous permettant d’appuyer tous nos arguments à l’oral face à la probable quarantaine d’avocats représentant nos nombreux et si puissants adversaires.
Il s’agira sans nul doute de l’audience la plus importante à laquelle La Quadrature du Net aura jamais participé. Une victoire aurait des conséquences colossales, tant sur notre exposition à la surveillance des États-Unis que sur le droit des pays européens. Nous allons la chercher sans frémir.
";s:7:"dateiso";s:15:"20190523_162159";}s:15:"20190521_124147";a:7:{s:5:"title";s:84:"Pour l’interopérabilité des géants du Web : lettre commune de 69 organisations";s:4:"link";s:116:"https://www.laquadrature.net/2019/05/21/pour-linteroperabilite-des-geants-du-web-lettre-commune-de-45-organisations/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14221";s:7:"pubDate";s:31:"Tue, 21 May 2019 10:41:47 +0000";s:11:"description";s:300:"La Quadrature du Net, avec 69 organisations de défense des libertés, organisations professionnelles, hébergeurs et FAI associatifs, demandent au gouvernement et au législateur d’agir pour que les grandes plateformes (Facebook, Youtube, Twitter…) deviennent interopérables avec…";s:7:"content";s:7947:"
La Quadrature du Net, avec 69 organisations de défense des libertés, organisations professionnelles, hébergeurs et FAI associatifs, demandent au gouvernement et au législateur d’agir pour que les grandes plateformes (Facebook, Youtube, Twitter…) deviennent interopérables avec les autres services Internet.
Notre lettre commune (aussi en PDF) reste ouverte à signature par des associations et entreprises (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre interopérabilité » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !
Lettre commune : pour l’interopérabilité des grandes plateformes en ligne
Nous, défenseurs d’un Internet neutre, libre et ouvert, appelons le législateur à agir pour que les grandes plateformes deviennent interopérables avec les autres services Internet.
L’interopérabilité garantit à tout le monde de ne pas se trouver captif d’une plateforme : de pouvoir librement la quitter, sans perdre ses liens sociaux, et de continuer à communiquer avec ses contacts. L’interopérabilité permet à quiconque de lire depuis un service A les contenus diffusés par ses contacts sur un service B, et d’y répondre comme s’il y était. L’interopérabilité est garantie lorsqu’elle repose sur des standards ouverts.
Des services comme Facebook, Twitter et Youtube tiennent leur pouvoir du nombre élevé d’utilisateurs et d’utilisatrices qu’ils ont rendu captives : ce grand nombre incite d’autres personnes à rejoindre leur service, et leur captivité permet de leur imposer une surveillance constante à des fins publicitaires. Aujourd’hui, nombreux sont celles et ceux qui souhaiteraient y échapper mais sont contraints d’y rester sous peine de perdre le contact avec leurs relations.
Pourtant, en dehors de ces plateformes, des services interopérables réunissent déjà des millions de personnes (Mastodon, Diaspora, PeerTube…), notamment via le protocole d’interopérabilité ActivityPub publié par le W3C en 2018. Ces réseaux décentralisés, basés sur des logiciels libres, sont co-hébergés par une multitude d’acteurs distribuant largement les coûts entre eux, ce qui contribue à l’émergence de modèles économiques bien plus respectueux des libertés que celui de la publicité ciblée.
Migrer vers ces services permettrait aussi d’échapper à l’environnement toxique entretenu sur Facebook, Youtube ou Twitter. Ces géants favorisent la diffusion des contenus qui maintiennent au mieux notre attention, souvent les plus anxiogènes ou caricaturaux. À l’opposé de la voie prise par les récentes lois de censure, il ne faut pas espérer que ces plateformes freinent la diffusion de propos haineux, trompeurs ou dangereux, car leur modèle économique, au contraire, renforce cette diffusion.
Il est urgent de permettre à toute personne d’échapper à la surveillance et à la toxicité de ces grandes plateformes en rejoignant des services libres, décentralisés et à taille humaine sans conséquences nocives sur ses liens sociaux. La loi doit imposer cette interopérabilité.
";s:7:"dateiso";s:15:"20190521_124147";}s:15:"20190515_165923";a:7:{s:5:"title";s:63:"Lettre ouverte aux législateurs européens : halte aux DPI !";s:4:"link";s:96:"https://www.laquadrature.net/2019/05/15/lettre-ouverte-aux-legislateurs-europeens-halte-aux-dpi/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14205";s:7:"pubDate";s:31:"Wed, 15 May 2019 14:59:23 +0000";s:11:"description";s:262:"Paris, le 15 mai 2019 – Aujourd’hui, plus de 42 organisations de défense des droits, soutenues par de nombreux universitaires, ont adressé une lettre aux législateurs européens.
Alors que des négociations sont actuellement en cours concernant…";s:7:"content";s:10132:"
Paris, le 15 mai 2019 – Aujourd’hui, plus de 42 organisations de défense des droits, soutenues par de nombreux universitaires, ont adressé une lettre aux législateurs européens.
Alors que des négociations sont actuellement en cours concernant de nouvelles règles pour la Neutralité du Net, les signataires, dont La Quadrature du Net, attirent l’attention des législateurs sur l’utilisation grandissante et incontrôlée des technologies d’inspection profonde de paquets (Deep Packet Inspection, ou DPI) faite par les fournisseurs d’accès à Internet.
Nous vous en proposons ci-dessous une traduction en français.
—
Bruxelles, le 15 mai 2019
Cher Vice-Président Andrus Ansip,
Chère Commissaire Mariya Gabriel,
Chère Commissaire Vera Jourová,
Chère présidente du Comité européen de la protection des données Andrea Jelinek,
Cher président de l’Organe des régulateurs européens des communications électroniques Jeremy Godfrey,
Nous vous écrivons dans le cadre de l’évaluation du règlement (EU) 2015/2120 et de la réforme des lignes directrices du BEREC. Nous sommes particulièrement inquiets de l’augmentation de l’utilisation de technologies d’inspection profonde de paquets (Deep Packet Inspection, DPI) par les fournisseurs d’accès à internet (FAI). Le DPI est une technologie permettant l’examen des paquets de données transitant à travers un réseau donné, au-delà de ce qui est nécessaire aux FAI pour fournir l’accès à internet, en inspectant certaines parties spécifiques des données transmises par l’utilisateur.
Les FAI intègrent de plus en plus des technologies de DPI dans leurs produits, afin de gérer le trafic réseau et de différencier la facturation de certaines applications ou de certains service (zéro-rating par exemple). Le DPI permet aux FAI d’identifier et de distinguer le trafic afin d’identifier celui généré par certaines applications ou certains services, de réaliser une facturation différenciée, de les limiter ou de les prioriser au sein de leur réseau.
Les signataires de cette lettre souhaitent rappeler l’inquiétante pratique de l’analyse des noms de domaines ou des adresses (URL) des sites visités et d’autres ressources internet. L’évaluation de ce type de données peut révéler des informations sensibles au sujet d’un utilisateur telles que ses publications préférées, ses intérêts vis-à-vis de certaines maladies, ses préférences sexuelles ou ses croyances religieuses. Les URL identifient des ressources spécifiques sur le web (telle qu’une image en particulier, un article spécifique dans une encyclopédie, un segment dans un flux vidéo, etc …) et donnent des informations directes sur le contenu d’une communication.
Une cartographie des différentes tarifications des produits dans l’espace économique européen (EEE), conduite en 2018, a identifié 186 produits faisant potentiellement usage du DPI[1]. Parmi ceux-ci, plusieurs produits vendus par des opérateurs de téléphonie mobile ayant de grandes parts de marché ont confirmé l’usage de techniques de DPI car ils fournissent aux opérateurs d’applications ou de services l’option d’identifier leur trafic en utilisant des critères tels que le nom de domaine, le SNI, les URl ou l’écoute du DNS[2].
Actuellement, les lignes directrices du BEREC[3] établissent clairement que la gestion de trafic basée sur la surveillance des noms de domaine et des URL (tel qu’impliqué par la phrase « contenu de la couche protocolaire de transport ») n’est pas une « mesure raisonnable de gestion du trafic » dans le cadre du règlement. Cette règle claire a cependant été ignorée par la plupart des FAI dans leur méthode de gestion du trafic.
La nature du DPI nécessite une expertise en télécommunications et en protection des données. Cependant, nous observons un manque de coopération entre les autorités nationales de régulation des communications électroniques et les autorités de protection des données sur ce sujet, à la fois dans les décisions d’examiner ces produits ainsi que, de manière plus générale, sur des positionnements conjoints sur ces sujets. Par exemple, certains régulateurs justifient l’utilisation du DPI en se basant sur le consentement des clients des FAI ce qui, crucialement, ignore l’interdiction claire des technologies de DPI par les lignes directrices du BEREC ainsi que le traitement des données des interlocuteur des clients, qui n’ont jamais donné leur consentement à ce traitement.
Au regard de l’ampleur et du caractère sensible du sujet, nous incitons la Commission et le BEREC à examiner avec attention l’usage du DPI et son impact sur la protection des données dans le cadre de la réforme en cours du règlement et des lignes directrices sur la neutralité d’Internet. De plus, nous recommandons à la Commission et au BEREC d’examiner l’interprétation du critère de proportionnalité inclus dans le paragraphe 3 de l’article 3 du règlement 2015/2120 conformément au principe de minimisation des données prévu par le RGPD. Enfin, nous suggérons de mandater le Comité européen de la protection des données afin de rédiger des lignes directrices sur l’usage du DPI par les FAI.
Bien à vous,
Liste des signataires
Universitaires et particuliers :
Kai Rannenberg, Chair of Mobile Business & Multilateral Security, Goethe University
Frankfurt, Germany
Stefan Katzenbeisser, Chair of Computer Engineering, University of Passau, Germany
Max Schrems, Privacy Activist, Austria
Klaus-Peter Löhr, Professor für Informatik (a.D.), Freie Universität Berlin, Germany
Joachim Posegga, Chair of IT-Security, University of Passau, Germany
Dominik Herrmann, Chair for Privacy and Security in Information Systems, University of
Bamberg, Germany
Rigo Wenning, AFS Rechtsanwälte, ERCIM Legal counsel, Vorstand EDV-Gerichtstag, Fitug
e.V., France
Douwe Korff, Emeritus Professor of International Law, London Metropolitan University,
United Kingdom
Dr. TJ McIntyre, UCD Sutherland School of Law, United Kingdom
Dr Ian Brown, Senior Fellow, Research ICT Africa / CyberBRICS visiting professor,
Fundação Getúlio Vargas Direito Rio, Brazil
Dr. Jef Ausloos (Institute for Information Law (IViR) – University of Amsterdam), the
Netherlands
Paddy Leersen LL.M., PhD Candidate University of Amsterdam, Non-Residential Fellow
Stanford University Center for Internet & Society, the Netherlands
Simone Fischer Hübner, Professor in Computer Science, Karlstad University, Sweden
Erich Schweighofer, Head of the Centre for Computers and Law, Department of European,
International and Comparative Law, University of Vienna, Austria
Prof. Dr.-Ing. Christoph Sorge, Saarland University, Germany
Frederik J. Zuiderveen Borgesius, Professor of Law at iCIS Institute for Computing and
Information Sciences, Radboud University
Organisations :
European Digital Rights, Europe
Electronic Frontier Foundation, International
Council of European Professional Informatics Societies, Europe
Article 19, International
Chaos Computer Club e.V, Germany
epicenter.works – for digital rights, Austria
Austrian Computer Society (OCG), Austria
Bits of Freedom, the Netherlands
La Quadrature du Net, France
ApTI, Romania
Code4Romania, Romania
IT-Pol, Denmark
Homo Digitalis, Greece
Hermes Center, Italy
X-net, Spain
Vrijschrift, the Netherlands
Dataskydd.net, Sweden
Electronic Frontier Norway (EFN), Norway
Alternatif Bilisim (Alternative Informatics Association), Turkey
Digitalcourage, Germany
Fitug e.V., Germany
Digitale Freiheit, Germany
Deutsche Vereinigung für Datenschutz e.V. (DVD), Germany
Gesellschaft für Informatik e.V. (GI), Germany
LOAD e.V. – Verein für liberale Netzpolitik, Germany
Fédération des Fournisseurs d’Accès Internet Associatifs, France
Entreprises :
Wire Swiss GmbH, Switzerland, Alan Duric, CTO/COO & Co-Founder
Research Institute – Digital Human Rights Center, Austria
Baycloud Systems, United Kingdom, Mike O’Neill, Director
1. Voir https://epicenter.works/document/1522 page 19-21, 34-35 et 38-40.
2. Cf.
3. BoR (16) 127, paragraphs 69 and 70
";s:7:"dateiso";s:15:"20190515_165923";}s:15:"20190515_122121";a:7:{s:5:"title";s:64:"Christchurch : les pyromanes appelés à éteindre l’incendie";s:4:"link";s:96:"https://www.laquadrature.net/2019/05/15/christchurch-les-pyromanes-appeles-a-eteindre-lincendie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14199";s:7:"pubDate";s:31:"Wed, 15 May 2019 10:21:21 +0000";s:11:"description";s:278:"Tribune d’Arthur.
Emmanuel Macron et Jacinda Ardern, première ministre néo-zélandaise, ont lancé aujourd’hui l’ « appel de Christchurch ». Suite à l’attentat survenu il y a deux mois, cet appel est lancé en réaction au fait que…";s:7:"content";s:6698:"
Tribune d’Arthur.
Emmanuel Macron et Jacinda Ardern, première ministre néo-zélandaise, ont lancé aujourd’hui l’ « appel de Christchurch ». Suite à l’attentat survenu il y a deux mois, cet appel est lancé en réaction au fait que la vidéo de la tuerie aurait largement tourné sur Facebook et Google. Il appelle tous les États à agir pour éviter que cela se reproduise, notamment en collaborant avec les grands réseaux sociaux.
Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct – outil qu’avait utilisé le tueur de Christchurch.
Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements.
Les pyromanes…
Quand Facebook annonce aujourd’hui limiter l’accès à son service de vidéo en direct, cela n’a rien à voir avec la façon dont la vidéo de Christchurch aurait inondé sa plateforme, tel qu’expliqué il y a deux mois par l’entreprise elle-même. La vidéo n’aurait été visionnée en directe que par 200 personnes… Ce sont les 1,5 millions de copies de la vidéo qui auraient atteint le public, diffusées par des soutiens du tueur. Le tueur aurait pu envoyer la vidéo à ses complices par mail que cela n’aurait rien changé à l’affaire. Facebook le sait très bien et son annonce est aussi hypocrite que méprisante.
Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.
Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.
Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine). Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).
… appelés à éteindre l’incendie
Ce sont ces délinquants que le gouvernement appelle aujourd’hui pour sauver leur Web.
Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).
En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…
Bref, quand on demande aux pyromanes d’éteindre l’incendie, ce n’est pas seulement qu’on est à court d’idée et qu’on brasse du vent pour faire genre. C’est aussi car, en vrai, on est soi-même déjà pyromane.
";s:7:"dateiso";s:15:"20190515_122121";}s:15:"20190512_130000";a:7:{s:5:"title";s:76:"[LeProgres] Saint-Etienne: les opposants aux micros ne baissent pas les bras";s:4:"link";s:114:"https://www.laquadrature.net/2019/05/12/leprogres-saint-etienne-les-opposants-aux-micros-ne-baissent-pas-les-bras/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14192";s:7:"pubDate";s:31:"Sun, 12 May 2019 11:00:00 +0000";s:11:"description";s:268:"Faute d’autorisation de la Cnil (Commission nationale informatique et libertés), la municipalité a décidé de retarder l’installation de capteurs sonores dans le quartier de Beaubrun-Tarentaize à Saint-Etienne. Les opposants au projet ne baissent pas la…";s:7:"content";s:1429:"
Faute d’autorisation de la Cnil (Commission nationale informatique et libertés), la municipalité a décidé de retarder l’installation de capteurs sonores dans le quartier de Beaubrun-Tarentaize à Saint-Etienne. Les opposants au projet ne baissent pas la garde. Bien au contraire. […]
Annoncée en février, cette mesure a pris, au fil du temps, un retentissement certain. Après des capteurs sonores, plusieurs documents, révélés par l’association de défense des droits et libertés des citoyens sur le site Internet La Quadrature du Net. […]
";s:7:"dateiso";s:15:"20190512_130000";}s:15:"20190512_110000";a:7:{s:5:"title";s:98:"[Usbek&Rica] L’UE crée un gigantesque fichier biométrique : un « point de non retour » ?";s:4:"link";s:117:"https://www.laquadrature.net/2019/05/12/usbekrica-lue-cree-un-gigantesque-fichier-biometrique-un-point-de-non-retour/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14189";s:7:"pubDate";s:31:"Sun, 12 May 2019 09:00:00 +0000";s:11:"description";s:298:"Le Parlement européen a donné son feu vert à la création d’un gigantesque fichier qui centralisera des données incluant des informations biométriques – empreintes digitales et images faciales – des citoyens européens et non-européens. L’ONG Statewatch avait…";s:7:"content";s:2228:"
Le Parlement européen a donné son feu vert à la création d’un gigantesque fichier qui centralisera des données incluant des informations biométriques – empreintes digitales et images faciales – des citoyens européens et non-européens. L’ONG Statewatch avait alerté en mai dernier sur la création d’une « Europe Big Brother ». […]
L’ONG Statewatch – composée d’avocats, universitaires, journalistes, chercheurs et militants associatifs surveillant la justice et les affaires intérieures, la sécurité et les libertés civiles dans l’Union européenne – avait publié en mai dernier une analyse point par point des nouvelles mesures prévues par cette interopérabilité des systèmes, qu’elle voyait elle aussi comme un « point de non-retour» dans la création d’un « Big brother européen centralisé ». Le raisonnement voulant justifier l’interopérabilité, développée dans le contexte de la crise migratoire et des attentats de 2015, par son utilité pour l’antiterrorisme, est à ses yeux trompeur. […]
";s:7:"dateiso";s:15:"20190512_110000";}s:15:"20190511_130000";a:7:{s:5:"title";s:118:"[NextINpact] Chiffrement : les ministères de l’Intérieur du G7 rêvent de backdoors installées par l’industrie";s:4:"link";s:144:"https://www.laquadrature.net/2019/05/11/nextinpact-chiffrement-les-ministeres-de-linterieur-du-g7-revent-de-backdoors-installees-par-lindustrie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14183";s:7:"pubDate";s:31:"Sat, 11 May 2019 11:00:00 +0000";s:11:"description";s:228:"Le 5 avril dernier, le message des ministres de l’Intérieur du G7 était passé sous nos radars. Le texte prévoit des mesures très ambitieuses, sur l’autel de la lutte contre le terrorisme, pour l’instant. Au…";s:7:"content";s:1618:"
Le 5 avril dernier, le message des ministres de l’Intérieur du G7 était passé sous nos radars. Le texte prévoit des mesures très ambitieuses, sur l’autel de la lutte contre le terrorisme, pour l’instant. Au menu : des hébergeurs appelés à être de plus en plus actifs dans cette lutte et des éditeurs de solutions de chiffrement invités à installer des portes dérobées. […]
Les ministères veulent surtout encourager les entreprises de l’Internet « à mettre elles-mêmes en place des solutions d’accès autorisé à leurs produits et services, notamment aux données chiffrées ». Ces portes dérobées permettraient ensuite aux forces de l’ordre et aux autorités compétentes (donc y compris les services du renseignement) d’accéder aux preuves numériques. […]
";s:7:"dateiso";s:15:"20190511_130000";}s:15:"20190511_110000";a:7:{s:5:"title";s:98:"[LObs] Lettre à l’Europe d’Antonio Casilli : « Ton numérique est encombré de mirages »";s:4:"link";s:117:"https://www.laquadrature.net/2019/05/11/lobs-lettre-a-leurope-dantonio-casilli-ton-numerique-est-encombre-de-mirages/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14184";s:7:"pubDate";s:31:"Sat, 11 May 2019 09:00:00 +0000";s:11:"description";s:287:"A l’occasion des européennes, « l’Obs » a proposé à des artistes et des penseurs d’écrire à l’Europe. Découvrez le texte du sociologue Antonio Casilli. […]
« Mais c’est aussi aux dépens des libertés et de l’autonomie de tes propres…";s:7:"content";s:2019:"
A l’occasion des européennes, « l’Obs » a proposé à des artistes et des penseurs d’écrire à l’Europe. Découvrez le texte du sociologue Antonio Casilli. […]
« Mais c’est aussi aux dépens des libertés et de l’autonomie de tes propres citoyens que tes politiques numériques des dernières années ont été développées. Au nom de vagues émergences et d’états d’exception permanents, une surveillance massive des populations s’est généralisée. A partir de 2013, la France et le Royaume-Uni se sont dotés d’outils législatifs comme la Loi Renseignement ou le Snoopers’ Charter, qui normalisent l’inspection profonde de paquets sur les réseaux, le traçage permanent des citoyens sur les médias sociaux et la création de « boites noires algorithmiques ». Le tout en se passant des garde-fous juridiques traditionnellement présents dans nos pays. Là aussi, l’obsession GAFAM joue un rôle clé. Les accords entre tes États et les entreprises qui se servent de ces technologies à des fins de surveillance et de répression se multiplient, du déploiement de drones Predator à des fins d’ordre public en Italie au contrat de la DGSI française avec Palantir, multinationale de la surveillance du sulfureux Peter Thiel. » […]
";s:7:"dateiso";s:15:"20190511_110000";}s:15:"20190510_134050";a:7:{s:5:"title";s:49:"AG 2019 de la Quadrature : bilan et perspectives";s:4:"link";s:87:"https://www.laquadrature.net/2019/05/10/ag-2019-de-la-quadrature-bilan-et-perspectives/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14169";s:7:"pubDate";s:31:"Fri, 10 May 2019 11:40:50 +0000";s:11:"description";s:230:"À l’issue de son assemblée générale des 13 et 14 avril derniers, La Quadrature du Net souhaite partager avec ses amies, soutiens, sympathisantes et alliées ce qui ressort de ce week-end riche en échanges.
Ce fut…";s:7:"content";s:6892:"
À l’issue de son assemblée générale des 13 et 14 avril derniers, La Quadrature du Net souhaite partager avec ses amies, soutiens, sympathisantes et alliées ce qui ressort de ce week-end riche en échanges.
Ce fut tout d’abord un temps de bilan de nos actions, durant lequel nous sommes revenues sur les principaux évènements et les campagnes qui ont rythmé l’année 2018 à La Quadrature :
Depuis novembre 2017 nous avions décidé de faire de la sensibilisation et de la formation à nos combats pour les libertés fondamentales une des missions de La Quadrature. Cette volonté s’est affirmée à travers deux campagnes que nous voulions accessibles à des publics peu habitués à nos revendications. Au mois d’avril 2018, La Quadrature s’est donnée six semaines pour expliquer, à travers des articles et des vidéos, les abus des GAFAM sur nos libertés et convaincre un maximum de personnes de nous rejoindre dans nos actions de groupe contre les GAFAM. Le 28 mai, nous étions 12 000 à avoir signé ces plaintes devant la CNIL.
La seconde campagne de sensibilisation s’est déroulée en novembre et décembre 2018 à l’occasion de la campagne de dons de l’association. Cette campagne fut l’occasion pour certains proches de La Quadrature de présenter Internet dans sa version libre, neutre, décentralisée et respectueuse des libertés à travers une série de vidéos disponibles sur chaque page thématique du nouveau site de La Quadrature.
Outre ces deux campagnes se voulant accessibles, nos campagnes et actions pour défendre les libertés et droits fondamentaux dans la sphère numérique se sont centrées sur quatre grandes thématiques : les données personnelles, la surveillance, la censure et les réseaux. Diverses campagnes nous ont grandement occupées durant l’année, qu’il s’agisse de la campagne Stop Data Retention en juin ou encore de la campagne contre le règlement de censure terroriste, entamée en fin d’année et poursuivie en 2019. Les sujets juridiques et de contentieux à suivre ont eux aussi été nombreux : directive ePrivacy en discussion au niveau européen, recours contre le Privacy Shield et le régime de surveillance français qui se poursuivent devant la Cour de justice de l’Union européenne, recours contre le fichier TES devant le Conseil d’Etat, débats sur la directive Copyright et sur la régulation des plateformes, premières recherches et analyses sur les « safe cities »… Les dossiers à analyser n’ont pas manqué, et la plupart se poursuivent actuellement.
Afin de promouvoir l’Internet libre, neutre et décentralisé, nous avons amorcé une collection de guides juridiques. Le premier s’adresse aux établissements fournissant un accès Internet comme le font les bibliothèques : « Internet en libre accès ».
Ce fut aussi un temps de réflexion sur l’évolution de l’association: Il y a un an, lors d’une AG que l’on pourrait qualifier de refondatrice de l’organisation, La Quadrature avait décidé de modifier en profondeur sa structure de gouvernance, de prise de décision et de responsabilité. Ce choix a été fait dans un but d’efficacité, pour libérer certaines actions (en particulier celles de l’équipe opérationnelle salariée), mais aussi dans l’objectif d’aligner notre organisation avec notre vision politique : notre défense d’Internet, un réseau par définition horizontal où vivent nos libertés.
Un des buts de notre réorganisation était de permettre à plus de personnes d’entrer dans le processus de décision. Nous avions alors acté l’entrée d’une trentaine de membres dans l’association et la mise en place d’un processus de décision horizontal. Dans l’ensemble, même si ce processus est encore en train de trouver ses marques, il nous enthousiasme et nous encourage à poursuivre dans cette voie.
Ce chemin vers l’ouverture et l’horizontalité est encore en progression : après avoir intégré ce premier cercle de bénévoles, nous réfléchissons aux méthodes pour renforcer nos liens avec les proches de La Quadrature qui ne sont pas membres. Nous souhaitons retrouver des espaces où discuter et avancer avec la communauté qui s’est créée durant les 10 dernières années autour de La Quadrature. Nous allons travailler en ce sens.
Nous invitons d’ores et déjà les personnes qui le souhaitent à rejoindre nos groupes de réflexion, qui se penchent actuellement sur des sujets comme la régulation des télécoms, la censure d’État, la censure privée, la responsabilité des intermédiaires, le droit d’auteur, la vie privée et les données personnelles, l’intelligence artificielle, les villes « technopolicières » et l’IoT. Il est aussi possible de rejoindre nos groupes de travail, que ce soit sur la traduction de textes, la revue de presse, l’organisation d’évènements… Cette liste n’est pas exhaustive et reste ouverte à propositions. Les personnes intéressées peuvent nous rencontrer lors des apéros et autres évènements que nous organisons au fil de l’année, sur irc ou alors en écrivant à notre adresse mail de contact, elles seront alors mises en lien avec les personnes qui travaillent sur les sujets qui les inspirent.
On en profite bien sûr pour remercier toutes celles et tous ceux grâce à qui La Quadrature peut poursuivre son travail, qu’il s’agisse des personnes qui agissent avec nous ou de celles qui nous soutiennent par leurs dons ou en relayant nos messages et nos actions dans leurs réseaux.
";s:7:"dateiso";s:15:"20190510_134050";}s:15:"20190509_141425";a:7:{s:5:"title";s:38:"Une loi contre la haine anti-Macron ?";s:4:"link";s:76:"https://www.laquadrature.net/2019/05/09/une-loi-contre-la-haine-anti-macron/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14148";s:7:"pubDate";s:31:"Thu, 09 May 2019 12:14:25 +0000";s:11:"description";s:243:"Il y a 6 semaines, la députée En Marche Laetitia Avia déposait une proposition de loi « contre la haine sur Internet ». Sa mesure phare est d’exiger des grandes plateformes qu’elles suppriment en 24 heures les…";s:7:"content";s:10409:"
Il y a 6 semaines, la députée En Marche Laetitia Avia déposait une proposition de loi « contre la haine sur Internet ». Sa mesure phare est d’exiger des grandes plateformes qu’elles suppriment en 24 heures les propos de nature « haineuse » et « manifestement » illicites que leur signaleront le public ou la police, sous peine d’une amende de 4% de leur chiffre d’affaire.
Le but est purement et simplement de remplacer la justice publique par Facebook, Google et Twitter, en les laissant seuls maîtres de ce qui peut ou non être dit sur le Web. C’était déjà exactement la démarche prise dans le règlement antiterroriste récemment adopté en première lecture au Parlement européen (lire notre bilan sur ce texte).
Avant de quitter le secrétariat d’État au numérique, Mounir Mahjoubi actait déjà aux côtés de Marlène Schiappa cette alliance de l’État dans les bras de Facebook, présenté comme héros de l’Internet à la sagesse duquel nous devrions évidemment tous nous soumettre ! (lire notre analyse) Son successeur, Cédric O, n’a manifestement rien à redire à la trahison opérée par cette loi « anti-haine ». L’ensemble des députés brillent aussi par un silence coupable.
De son côté, le ministère de la justice, entièrement humilié et mis de côté dans ce grand chantier, vient de lancer son chant du cygne. Dans une circulaire publiée en avril dernier, il appelle à recourir davantage au juge pour lutter contre la haine en ligne, dénonçant l’ « usage abusif » pouvant être fait des « dispositions permettant d’engager la responsabilité des acteurs d’Internet ». En effet, alors que le gouvernement propose de contourner le juge pour gagner en « efficacité », cette circulaire constate que le ministère public ne saisit que bien trop peu la justice dans ces affaires.
Alors pourquoi confier la mission de justice à Facebook et Google, leur donnant autant de légitimité et de pouvoirs alors même qu’ils n’ont de cesse de violer la loi, de mentir et de détruire notre écosystème numérique ? L’analyse du règlement antiterroriste, qui repose sur la même volonté politique, donne une première piste : la notion européenne de « terrorisme » est tellement vague que ce règlement pousserait notamment Facebook et Google à censurer largement les revendications des mouvements sociaux (voir notre analyse appliquée aux gilets jaunes, dont les propos en ligne pourraient tomber sous la censure « anti-terroriste »).
Quand la police demande aux géants de défendre Macron
Un autre événement, cette fois-ci en matière de « haine », est encore plus éclairant : en début d’année, nos amis de NextInpact révélaient que la police française avait signalé à Google une caricature présentant Emmanuel Macron et son gouvernement sous les traits du dictateur Pinochet et de ses proches. Nous avons fait une demande CADA à la police pour comprendre les raisons de ce signalement et venons d’en recevoir la réponse.
Le 13 janvier 2019, vers 21h, une personne anonyme a signalé cette caricature et le message l’accompagnant à la police via sa plateforme PHAROS, dans la catégorie « incitation à la haine raciale ou provocation à la discrimination de personnes en raison de leurs origines, de leur sexe, de leur orientation sexuelle ou de leur handicap ». En réaction et en moins de 24 heures (tel que l’indique le site Lumen), la police a signalé à Google cette image, enregistrant son signalement dans la catégorie « injures et diffamations xénophobes ou discriminatoires » (voir la « fiche de signalement » ci-dessous).
Capture d’écran transmise par la police (cliquer pour agrandir)
Comment expliquer un tel zèle de la police pour une caricature aussi triviale, et ce alors que ses services comprenaient fin 2018 moins de trente agents pour recevoir quatre à cinq centaines de signalements par jours ? Comment expliquer les catégories pénales retenues ici — injures et diffamations xénophobes ou discriminatoires — alors qu’il ne s’agissait que d’une caricature critique du Président et de son gouvernement ? Fait révélateur, la police nous indique ne pas avoir saisi la justice de cette caricature qu’elle qualifiait pourtant d’infraction : elle en a laissé la censure à la libre appréciation de Google.
Fiche de signalement transmise par la police (cliquer pour agrandir)
À l’époque, Google n’avait pas censuré l’image (elle était publiée sur Google+ qui a fermé peu après). Toutefois, avec cette nouvelle proposition de loi « contre la haine », qui vise précisément le type d’infractions visées dans cette affaire, Google ou Facebook devront obligatoirement censurer en 24 heures les contenus « manifestement » illicites qui leur seront signalés, sous peine de sanctions allant jusqu’à 4% de leur chiffre d’affaire. Dans ces conditions, seront-ils vraiment capable de refuser de censurer les contenus signalés par la police ?
La justice indépendante, même si elle se fait parfois complice, est généralement mieux armée pour résister aux pressions du gouvernement. Elle doit être la seule à pouvoir actionner la censure publique. Toute alternative serait un renoncement plein et entier à la séparation des pouvoirs et à tout principe démocratique. En face, l’indépendance de Google et de Facebook est nulle : le président de Facebook, après avoir expliqué construire la régulation du Net main dans la main avec Emmanuel Macron, sera une nouvelle fois reçu demain comme un chef d’État à l’Élysée.
Tout acteur politique, de la majorité comme de l’opposition, qui ne s’opposera pas immédiatement et frontalement à cette privatisation de la justice en sera tenu responsable et dénoncé comme tel.
Lutter contre cette loi occupera lourdement La Quadrature du Net pour les mois à venir, et il nous reste bien d’autres aspects à aborder, tels que la promotion de la censure automatisée, du rôle du CSA ou de la censure administrative. Pourtant, notre budget annuel n’est aujourd’hui financé qu’à 70%, donc, au passage, vous pouvez nous faire un don pour nous permettre de continuer <3
";s:7:"dateiso";s:15:"20190509_141425";}s:15:"20190507_150000";a:7:{s:5:"title";s:77:"[ParisMatch] Comment les géants du web mènent la bataille de la vie privée";s:4:"link";s:113:"https://www.laquadrature.net/2019/05/07/parismatch-comment-les-geants-du-web-menent-la-bataille-de-la-vie-privee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14144";s:7:"pubDate";s:31:"Tue, 07 May 2019 13:00:00 +0000";s:11:"description";s:259:"Confrontées à la pression des consommateurs, des associations et de certains gouvernements, les grandes entreprises de la tech espèrent démontrer qu’elles sont prêtes à protéger la vie privée de leurs utilisateurs. Jusqu’à tenter de se…";s:7:"content";s:1764:"
Confrontées à la pression des consommateurs, des associations et de certains gouvernements, les grandes entreprises de la tech espèrent démontrer qu’elles sont prêtes à protéger la vie privée de leurs utilisateurs. Jusqu’à tenter de se différencier les unes des autres sur cette question sensible. […]
[…] « C’est lamentable de se revendiquer d’un texte qu’il a tout fait pour détruire. Ils ne recueillent pas le consentement des utilisateurs. Le RGPD autorise des entreprises ou des administrations à traiter des données personnelles si ce traitement est nécessaire au service qu’on leur demande. Mais Facebook a complètement dévoyé cette logique-là en considérant que les gens viennent sur Facebook pour être surveillés et pour avoir de la publicité affichée ! Nous estimons que ce n’est pas pour cela que la majorité des gens utilise Facebook. Il faudrait donc recueillir leur consentement », s’agace Arthur Messaud, juriste à La Quadrature du Net, une association qui a lancé des poursuites contre Google, Apple, Facebook, Amazon et Microsoft. […]
";s:7:"dateiso";s:15:"20190507_150000";}s:15:"20190507_130000";a:7:{s:5:"title";s:71:"[JeudiMutuelle] « Quel statut et quel avenir pour les données ? »";s:4:"link";s:98:"https://www.laquadrature.net/2019/05/07/jeudimutuelle-quel-statut-et-quel-avenir-pour-les-donnees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14143";s:7:"pubDate";s:31:"Tue, 07 May 2019 11:00:00 +0000";s:11:"description";s:262:"« Peut-on concilier « Start up nation » et République Numérique ? » Tel est le thème sur lequel les invités de MGEN sont invités à débattre lors de la nouvelle édition de ce rendez-vous trimestriel, d’échanges et de débats…";s:7:"content";s:2010:"
« Peut-on concilier « Start up nation » et République Numérique ? » Tel est le thème sur lequel les invités de MGEN sont invités à débattre lors de la nouvelle édition de ce rendez-vous trimestriel, d’échanges et de débats sociétaux. […]
Pour en débattre, MGEN, représentée par son vice-président délégué Eric Chenut, accueille :
Axelle Lemaire, ancienne secrétaire d’Etat chargée du Numérique ;
Tristan Nitot, fondateur de Mozilla Europe et vice-président Advocacy de Qwant ;
Jean Spiri, normalien et géographe, Président du CRIPS, conseiller régional d’Île de France, auteur de « Demain, tous Estoniens ? » ;
Alexis Fitzjean O’Cobhthaigh, avocat au Barreau de Paris, chargé d’enseignement à l’Université Paris II Panthéon-Assas, membre de la Quadrature du Net ;
Lionel Cavicchioli, chef de rubrique Santé The Conversation France.
";s:7:"dateiso";s:15:"20190507_130000";}s:15:"20190501_132150";a:7:{s:5:"title";s:67:"La vie privée pour les faibles, la transparence pour les puissants";s:4:"link";s:106:"https://www.laquadrature.net/2019/05/01/la-vie-privee-pour-les-faibles-la-transparence-pour-les-puissants/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14105";s:7:"pubDate";s:31:"Wed, 01 May 2019 11:21:50 +0000";s:11:"description";s:275:"2010, WikiLeaks publie les journaux des guerres d’Irak et d’Afghanistan, la vidéo Collateral Murder, et enfin 300 000 cables diplomatiques US, mettant notamment à jour des crimes de guerre sur fond d’hypocrisie géopolitique mondiale..
2019, après…";s:7:"content";s:14066:"
2010, WikiLeaks publie les journaux des guerres d’Irak et d’Afghanistan, la vidéo Collateral Murder, et enfin 300 000 cables diplomatiques US, mettant notamment à jour des crimes de guerre sur fond d’hypocrisie géopolitique mondiale..
2019, après avoir passé 7 ans dans l’ambassade d’Équateur comme réfugié politique, le journaliste Julian Assange, fondateur de WikiLeaks, est arrêté par la police britannique et risque une extradition aux États-Unis, où l’attend un système judiciaire sauvage et une procédure tenue secrète auprès d’un tribunal qui semble avoir posé les conclusions avant d’avoir entendu les arguments, avec à la clé de nombreuses années de prison, dans le meilleur des cas.
Entre les deux, WikiLeaks a mis en œuvre une vision, défendue depuis 2008 par La Quadrature du Net : la vie privée des individus et des groupes, la transparence des institutions et l’accès à l’information sont des droits fondamentaux, à respecter et faire respecter, tandis que les entreprises privées et les États doivent au peuple la transparence. Les États, par leurs fichiers d’État, procédures administratives et judiciaires, mais aussi les entreprises privées, doivent rendre compte aux citoyens des données dont ils disposent, des capacités d’écoute qu’ils mettent en œuvre et de leur influence sur le monde.
WikiLeaks, ses sources et ses soutiens ont payé cher le fait d’être parmi les premiers à montrer à une telle échelle les conséquences sur nos vies de la « guerre contre le terrorisme » menée par les puissances publiques et des entreprises privées du complexe militaro-industriel, qu’ont rejoint sans hésitation de nombreuses entreprises du numériques comme Alphabet (la maison mère de Google), Amazon (qui héberge entre autres le cloud de la CIA) ou Microsoft (au travers de ses nombreux contrats avec les différentes branches de l’armée américaine ou avec le Ministère des Armées français). La seule réponse de ces gouvernements a été de s’engager dans un harcèlement judiciaire coordonné.
Sous couvert de raison d’État, les systèmes judiciaires suédois et britanniques ont été manipulés pour faire traîner les procédures et coincer Julian Assange1Comme l’a montré Stefania Maurizi, journaliste italienne, dans une requête FOIA contre la justice britannique, dévoilant les échanges entre justice suédoise et britannique, et l’effacement des correspondances avec les autorités américaines. Les affaires d’agression sexuelles en Suède ayant été fermées après une interview d’Assange par la procureure suédoise en 2016. Les USA, à travers Visa & Paypal, ont bloqué les moyens de financement de WikiLeaks. Les services de renseignement de nombreux pays ont tenté, parfois avec succès, de démobiliser les personnes soutenant publiquement ou techniquement les idées de WikiLeaks. La France comme l’Union Européenne, prétextant une défense des lanceurs d’alerte, se sont assurées de l’impossibilité de pouvoir dénoncer avec fiabilité et sécurité les abus tant des grands groupes que des administrations. Chelsea Manning, ancienne militaire accusée des fuites de 2010 ayant permis de divulguer de nombreuses exactions de l’armée américaine notamment durant la guerre d’Irak, condamnée à 35 ans de prison par un tribunal militaire, et depuis graciée, est de nouveau en prison de haute sécurité – et a été un temps à l’isolement – après avoir refusé de témoigner contre WikiLeaks, secrètement et devant un Grand Jury. Le Grand Jury a décidé de la persécuter une fois de plus alors que les dégâts causés par son emprisonnement précédent sont largement documentés2Sur le Washington Post & sur le Figaro. Ola Bini, développeur de logiciel libre et expert en sécurité informatique, a été arrêté en Équateur sous des prétextes fallacieux de complot contre le gouvernement équatorien3Voir le site de soutien à Ola Bini, invitant les membres de la communauté du logiciel libre ou de la sécurité informatique à appeler à sa libération. Il ne fait aucun doute que ces emprisonnements n’ont d’autres raisons que politiques.
La Quadrature du Net défend l’intimité de toutes et tous face aux gigantesques pouvoirs des États et des sociétés privées. Nous avons longtemps collaboré avec WikiLeaks, profitant des fuites sur ACTA, le traité commercial anti-contrefaçon que nous attaquions dès 2010. Nous continuons à défendre le droit à communiquer d’une manière qui respecte l’intimité, la vie privée, droit mis à mal par la surveillance d’Internet par les agences de renseignement occidentales – comme révélé par Edward Snowden – et des outils de surveillance et d’attaque informatique, révélés par WikiLeaks4Voir les révélations Vault7 & SpyFiles.
WikiLeaks a ouvert le bal des fuites massives de documents confidentiels des structures de pouvoirs. Cette méthode a depuis essaimé : Panama Papers, Offshore Leaks, LuxLeaks, ont été rendus possible par l’idée fondatrice d’abord concrétisée par le projet WikiLeaks : faciliter la mise en lumière là où certains voudraient garantir et profiter de l’obscurité. Rappelant au journalisme la nécessité de questionner les agissements des plus puissants, nous soutenons la cause incarnée par WikiLeaks et dénonçons la persécution illégitime de ses soutiens.
La Quadrature du Net soutient toutes les lanceuses et lanceurs d’alerte actuellement enfermé·e·s ou poursuivi·e·s (Jeremy Hammond, Reality Winner, Laurie Love, etc.) et dénonce les pratiques de mise à mort lente et de torture employées, comme ce fut le cas avec Chelsea Manning. Nous souhaitons qu’Internet puisse rester un instrument permettant l’émancipation et un moyen de reprendre du pouvoir par rapport au contrôle des États ou des grands acteurs privés. Un outil facilitant l’échange d’informations et la protection des sources. Force est de constater que de nombreux États sont prêts à tout pour faire taire les personnes qui cherchent à s’en servir en ce sens.
Nous défendons la vie privée pour les faibles et la transparence pour les puissants.
Julian Assange ne doit pas être extradé. Chelsea Manning & Ola Bini doivent être libérées.
";s:7:"dateiso";s:15:"20190501_132150";}s:15:"20190426_114837";a:7:{s:5:"title";s:60:"Règlement terroriste : premier bilan et prochaines étapes";s:4:"link";s:96:"https://www.laquadrature.net/2019/04/26/reglement-terroriste-premier-bilan-et-prochaines-etapes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14081";s:7:"pubDate";s:31:"Fri, 26 Apr 2019 09:48:37 +0000";s:11:"description";s:245:"Mercredi 17 avril, l’ensemble du Parlement européen a adopté en première lecture le règlement de censure des « contenus terroristes » en ligne. Par une très faible majorité, il a refusé de nous défendre contre la censure…";s:7:"content";s:39129:"
Mercredi 17 avril, l’ensemble du Parlement européen a adopté en première lecture le règlement de censure des « contenus terroristes » en ligne. Par une très faible majorité, il a refusé de nous défendre contre la censure politique ou de protéger le Web libre et ouvert européen.
Le texte prévoit toujours qu’un juge ou que la police puisse demander à n’importe quelle plateforme de supprimer un contenu en une heure, ce qu’aucune plateforme ne pourra faire sans utiliser les outils de filtrage automatisé développés par Google et Facebook.
Heureusement, la lutte n’est pas finie : le texte pourra encore être modifié en seconde lecture par le nouveau Parlement qui sera élu lors des prochaines élections européennes. Ce sera la décision de ces futurs députés qui marquera la fin de la guerre. Et nous ne manquons pas de raisons d’espérer qu’au final, ce sont nos libertés qui l’emporteront.
Pour préparer cette dernière bataille, faisons d’abord le bilan de celle qui s’est achevée.
Les origines du règlement
La Commission européenne a publié sa proposition de règlement le 12 septembre 2018, en toute discrétion, le jour même où toute la lumière était braquée sur un vote décisif du Parlement européen concernant la directive Copyright (lire notre réaction à l’annonce du règlement terroriste et notre réaction du même jour au vote sur la directive Copyright).
Comme on le verra ensuite, le fait que ce règlement et cette directive aient été débattues en parallèle par l’Union européenne a posé de nombreux problèmes pour lutter tant contre l’un que contre l’autre, tout en révélant une volonté générale de la part de nos gouvernements de réguler le Web dans son ensemble pour les années à venir.
Cette volonté apparaît bien en amont dès 2015. Suite à une série d’attaques meurtrières en Europe, la Commission européenne réunit Google, Facebook, Twitter et Microsoft pour former le « Forum de l’Internet Européen » afin de chercher une solution « pour protéger le public de la diffusion de contenus terroristes ». L’idée de base est déjà là : confier aux géants du numérique la mission de chercher des solutions à nos problèmes.
Ces géants n’ont pas manqué l’occasion de proposer une solution qui, bien que peu utile, renforcerait leur domination sur le reste du Web et permettrait aux gouvernements européens de se donner bonne image (au premier rang desquels le gouvernement français, avec qui Facebook ne cache même plus son alliance). En juin puis en décembre 2017, la Commission européenne félicite les quatre géants pour la solution qu’ils ont construite : une liste noire contenant l’empreinte numérique de dizaines de milliers d’images et de vidéos catégorisées comme « terroristes » par leurs services de modération (qui mêlent « intelligence artificielle » et milliers d’employés exploités dans les pays les moins riches).
Le projet est déjà explicite : faire en sorte que l’ensemble des services Web utilisent la liste noire des géants pour filtrer les contenus qu’ils diffusent. Tout ça sans juge, sans contrôle démocratique, sans rien. Voilà le grand projet : confier aux GAFAM la mission de « civiliser » Internet.
C’est aussi ce qu’opère la directive Copyright : elle inscrit dans la loi la « solution » inventée par les GAFAM contre les pirates barbares qui, dans les fantasmes de l’industrie culturelle, nuiraient à cette dernière. Pour « civiliser » Internet, la généralisation du modèle Content-ID de Youtube assurera désormais l’exploitation massive de nos données personnelles afin de financer cette industrie. S’en remettre aux dominants est tellement plus simple que de repenser ses propres politiques culturelles (lire la tribune de Félix Tréguer, membre de La Quadrature, dans Le Monde qui le dénonçait).
On retrouve enfin la même inspiration dans la proposition de loi « contre la haine » déposée par Mme Avia en France il y a un mois : juste avant de quitter le secrétariat au numérique, Mounir Mahjoubi expliquait comment la loi devait s’inspirer de la modération mise en place par Facebook, présenté comme héros du Web (lire notre critique).
Le texte initial
Tel que proposé par la Commission européenne, le règlement sur le retrait des contenus terroristes permet de confier le contrôle du Web aux GAFAM de deux façons.
À son article 4, le texte prévoit qu’une plateforme doit retirer en une heure un contenu signalé comme terroriste par les autorités. Aucune petite ou moyenne plateforme ne peut répondre à une telle demande, ayant rarement des techniciens travaillant la nuit ou le week-end. Ces plateformes n’auront d’autres choix que d’empêcher en amont la mise en ligne du moindre contenu suspect en utilisant la liste noire fournie par les géants du Web. C’est précisément l’objectif annoncé depuis 2015 par la Commission, et aucun de nos interlocuteurs (ministères, députés…) n’a jamais pris la peine de le nier.
À son article 6, il est prévu que si, malgré la lourde pression que constitue l’article 4, une plateforme ne mettait pas en place un système de filtrage automatisé, les autorités pourraient l’y obliger. Les autorités pouvaient même désigner l’outil précis à implémenter, leur permettant de renvoyer explicitement vers celui de Google, Facebook, Twitter et Microsoft (toutefois, comme on le verra ensuite, ce point a ensuite évolué lors des débats).
Hélas, le texte ne s’arrête pas à une simple délégation de la censure du Web à ces géants. Il confère aussi de larges pouvoirs aux États pour qu’ils puissent eux-mêmes censurer Internet. La demande de retrait de l’article 4 peut venir tant d’un juge que de la police, qui agit alors sans autorisation judiciaire requise. De même, l’article 5 du texte initial prévoit un mécanisme de signalement par lequel la police ou Europol pouvait forcer une plateforme à vérifier si un contenu était conforme à ses propres conditions d’utilisations, qui, elles-mêmes, devaient obligatoirement interdire la publication de contenus terroristes (ce point aussi a évolué au fil des débats, on en reparlera ci-dessous).
Autant de pouvoirs qui ne manqueront pas d’être détournés par nos gouvernements pour nous censurer à des fins purement politiques (la police française l’a déjà fait, dévoyant ses pouvoirs anti-terroristes contre des militants d’extrême gauche et faisant bloquer leur site. Un an et demi après, cette censure a finalement été déclarée illégale par un tribunal).
Une fausse solution
Après avoir fait un large tour des ministères français pour dénoncer ce texte (lire notre compte rendu), nous avons rapidement réalisé que nous ne pourrions pas nous contenter de dire que ce règlement serait inapplicable par les petites et moyennes plateformes ou qu’il ouvrirait les portes de la censure politique. Car on nous a vite fait comprendre que c’était bien son but.
C’est donc ce but que nous avons cherché à déconstruire, en trois étapes.
Premièrement, en dénonçant combien confier aux géants du Web la modération de celui-ci serait un contre-sens, tant « l’économie de l’attention » qui fonde leur modèle porte une lourde responsabilité dans la sur-représentation de conflits et de propos anxiogènes en ligne (lire une de nos multiples analyses à ce sujet). De façon surprenante, nous avons rencontré assez peu d’oppositions à cet argument, si ce n’est la vague idée que « les GAFAM sont la moins pire des solutions ».
Deuxièmement, nous avons tenté de déconstruire le mythe de « l’auto-radicalisation en ligne », qui voudrait qu’un individu lambda puisse être pris d’envies meurtrières après être arrivé par hasard sur quelques vidéos de propagande terroriste, et qu’il faudrait donc l’empêcher de tomber dessus. Un rapport de l’UNESCO de 2017 nous a ici grandement aidé : après avoir recoupé 550 études sur la question, il conclut à l’absence de preuve au soutien d’un tel mythe, tout en soulignant les atteintes à la liberté d’expression commises en son nom. Les ministères et députés soutenant le règlement n’ayant plus d’arguments factuels pour se défendre, ils nous ont répondu que leur but n’était finalement peut-être pas tant de lutter contre « l’auto-radicalisation spontanée », mais surtout contre l’utilisation d’Internet à des fins d’organisation et de planification d’attentats entre personnes déjà radicalisées.
Ainsi, dans un troisième temps, nous avons dû leur expliquer que leur règlement serait bien peu utile à cette fin. Les personnes soutenant des idéologies meurtrières communiquent déjà via des plateformes qui violent et contournent sciemment la loi et qui se moqueront bien de recevoir des demandes de retrait officielles. Aucune loi ne peut prévoir des solutions informatiques crédibles pour lutter contre les idéologies meurtrières. Cette lutte ne peut s’opérer que par des changements culturels et structuraux.
En dernier ressort, nos adversaires n’avaient plus qu’une sorte de pseudo « principe de précaution » à nous présenter, en forme de « peut-être que tout cela ne sert à rien mais, on ne sait jamais, peut-être qu’on découvrira plus tard que c’était utile »… quitte à sacrifier nos libertés et notre écosystème numérique pour le découvrir. Difficile de croire en la sincérité d’une posture aussi absurde, qui semble surtout révéler leur véritable intention : se vanter d’avoir adopté un texte symbolique, aussi inutile et dangereux fut-il, juste avant les élections européennes.
À la toute fin du débat est apparu un dernier argument. La diffusion incontrôlée et sur une longue période de la vidéo de l’attentat de Christchurch sur Youtube et Facebook a démontré que les outils de modération automatisées de ces derniers étaient largement inutiles. Leur liste noire à base d’empreintes numériques a pu être très facilement contournée par les soutiens du meurtrier, qui ont simplement mis en ligne la vidéo sous différents formats pour échapper aux reconnaissances automatisées. Par une ironie dont l’amertume est insupportable, la diffusion de cette vidéo a démontré la vacuité absolue de ce règlement.
Le débat général
Tous ces débats ont dû se tenir dans un temps extrêmement court, car les gouvernements français et allemand, qui avaient demandé ce texte à la Commission européenne, entendaient bien le faire adopter avant les élections. En tout, le débat en première lecture aura duré à peine 8 mois (un sinistre record pour un texte d’une telle gravité).
Dans un premier temps, le texte a été discuté par le Conseil de l’Union européenne, qui réunit les gouvernements de l’Union. Grâce à l’engagement de 61 associations et acteurs du Web, nous avons pu dénoncer conjointement la stratégie anti-européenne d’Emmanuel Macron, qui favorise les GAFAM et viole la séparation des pouvoirs en permettant des censures politiques (lire la lettre commune). Quelques jours plus tard, le 6 décembre 2018, le Conseil de l’Union adoptait toutefois un accord sur le texte dans une version quasiment identique à l’initiale (lire notre réaction).
En parallèle, depuis presque aussi longtemps que nous combattions ce texte, le mouvement des gilets jaunes prenait en France une ampleur spectaculaire, entraînant une répression encore plus impressionnante. Nous n’avons pas pu nous empêcher de constater que le règlement soi-disant anti-terroriste serait une arme de choix pour censurer un tel mouvement social, tant le droit européen permet d’interprétations extensives (lire notre analyse).
Au parlement européen
Les débats au Parlement européen ont assez mal commencé. Le 12 décembre, soit le lendemain d’une fusillade ayant eu lieu à Strasbourg (l’endroit même où siégeait le Parlement à cette date), l’ensemble des députés ont adopté un rapport « sur les observations et les recommandations de la commission spéciale sur le terrorisme ». Ce rapport, qui n’a pas de valeur législative mais exprime simplement la volonté du Parlement, a été une sorte de prémice au règlement à venir. Il se félicite d’ailleurs de la proposition faite par la Commission et appelle explicitement à la « détection automatique » et à la « suppression systématique » des contenus terroristes (voir notre lettre envoyée aux députés avant l’adoption de ce texte puis notre réaction à son adoption).
Il a fallu attendre fin janvier pour que les débats commencent vraiment au Parlement européen. Daniel Dalton, député d’extrême-droite (groupe ECR) venant du Royaume-Uni, prêt à rendre son mandat d’un jour à l’autre en prévision d’un Brexit qui semblait alors imminent, avait été désigné rapporteur sur le texte. En tant que tel, sa mission était d’organiser les débats au sein de la commission LIBE (pour « libertés civiles ») afin de proposer un « rapport » (une version amendée du règlement) ensuite soumis au vote de l’ensemble du Parlement.
Fin janvier 2019, donc, Dalton proposait un projet de rapport laissant presque inchangée la proposition initiale de la Commission européenne. Ce renoncement à corriger le texte tranchait radicalement avec la position de Dalton sur la directive copyright, où il s’était opposé au filtrage automatisé, notamment pour protéger les petites plateformes. Son incohérence semblait totale (lire notre analyse). Par la suite, nous avons pu le rencontrer à plusieurs reprises au Parlement européen, pour y deviner sans grande surprise que cette incohérence cachait probablement les aspirations carriéristes les plus triviales : Dalton avait parfaitement saisi les causes et conséquences du règlement mais, tout en reconnaissant que la mesure phare du « retrait en une heure » était aussi absurde que dangereuse, il tenait à tout prix à la conserver ne serait-ce que pour le symbole qu’elle portait.
Dès février 2019, c’est sur la base de ce projet de rapport que les différents groupes politiques représentés dans la commission LIBE ont commencé à débattre pour chercher des compromis. Nous lancions notre page de campagne qui, dans les 2 mois de discussions restants, permettrait à tout le monde de contacter les 61 membres de LIBE pour les alerter sur les dangers de ce texte.
Le vote final de LIBE sur son rapport avait été fixé au 21 mars. Avant cela, au cours du mois de mars, les commission IMCO (« consommateurs ») et CULT (« culture ») ont chacune rendu un avis pour assister LIBE. Ces avis, bien que très imparfaits, proposaient enfin des améliorations (lire notre réaction aux avis de IMCO et de CULT). Durant ce temps, nous rencontrions le plus grand nombre possible de membres de LIBE au Parlement et, après avoir rencontré l’équipe de Rachida Dati (chargée de mener les négociations en LIBE pour le groupe de droite PPE), dénoncions sa position encore plus dangereuse que celle de Dalton (lire notre article).
Acceptant enfin la gravité de ce règlement, les membres de LIBE ont été obligés de reporter leur vote par deux fois, jusqu’au 8 avril, se donnant trois semaines supplémentaires pour négocier le rapport. Trois semaines semblent un délai ridiculement court pour un texte si important – et il l’est -, mais le calendrier initial ne prévoyait même pas deux mois pour en débattre. La Commission comme les États membres se sont largement ingérés dans les affaires du Parlement (avec succès) pour exiger que celui-ci adopte un texte en première lecture avant la fin de son mandat, mi-avril, ce qui demandait l’adoption urgente du rapport LIBE.
Un difficile agencement avec la directive Copyright
Vous n’aurez pas manqué de le constater : tout ce débat contre le règlement terroriste s’est déroulé alors même que l’Union européenne débattait de la directive Copyright. Après que le Parlement ait arrêté une première position sur cette directive Copyright en septembre 2018, ce texte était parti en négociations inter-institutionnelles (« trilogue ») entre le Conseil de l’Union (qui réunit les gouvernements des États membres), la Commission européenne et des députés mandatés à cette fin par le Parlement, afin de trouver un compromis général. Ces négociations ont été très mouvementées, avec divers retournements de situation, tant est qu’il était bien difficile de prévoir la date de leur aboutissement (notamment de savoir s’il interviendrait avant ou après la fin de l’actuelle mandature).
Lorsque nous lancions début février notre page de campagne pour appeler les députés contre le règlement terroriste, ces négociations sur la directive Copyright n’étaient même pas finies, et nous ne pouvions guère savoir lequel des deux textes serait voté le premier par le Parlement.
Le trilogue sur Copyright aboutissait finalement peu après, fin février, et de nombreuses associations européennes alliées lançaient alors leur pleine campagne contre la directive Copyright, principalement autour de la plateforme Pledge2019, qui permettait à tout le monde de contacter les députés et à laquelle La Quadrature du Net a apporté sa signature dès le lancement.
Quelques semaines plus tôt, alors que les différentes campagnes contre ces deux textes se préparaient, nous avions pendant un temps pensé avec les associations européennes amies de La Quadrature faire une campagne unique contre les deux textes. On comprend bien pourquoi : les deux textes se fondent sur des mesures de filtrage automatisé et sur la place centrale confiée aux acteurs dominants du Web. Cette stratégie était d’autant plus intéressante qu’elle nous offrait une certaine souplesse, ne connaissant alors pas l’ordre dans lequel les deux textes seraient votés.
Fin février, l’idée d’une campagne unique a finalement été écartée, et ce pour des raisons très diverses, allant de l’espoir que la victoire contre la directive copyright pourrait suffire à convaincre les députés de corriger les pires mesures du règlement terroriste (stratégie qui ne nous a pas convaincu tant les deux sujets étaient différents), à la crainte que la campagne contre la directive Copyright soit moins mobilisatrice si elle était mélangée aux argument forcément plus graves et anxiogènes à invoquer contre le règlement terroriste.
À La Quadrature du Net, depuis plusieurs années, nous nous sommes malheureusement habituées à parler de morts et de massacres (ce qui est loin d’être agréable), ceux-ci étant systématiquement et honteusement récupérés par notre gouvernement pour renforcer illégitimement ses pouvoirs. Les associations d’autres pays n’en ont peut-être pas la même habitude (et tant mieux pour la santé mentale de leurs membres). Nous avons donc continué de mener la campagne contre le règlement terroriste pour laisser la grande majorité de nos alliés se concentrer contre la directive Copyright, avec le soutien que nous pouvions leur apporter (qui, il faut le reconnaître sans détour, aurait été plus important si les deux textes n’étaient pas tombés en même temps).
Toutefois, cette division de nos forces entre ces deux textes, aussi regrettable qu’inévitable, n’a peut-être eu qu’un effet assez secondaire comparé à un autre problème scandaleux : les médias dominants français, partie prenante de premier plan en faveur de la directive Copyright et alliés avec l’industrie culturelle à cette fin, ont ici largement renoncé à leur idéal d’impartialité. Inondant le public d’informations erronées et biaisées sur la directive, emportés dans leur campagne politique délirante, ils ont presque entièrement « oublié » de parler du règlement terroriste. C’est une situation parfaitement inédite pour la presse française s’agissant d’un texte d’une telle gravite, dont le public n’aura pris connaissance que par des associations militantes et quelques média spécialisés. La responsabilité des médias dominants français est immense dans la perte de libertés causée tant par la directive Copyright que par le règlement terroriste.
Au final, le vote final de la directive Copyright a été fixé au 26 mars, juste avant le vote en LIBE sur le règlement terroriste, repoussé lui au 8 avril. À une très courte majorité, le Parlement a accepté de sacraliser la surveillance économique de masse comme source de financement de la culture, sur la base des outils de filtrage automatisé inventés par Youtube avec son Content-ID (lire notre dernier appel à s’opposer à la directive Copyright et notre réaction à son adoption).
La lutte contre la politique promue par cette directive se poursuivra désormais au niveau national, avec diverses propositions législatives en cours en France sur lesquelles nous reviendrons très bientôt.
Le règlement adopté
Le 8 avril donc, la Commission LIBE a adopté sa version du règlement terroriste (lire notre réaction). Le vote en assemblée plénière pour une première lecture par le Parlement européen a été fixé moins de dix jours plus tard, au mercredi 17 avril. Durant ce très court délai, nous avons tout juste eu le temps d’étendre notre outil aidant à contacter les membres du Parlement (prévu au départ pour les 61 députés de la commission, nous l’avons étendu à l’ensemble des députés), ainsi que d’envoyer à ces derniers un courrier pour les avertir du danger du texte (lire notre courrier).
Tout ceci en vain. Car comme nous l’avons constaté de nous-mêmes directement depuis Strasbourg, le texte a été adopté en quelques minutes en première lecture, durant l’une des dernières séances du Parlement avant les élections de mai.
La version adoptée est, à un détail près, la version issue de la Commission LIBE.
Que modifie-t-elle précisément par rapport à la proposition de la Commission européenne de septembre ?
Le champ d’application est légèrement modifié. Suite à un lobbying intense des industries du « cloud », les acteurs visés ne sont maintenant plus que ceux qui stockent et mettent du contenu à disposition « du public » (et non plus « des tiers »), avec une sortie explicite des « services d’infrastructure en nuage » et des « fournisseurs de service en nuage ».
Le plus inquiétant est que la version conserve, en son article 4, la possibilité qu’une plateforme puisse être obligée de retirer en seulement une heure un contenu signalé comme terroriste par les autorités. Plusieurs amendements proposaient de supprimer ce délai d’une heure dont Daniel Dalton avait fait un symbole. L’amendement de suppression déposé par le groupe des Verts est rejeté de seulement 3 voix (297 pour et 300 contre – voir le résultat des votes).
Deux précisions sont néanmoins apportées : la première est que seule l’autorité du pays où le fournisseur de services a son établissement principal peut émettre ce type d’injonction ; la seconde est que si c’est la première fois que le fournisseur reçoit ce type d’injonction, l’autorité doit le contacter au moins 12 heures avant l’injonction. Ces précisions ne changent pas grand chose : que ce soit une ou treize heures, cela reste des délais beaucoup trop courts pour la plupart des acteurs du Web qui ne seront simplement pas en capacité de les respecter.
Quant à l’autorité compétente capable d’émettre de telles injonctions, il ne s’agit toujours pas uniquement d’un juge. Le texte précise maintenant qu’il peut s’agir d’une « autorité judiciaire ou autorité administrative fonctionnellement indépendante ». Mais la notion d’une autorité « fonctionnellement indépendante » peut être interprétée largement par les États membres et ne garantit en aucun cas la désignation d’une autorité juridiquement distincte du gouvernement (il est ainsi possible que l’OCLTCIC, l’office de la police nationale qui a déjà en France le pouvoir d’ordonner le blocage de sites faisant l’apologie de terrorisme soit considéré comme « fonctionnellement indépendant ») ;
L’article 5 permettant aux autorités de signaler un contenu à une plateforme est lui entièrement supprimé. S’il s’agit d’une victoire, elle reste très symbolique car, en pratique, les États et Europol continueront de recourir à ces signalements, qui ne sont ni interdits ni limités par la nouvelle version du règlement.
L’article 6 est profondément modifié. Il n’évoque plus des mesures « proactives » mais des « mesures spécifiques », et les fournisseurs de services ont désormais seulement la « possibilité » de les mettre en œuvre, et non plus une obligation générale de principe. Surtout, le texte précise que l’autorité compétente ne peut pas imposer d’ « obligation générale de surveillance, ni l’utilisation d’outils automatisés ». C’est probablement ici la plus importante victoire obtenue sur ce texte, même si, en pratique, les plateformes n’auront pas d’autre choix que de recourir en amont à des outils de filtrage automatisé pour ne pas s’exposer en aval à des demandes irréalistes de retrait en une heure.
L’article 9 prévoit enfin que les plateformes doivent systématiquement prévoir une vérification humaine « quant à la pertinence des décisions de suppressions des contenus ou d’interdiction à ceux-ci ». Un tel encadrement, rédigé d’une manière aussi large, pourrait s’avérer très intéressant pour limiter le recours au filtrage automatisé des contenus sur les plateformes en ligne, à condition toutefois qu’il soit interprété comme exigeant une intervention humaine s’agissant des filtres réalisés a priori (au moment de la mise en ligne du contenu) et pas seulement des modérations a posteriori – tout le risque de ce texte étant d’imposer en pratique des filtres a priori.
Au final, malgré quelques ajouts et modifications atténuant certains points problématiques, l’adoption de ce texte par le Parlement européen reste néanmoins avant tout une très lourde défaite. De manière générale, le texte promeut encore et toujours l’idée dangereuse que la censure des contenus en ligne peut être une réponse contre la diffusion d’idéologies meurtrières.
Surtout, en maintenant la possibilité pour une autorité administrative d’ordonner à n’importe quel acteur du Web le retrait en une heure d’un contenu (et cela sous la menace de lourdes sanctions) les institutions européennes vont forcer ces acteurs à adopter une interprétation large de la notion de « contenus terroristes » et à utiliser en amont des outils de filtrage automatisés.
Le fait d’interdire aux autorités de pouvoir imposer l’utilisation de ces outils ne change donc pas grand chose. Seuls les géants du Web pourront respecter ces obligations, d’où notre crainte d’un Web encore plus centralisé aux mains d’une poignée d’entreprises.
Enfin, les points de progrès qui ont pu être apportés par le texte de la Commission LIBE (suppression de l’article 5, adoucissement de l’article 6, délai d’une heure étendu dans certains cas précis, encadrement du filtrage automatisé) seront très certainement contestés en trilogue par la Commission européenne et les États membres les plus impliqués (dont la France). Il ne peut donc en aucun cas être crié victoire pour ces seules maigres avancées.
Et maintenant ?
Le texte tel qu’adopté sera donc la position du Parlement européen pour les négociations en trilogue à venir lors de la prochaine mandature avec la Commission européenne et le Conseil de l’Union européenne (regroupant les gouvernements des États membres). Le tout avant un autre vote, final cette fois-ci, par l’ensemble des nouveaux députés en séance plénière l’année prochaine.
Le combat est donc loin d’être déjà perdu, surtout lorsqu’on voit le nombre de voix qui ont manqué pour enlever le délai d’une heure (3 !) et les avancées (mêmes symboliques) que nous avons pu imposer en dépit des conditions et délais quasi-intenables dans lesquels s’est déroulé ce premier débat. Nous le disions en début d’article : le texte pourra encore être modifié en seconde lecture, mais cela nécessitera une nouvelle mobilisation dans quelques mois, au moment des trilogues et des débats au Parlement. Si l’on veut parvenir au rejet de ce texte, ou à tout le moins à le vider de l’essentiel de sa substance, cette mobilisation nécessitera la participation de l’ensemble des associations européennes et une implication beaucoup plus importante des médias sur le sujet, dans des circonstances qu’il faudra espérer plus propices.
C’est à cette condition que l’on peut espérer parvenir à repousser la censure de masse et automatisée qui est au cœur de ce texte.
Avant de nous lancer dans cette nouvelle lutte, prenons le temps de remercier toutes celles et ceux qui ont participé à cette campagne et ont aidé aux premières victoires qui ont pu être acquises : toutes les associations et organisations (françaises et européennes) qui ont milité, avec nous ou de leur côté, pour faire tomber ce texte ou ses pires dispositions (notamment les 61 signataires de la lettre ouverte adressée à Emmanuel Macron), toutes les personnes qui ont relayé et aidé à relayer nos articles et communications, toutes celles aussi qui ont contacté les députés européens (et celles qui sont venues le faire avec nous dans nos locaux), celles qui ont aidé la traduction de notre site (en anglais et en allemand). Merci <3 !
À dans quelques mois pour la suite de la lutte !
";s:7:"dateiso";s:15:"20190426_114837";}s:15:"20190423_130000";a:7:{s:5:"title";s:98:"[FranceCulture] Entendez-vous l’éco ? Le prix du gratuit (3/4) Gratuité, données, publicité";s:4:"link";s:123:"https://www.laquadrature.net/2019/04/23/franceculture-entendez-vous-leco-le-prix-du-gratuit-3-4-gratuite-donnees-publicite/";s:4:"guid";s:123:"https://www.laquadrature.net/2019/04/23/franceculture-entendez-vous-leco-le-prix-du-gratuit-3-4-gratuite-donnees-publicite/";s:7:"pubDate";s:31:"Tue, 23 Apr 2019 11:00:00 +0000";s:11:"description";s:263:"« Si c’est gratuit, c’est vous le produit » : un adage vieux comme Internet pourtant sans cesse renouvelé, de scandales en tentatives de légiférer sur un « droit à l’oubli ». Que peuvent faire les individus face à la…";s:7:"content";s:1927:"
« Si c’est gratuit, c’est vous le produit » : un adage vieux comme Internet pourtant sans cesse renouvelé, de scandales en tentatives de légiférer sur un « droit à l’oubli ». Que peuvent faire les individus face à la marchandisation de leurs données ? Quelles mesures de régulation envisager ? […]
Les réseaux sociaux, des services gratuits, vraiment ? On entend Benjamin Bayart dire : « C’est une impression qui est très fausse« . Il précise : « Il y a une inversion des rapports. Quand vous avez un système économique qui se base sur la publicité, vous n’êtes plus sujet de la transaction : vous en êtes l’objet. Le client, c’est le publicitaire, le vendeur est le développeur de l’application, et le produit qu’on vend, c’est vous. Ça change tout. » […]
Intervenants :
Fabrice Rochelandet, Professeur en sciences de l’information et de la communication à l’Université Sorbonne-Nouvelle (Paris III)
Benjamin Bayart, Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN) […]
";s:7:"dateiso";s:15:"20190423_130000";}s:15:"20190422_130000";a:7:{s:5:"title";s:101:"[BursttheBubble] Episode #4 – The EU Terrorist Content Regulation – interview with Arthur Messaud";s:4:"link";s:131:"https://www.laquadrature.net/2019/04/22/burstthebubble-episode-4-the-eu-terrorist-content-regulation-interview-with-arthur-messaud/";s:4:"guid";s:131:"https://www.laquadrature.net/2019/04/22/burstthebubble-episode-4-the-eu-terrorist-content-regulation-interview-with-arthur-messaud/";s:7:"pubDate";s:31:"Mon, 22 Apr 2019 11:00:00 +0000";s:11:"description";s:261:"NDLRP : entretien en français.
On 12th September 2018, the European Commission presented a regulation on preventing the dissemination of terrorist content online. Next Wednesday, 17th April 2019, the European Parliament will express its opinion on…";s:7:"content";s:1529:"
NDLRP : entretien en français.
On 12th September 2018, the European Commission presented a regulation on preventing the dissemination of terrorist content online. Next Wednesday, 17th April 2019, the European Parliament will express its opinion on the regulation. NGOs are worried about the impact of this legislation on the rights of internet users and on the potential abuse of pre-emptive censorship. We discuss the main criticisms to the Terrorist Content Regulation with Arthur Messaud from the advocacy group « la Quadrature du Net« .(16 April 2019)
";s:7:"dateiso";s:15:"20190422_130000";}s:15:"20190422_120000";a:7:{s:5:"title";s:81:"[NextINpact] Le Parlement adopte le retrait des contenus terroristes en une heure";s:4:"link";s:120:"https://www.laquadrature.net/2019/04/22/nextinpact-le-parlement-adopte-le-retrait-des-contenus-terroristes-en-une-heure/";s:4:"guid";s:120:"https://www.laquadrature.net/2019/04/22/nextinpact-le-parlement-adopte-le-retrait-des-contenus-terroristes-en-une-heure/";s:7:"pubDate";s:31:"Mon, 22 Apr 2019 10:00:00 +0000";s:11:"description";s:233:"En séance plénière, les eurodéputés ont adopté par 308 voix pour (204 contre, 70 abstentions) le Règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. C’est la position (ou…";s:7:"content";s:1631:"
En séance plénière, les eurodéputés ont adopté par 308 voix pour (204 contre, 70 abstentions) le Règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. C’est la position (ou « mandat ») de la commission des libertés civiles (LIBE) qui a été retenue. […]
Pour la Quadrature du Net, très remontée contre ce texte, « d’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes ». […]
« L’obligation de censurer un contenu en une heure, avec la menace de lourdes amendes, aura pour effet de motiver les acteurs du Web à censurer en amont tout contenu potentiellement illicite, et ce en adoptant une définition la plus large possible du terrorisme pour ne pas recevoir des ordres de retraits impossibles à satisfaire en pratique » ajoute LQDN. […]
";s:7:"dateiso";s:15:"20190422_120000";}s:15:"20190421_130000";a:7:{s:5:"title";s:92:"[NextINpact] Caméras, drones, micros… Quand Saint-Étienne rêve de tranquillité urbaine";s:4:"link";s:122:"https://www.laquadrature.net/2019/04/21/nextinpact-cameras-drones-micros-quand-saint-etienne-reve-de-tranquillite-urbaine/";s:4:"guid";s:122:"https://www.laquadrature.net/2019/04/21/nextinpact-cameras-drones-micros-quand-saint-etienne-reve-de-tranquillite-urbaine/";s:7:"pubDate";s:31:"Sun, 21 Apr 2019 11:00:00 +0000";s:11:"description";s:229:"La Quadrature du Net a obtenu tout un lot de documents concernant le projet de Safe City rêvé par la ville de Saint-Étienne. Une ville intelligente, en passe d’être ultra sécurisée… jusqu’à flirter avec un…";s:7:"content";s:1663:"
La Quadrature du Net a obtenu tout un lot de documents concernant le projet de Safe City rêvé par la ville de Saint-Étienne. Une ville intelligente, en passe d’être ultra sécurisée… jusqu’à flirter avec un univers orwellien. […]
Aux yeux de la Quadrature du Net, qui s’inquiète de la question des données personnelles et de la passivité de la CNIL, l’analyse est beaucoup moins paisible : « on retrouve ici l’idéal, partagé par toutes ces expérimentations « Safe Cities », de la surveillance complète de l’espace public, à l’aide notamment de multiples outils dits « intelligents » ayant pour but de détecter chaque bizarrerie, chaque anormalité afin de les analyser et faciliter leur rapide annihilation ». […]
";s:7:"dateiso";s:15:"20190421_130000";}s:15:"20190421_120000";a:7:{s:5:"title";s:92:"[LeProgres] A Saint-Etienne, on envisage la surveillance de l’espace public par des drones";s:4:"link";s:127:"https://www.laquadrature.net/2019/04/21/leprogres-a-saint-etienne-on-envisage-la-surveillance-de-lespace-public-par-des-drones/";s:4:"guid";s:127:"https://www.laquadrature.net/2019/04/21/leprogres-a-saint-etienne-on-envisage-la-surveillance-de-lespace-public-par-des-drones/";s:7:"pubDate";s:31:"Sun, 21 Apr 2019 10:00:00 +0000";s:11:"description";s:280:"Plusieurs documents révélés par l’association de défense des droits et libertés des citoyens sur internet, « La Quadrature du Net », montrent que la municipalité envisage de faire appel à des drones afin de sécuriser certaines rues. […]
Une…";s:7:"content";s:1641:"
Plusieurs documents révélés par l’association de défense des droits et libertés des citoyens sur internet, « La Quadrature du Net », montrent que la municipalité envisage de faire appel à des drones afin de sécuriser certaines rues. […]
Une expérimentation qui ne devrait pas rassurer les défenseurs des libertés publiques, au premier titre de l’association à l’origine de la publication des documents, qui dénonce le « rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines. » […]
";s:7:"dateiso";s:15:"20190421_120000";}s:15:"20190420_130000";a:7:{s:5:"title";s:73:"[BursttheBubble] The GDPR and the GAFAM – interview with Arthur Messaud";s:4:"link";s:108:"https://www.laquadrature.net/2019/04/20/burstthebubble-the-gdpr-and-the-gafam-interview-with-arthur-messaud/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14062";s:7:"pubDate";s:31:"Sat, 20 Apr 2019 11:00:00 +0000";s:11:"description";s:213:"Today we introduce our mini-series on how the EU is influencing the use of the internet. In this episode we analyse the European regulation on data protection, the GDPR. With our guest Arthur Messaud, legal…";s:7:"content";s:1339:"
Today we introduce our mini-series on how the EU is influencing the use of the internet. In this episode we analyse the European regulation on data protection, the GDPR. With our guest Arthur Messaud, legal and political analyst at the French advocacy group « la Quadrature du Net« , we explore the link between the GDPR and the GAFAM, the top 5 companies operating in the digital market. (11 April 2018). […]
";s:7:"dateiso";s:15:"20190420_130000";}s:15:"20190420_110000";a:7:{s:5:"title";s:98:"[Usbek&Rica] Erratum : la question du futur de la démocratie est mal posée, merci de reformuler";s:4:"link";s:130:"https://www.laquadrature.net/2019/04/20/usbekrica-erratum-la-question-du-futur-de-la-democratie-est-mal-posee-merci-de-reformuler/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14063";s:7:"pubDate";s:31:"Sat, 20 Apr 2019 09:00:00 +0000";s:11:"description";s:251:"Comment répondre à la question « Quelle politique pour le numérique ? » si les termes du débat sont mal posés ? Voilà la conclusion tirée de deux jours passés sur les bancs de l’assemblée fictive du Grand Barouf…";s:7:"content";s:2171:"
Comment répondre à la question « Quelle politique pour le numérique ? » si les termes du débat sont mal posés ? Voilà la conclusion tirée de deux jours passés sur les bancs de l’assemblée fictive du Grand Barouf Numérique, un événement de la Métropole Européenne organisé avec Ouishare et POP. C’est parti pour une correction en bonne et dûe forme de notre copie… et du dictionnaire. […]
Le moins qu’on puisse dire, c’est que ces deux journées de grand barouf ont fait siffler les oreilles des GAFA – ou GAFAM -. Et la timide incursion de la Directrice des politiques publiques Google France, Elisabeth Bargès, arguant que “le G de GAFA” n’est pas un géant comme les autres n’aura pas suffit à calmer les véhémences. Malgré tout, plusieurs voix se sont faites entendre pour essayer de retourner un problème posé de manière a priori trop simpliste. « Nous sommes sujets à une sorte de schizophrénie » explique le co-fondateur de la Quadrature du NetBenjamin Bayart. « On veut retirer du pouvoir à Facebook, mais dans le même temps, on attend de lui qu’il fasse la police sur nos contenus. En lui demandant cela, on lui confère un pouvoir régalien – de surveillance et de sanction -, alors qu’il ne devrait qu’appliquer des décisions de justice. On ne peut pas à la fois lui donner du pouvoir et chercher à lui en retirer ». De quoi renvoyer tout le monde à ses responsabilités. […]
";s:7:"dateiso";s:15:"20190420_110000";}s:15:"20190416_153718";a:7:{s:5:"title";s:75:"Dernière chance pour le Parlement européen de rejeter la censure de masse";s:4:"link";s:114:"https://www.laquadrature.net/2019/04/16/derniere-chance-pour-le-parlement-europeen-de-rejeter-la-censure-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14055";s:7:"pubDate";s:31:"Tue, 16 Apr 2019 13:37:18 +0000";s:11:"description";s:257:"Demain 17 avril, l’ensemble des députés européens voteront sur le règlement de censure antiterroriste. L’adoption de ce règlement ouvrirait les portes de la censure politique, de masse et sans-contrôle et détruirait le Web libre et…";s:7:"content";s:3920:"
Demain 17 avril, l’ensemble des députés européens voteront sur le règlement de censure antiterroriste. L’adoption de ce règlement ouvrirait les portes de la censure politique, de masse et sans-contrôle et détruirait le Web libre et ouvert (lire notre analyse complète).
Alors que La Quadrature appelle toujours au rejet total de ce texte inutile (voir la lettre envoyée la semaine dernière), de nouveaux amendements pourraient réduire un peu les dommages causés dans le cas où il ne serait pas entièrement rejeté (lire tous les amendements déposés ainsi que nos recommandations de vote).
Délai d’une heure
Les Verts, GUE et S&D (les trois groupes de gauche du Parlement) ont déposé des amendements qui supprimeraient l’obligation de retirer « en une heure » les contenus signalés par les autorités publiques. Tel que nous l’avons toujours expliqué, un délai aussi court est irréaliste pour toute plateformes du Web, si ce n’est les plus grosses. À moins que ce délai ne soit supprimé, les petites et moyennes plateformes devront cesser leurs activités ou se soumettre aux outils de modération de Facebook et Google.
Nous appelons les députés européens à adopter les amendements suivants, qui pourraient sauver le Web libre et ouvert de la destruction en supprimant ce délai absurde : amendements 156, 157, 158, 159, 160, 161, 162, 164.
Censure politique
En dépit de nos appels, aucun groupe politique n’a proposé d’amendement prévoyant que seuls les juges (et non la police) puissent exiger qu’une plateforme supprime un contenu qu’ils considèrent « terroriste ». Chaque député européen doit être tenu responsable de cette violation de la séparation des pouvoirs, qui ne conduira qu’à de graves censures politiques (telles qu’on a déjà pu constater en France).
La dernière chance pour remporter ce combat serait d’obtenir le rejet complet de ce règlement. En cas de défaite, nous n’oublierons jamais que l’ensemble des groupes politiques du Parlement européen ont renoncé à nous protéger contre les dérives des gouvernements.
Filtres automatiques
Un autre combat pourrait toutefois être remporté. La semaine dernière, la commission LIBE (pour « libertés civiles ») a refusé que les autorités puissent exiger aux plateformes d’utiliser des outils de filtrage automatisé. LIBE a aussi refusé de soumettre ces plateformes à une obligation générale de mettre en place des « mesures proactives » ou à ce qu’elles reçoivent des « signalement » qui les obligeraient à vérifier elles-mêmes qu’un contenu n’est pas « terroriste ».
Le PPE (le principal groupe politique de droite) a proposé des amendements pour revenir sur la plupart de ces nouvelles protections. S’agissant de cette partie du texte, les députés européens doivent catégoriquement refuser tout nouveau changement et garder le texte tel qu’adopté par LIBE. Concrètement, ils doivent adopter les amendements suivants déposés par la commission LIBE : 18D, 66, 83D, 85, 86D, 88.
Nous serons à Strasbourg demain pour suivre le vote et vous tenir informé·es.
";s:7:"dateiso";s:15:"20190416_153718";}s:15:"20190415_192055";a:7:{s:5:"title";s:73:"Mouchards et drones à Saint-Etienne : le maire veut étouffer le débat";s:4:"link";s:107:"https://www.laquadrature.net/2019/04/15/mouchards-et-drone-a-saint-etienne-le-maire-veut-etouffer-le-debat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=14000";s:7:"pubDate";s:31:"Mon, 15 Apr 2019 17:20:55 +0000";s:11:"description";s:270:"La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent…";s:7:"content";s:22022:"
La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent la ville sous-surveillance telle que fantasmée par son maire, Gaël Perdriau.
Au début du mois de mars, nous apprenions que la mairie de Saint-Étienne prévoyait d’installer, au titre d’une expérimentation, plusieurs dizaines de microphones dans un quartier de la ville afin d’en capter les « bruits suspects » et d’aider à l’intervention plus rapide des services de police.
Cette expérimentation ressemblant fortement aux projets de Smart Cities sécuritaires que nous dénonçons depuis plus d’un an, nous avons aussitôt fait une demande de communication des documents administratifs, nous adressant non seulement à la ville mais aussi la CNIL qui avait été abondamment citée dans les articles de presse. Il y a une semaine, nous avons eu les réponses à nos demandes. Tandis que la CNIL nous indique n’avoir rien à nous transmettre, la ville de Saint-Étienne nous a communiqué plus de deux cent pages de rapports, compte-rendus de réunions, courriers électroniques que nous publions ici (après un peu de caviardage pour protéger les données personnelles – voir la liste à la fin de l’article).
Ces documents permettent bien de dévoiler la « Safe City » telle que fantasmée par le maire Les Républicain de la ville, Gaël Perdriau : capteurs sonores couplés à la vidéosurveillance, drones automatisés, application type « Reporty » … le tout sous couvert de « tranquillité urbaine », d’ « attractivité du territoire » et surtout d’ « innovation technologique ». Ces documents mettent en lumière les similitudes que nous commençons à percevoir entre ces différents projets : surveillance accrue et déshumanisation de l’espace public, transformation de la ville en un terrain d’expérimentation pour des sociétés privées (ici Verney-Carron, une société spécialisée dans l’armement), subventionnement public de ces nouvelles technologies sécuritaires (ici par l’intermédiaire surprenant de l’ANRU – « Agence nationale pour la rénovation urbaine »), caractère secret et volontairement opaque de leur mise en place…
Retour en détails sur ce projet.
Des micros et des drones pour Saint-Étienne
Au travers des documents, on apprend donc que, conformément à ce qui avait été annoncé dans la presse, la mairie de Saint-Étienne souhaite procéder, au cours de l’année 2019 (sûrement quelque part entre avril et mai) à une expérimentation de type « Safe City » dans l’un de ses quartiers (celui de Tarentaize-Beaubrun-Couriot – quartier joliment qualifié de « Quartier de reconquête républicaine » dans le dispositif de « Police de sécurité du quotidien »).
Elle consisterait en la pose de « capteurs sonores » (le terme de micro est soigneusement évité tout au long des documents) dont l’ « intelligence » permettra de générer une alerte dès lors qu’ils détecteront certains types d’ « anormalités sonores » (la liste est impressionnante : coups de feu, cris, perceuse, meuleuse, klaxons, coups de sifflet, bombes aérosols, crépitements… – au point où on se demande quels bruits ne déclencheront pas d’événement). L’alerte sera remontée jusqu’à une plateforme centralisée à la disposition de la police qui pourra utiliser le système de vidéosurveillance et vérifier, par exemple, si le déplacement d’une patrouille est nécessaire ou non.
Les données collectées serviraient par ailleurs à alimenter la plateforme déjà mise en œuvre par Suez dans le cadre du projet « Digital Saint-Étienne » ; cela afin « d’expérimenter les conditions d’enregistrement et de mise en forme des évènements collectés en vue de la visualisation sur carte de ceux-ci pour constituer un outil d’aide à la décision concernant la tranquillité urbaine ».
Enfin, on apprend qu’à l’origine, le projet prévoyait en réalité deux phases : une première phase avec l’installation de ces capteurs et une seconde phase avec l’utilisation de drones « automatiques » équipés de caméras et utilisés pour la « levée de doute » des alertes, avec « visualisation rapide de la situation, permettant de mobiliser les moyens d’intervention adaptés à la situation » et qui « en cas de fuite des protagonistes (…) permettra un suivi et un guidage des forces au sol ». La création d’une application de dénonciation citoyenne type « Reporty » permettant aux habitants la « signalisation de problème » avait également été envisagée. Ces deux dernières idées, drones et application, ont néanmoins finies par être abandonnées (pour l’instant ?) au vu des nombreuses contraintes techniques et juridiques qui se posaient (les documents parlent d’une législation trop stricte avec nécessité d’un certificat de pilote, d’autorisation de la Préfecture et d’aléas météorologiques…)
Militariser l’espace public
On retrouve ici l’idéal, partagé par toutes ces expérimentations « Safe Cities », de la surveillance complète de l’espace public, à l’aide notamment de multiples outils dits « intelligents » ayant pour but de détecter chaque bizarrerie, chaque anormalité afin des les analyser et de faciliter leur rapide annihilation. Ici, c’est le rêve d’un quartier sans cris, sans bruits anormaux ou trop forts, sans tags : un quartier silencieux et débarrassé de toutes les extravagances humaines.
Quant aux réflexions abandonnées sur les drones, elles préfigurent le prochain outil phare des Smart Cities sécuritaires et dont l’utilisation a déjà commencé en France pour la surveillance des manifestations. Il faut voir l’excitation qui ressort des courriers que s’échangent les maires de Saint-Étienne et de Compiègne : dans une missive, le premier explique au second que « les drones sont un terrain d’expérimentation tout à fait pertinent auquel nombre de collectivités et d’entreprises s’intéressent » et où ils se désolent des nombreux freins qui mettent à mal leur projet. C’est d’ailleurs l’occasion pour le maire de Saint-Étienne de redéfinir son projet politique en déclarant : « Si les freins techniques doivent justement être résolus par l’innovation, il nous revient à nous, élus, de faire lever les freins administratifs et juridiques ». Un projet qui semble être soutenu par de nombreuses villes qui, s’appuyant notamment sur les propositions d’un rapport parlementaire, exigent des dérogations de survol au Ministère de l’Intérieur et réfléchissent, à l’image du maire de Saint-Étienne, à « la création d’un interlocuteur unique de lobbying sur cette question, de format associatif, [qui] pourrait représenter un levier intéressant s’agissait des échanges avec le gouvernement ». Une nouvelle association des maires de Safe Cities ?
Les réflexions sur l’intérêt ou les conséquences politiques de ces nouvelles technologies sécuritaires sont minces, si ce n’est inexistantes. Et, de toutes façons, qu’importe leur utilité car l’objectif affiché n’est pas là. Ce qui compte avant tout, c’est de faire passer Saint-Étienne pour une ville championne de l’innovation technologique, afin de développer la ville de demain » car le projet est « innovant, d’envergure nationale voire internationale ». D’ailleurs, dans cette course d’apparat entre villes concurrentes, il faut bien être la première car « le dispositif proposé n’est innovant que dans l’agencement de technologies existantes de manière inédites et dans le domaine d’application. Le critère Temps est donc essentiel puisque d’autre groupements travaillent actuellement sur des solutions proches »…
Et quitte pour cela à transformer la ville, comme c’est déjà le cas à Nice ou à Marseille, en un « territoire d’expérimentation » pour les sociétés privées qui participent au projet. Ici, c’est la société Serenicity, dirigée par Guillaume Verney-Carron, qui est également président de la société Verney-Carron, fabricant d’armes et de lanceurs de balles de défense type flash-ball (et à qui le maire donne du « cher Guillaume » et du « amicalement »). Cette société souhaitant « élargir son champ de compétence du militaire vers le civil », elle propose à la ville son nouvel attirail de surveillance, tout en se permettant de lui signaler que si elle ne se décidait pas assez vite, « ce projet sera très probablement réalisé dans une autre ville ».
Une ville durable (invivable)
Plus étonnant encore est le financement d’une partie du projet par l’ANRU, dans le cadre du « Programme d’investissement d’Avenir Ville et territoires durables ». Ce programme est originellement destiné à « permettre l’augmentation du reste pour vivre des habitants, en contribuant à la diminution des dépenses contraintes, et le renforcement de l’attractivité des quartiers prioritaires de la politique de la ville présentant les dysfonctionnements urbains les plus importants ». On pourrait alors se demander ce que vient faire l’ANRU dans l’installation des micros et des drones. La justification fournie par la mairie est la suivante :
L’agrégation de technologies encore innovantes dans le volet de la « smartcity », plus particulièrement la « safecity », comme l’internet des objets, l’utilisation de drones et de systèmes informatiques sécurisés permet d’envisager la résorption du déficit d’attractivité du quartier. En agissant avec une certaine discrétion tout d’abord sur la détection d’évènements sur l’espace public, puis sur sa prise en charge et enfin, sur son suivi à distance durant le temps d’arrivée des équipages préparés au problème, le sentiment de sécurité sur ce quartier sensible sera fortement amélioré ».
La sécurité et la surveillance deviennent ainsi composantes de la rénovation urbaine, juste bonne à sur-policiariser ces quartiers et à « sécuriser » les politiques de gentrification.
Néanmoins, les organisateurs du projet se doutent que cette explication ne passera pas pour tout le monde car, malheureusement pour eux, ils reconnaissent que « le sujet est très sensible en matière de communication ».
Une ville sur écoute
Raison pour laquelle on assiste, au long des réunions, à la recherche d’un nom de projet rassembleur et tranquillisant : on ne parle pas de sécurité mais de « tranquillité urbaine », on ne parle pas de micros et de drones mais de « S.O.F.T. : Saint-Etienne Observatoire des Fréquences du Territoire ». Raison pour laquelle il est aussi explicitement déclaré que « il n’y aura pas de communication avec le grand public. Globalement, dans un premier temps l’objectif est l’expérimentation, puis dans un second temps, une communication adaptée sera mise en place ». Raison pour laquelle le premier communiqué de presse en novembre 2018 reste très flou, mentionnant une « expérimentation visant à tester des solutions numériques pour améliorer la qualité de vie des citoyens ». Il a d’ailleurs pour sous-titre « Vers un territoire bienveillant ». La novlangue n’a plus de limite.
Quid des données personnelles ?
Le sujet est évoqué rapidement tout au long du projet, plus comme un de ces « freins administratifs et juridiques » que pour tenter d’évaluer lucidement la légalité du projet. Après quelques notes et demandes faites à la CNIL, il est décidé de ne pas enregistrer les bruits captés et de se limiter à « la détection d’évènements sonores » : « seules les données d’évènement comprenant le numéro du capteur, la date et l’heure de l’évènement et l’identifiant de l’évènement seront transmises ». Ce qui justifierait que CNIL ait ensuite été écartée du projet.
Mais ce qui n’est pas clair dans cette histoire, c’est que la CNIL nous a pourtant affirmé qu’elle ne détenait aucun document sur ce projet. Et elle n’a apporté aucun démenti aux articles de presse qui prétendaient qu’elle avait donné son accord au projet.
Concernant l’interdiction d’enregistrer des sons, il ressort des diapositives de présentation du projet qu’elle ne sera effective que dans le cadre de la « phase 1 » et que, « en vue de possibles demandes d’enregistrement dans le cadre d’enquête, une collaboration avec la CNIL est programmée afin d’intégrer leur réponse dans la solution technique ». C’est là qu’est tout le problème : une fois ces micros installés, par une société privée d’armement, qui contrôlera l’usage qui en sera fait ? Qui préviendra les habitants si l’on passe en « Phase 2 » et qu’on met un route un système d’enregistrement des conversations dans la ville ? Ou qu’on ne les utilisera pas un jour pour détecter des cibles par leur signature vocale ? Ce ne serait pas la première fois que ce type d’outils de détection sonore connaîtrait des dérives liberticides.
Pour résumer :
– On assiste à l’alliance entre élus locaux et industriels de la sécurité et de l’armement qui dépense l’argent public en s’abritant de tout débat public ;
– Pour mettre nos villes et nos vies sous surveillance — vieux fantasme du contrôle social par la technologie ;
– L’innovation et l’ « attractivité urbaine » servent à masquer la sur-policiarisation et la discrimination, avec le concourt de l’Agence de la rénovation urbaine ;
– Tandis que des autorités, comme la CNIL, laissent faire.
Il est temps d’arrêter ce délire, non ?
—
Liste des documents qui nous ont été communiqués :
";s:7:"dateiso";s:15:"20190415_192055";}s:15:"20190415_140000";a:7:{s:5:"title";s:82:"[LADN] Les écrans publicitaires vous espionnent, mais vous pouvez les embrouiller";s:4:"link";s:119:"https://www.laquadrature.net/2019/04/15/ladn-les-ecrans-publicitaires-vous-espionnent-mais-vous-pouvez-les-embrouiller/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13995";s:7:"pubDate";s:31:"Mon, 15 Apr 2019 12:00:00 +0000";s:11:"description";s:300:"Des écrans publicitaires récoltent l’adresse des smartphones des passants afin de mesurer l’efficacité d’une pub. Le dispositif inquiète depuis quelques jours malgré sa légalité. Un codeur a développé un programme visant à gêner l’opération. […]
Ces explications…";s:7:"content";s:1683:"
Des écrans publicitaires récoltent l’adresse des smartphones des passants afin de mesurer l’efficacité d’une pub. Le dispositif inquiète depuis quelques jours malgré sa légalité. Un codeur a développé un programme visant à gêner l’opération. […]
Ces explications et l’autorisation de la Cnil n’empêchent pas certains internautes de continuer à protester contre le dispositif, qui demeure pour certains une menace à la vie privée. Un codeur (visiblement membre de l’association La Quadrature du net) a créé un programme en open-source sur la plate-forme Framagit dans le but de gêner le comptage de Retency. Le code génère aléatoirement une adresse MAC et l’envoie automatiquement à Retency via son formulaire. « Le but est de générer un maximum d’adresses à exclure de l’opération de Retency. C’est une forme de protestation», explique l’un des codeurs ayant contribué au code (en le corrigeant). […]
";s:7:"dateiso";s:15:"20190415_140000";}s:15:"20190415_110000";a:7:{s:5:"title";s:90:"[FranceCulture] Des billets de train via Facebook : vers une révolution du e-commerce ?";s:4:"link";s:122:"https://www.laquadrature.net/2019/04/15/franceculture-des-billets-de-train-via-facebook-vers-une-revolution-du-e-commerce/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13996";s:7:"pubDate";s:31:"Mon, 15 Apr 2019 09:00:00 +0000";s:11:"description";s:276:"Facebook propose désormais à ses 35 millions d’utilisateurs français d’acheter directement sur son service de messagerie Messenger des billets de train SNCF. Une tendance qui devrait rapidement s’étendre à de nombreux réseaux sociaux, lancés à…";s:7:"content";s:1925:"
Facebook propose désormais à ses 35 millions d’utilisateurs français d’acheter directement sur son service de messagerie Messenger des billets de train SNCF. Une tendance qui devrait rapidement s’étendre à de nombreux réseaux sociaux, lancés à l’assaut du e-commerce. […]
Pour le moment en France, les informations bancaires sont uniquement communiquées à la marque, en l’occurrence la SNCF, et non pas à Facebook. Juste une question de temps pour Klorydryk, membre de La Quadrature du Net. « C’est tout à fait habituel de voir des plateformes changer les règles du jeu une fois qu’ils sont rentrés dans le quotidien des gens. Et quand Facebook va d’imposer que le paiement passe par chez eux ou bien une commission, la SNCF va déchanter puisque les utilisateurs auront pris leurs habitudes, et il sera très dur de revenir en arrière » explique-t-il. […]
";s:7:"dateiso";s:15:"20190415_110000";}s:15:"20190413_150000";a:7:{s:5:"title";s:115:"[AligreFM] Voix contre oreille # 27 mars 2019 – Les géants du web refusent de se soumettre aux lois européennes";s:4:"link";s:146:"https://www.laquadrature.net/2019/04/13/aligrefm-voix-contre-oreille-27-mars-2019-les-geants-du-web-refusent-de-se-soumettre-aux-lois-europeennes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13994";s:7:"pubDate";s:31:"Sat, 13 Apr 2019 13:00:00 +0000";s:11:"description";s:287:"Les géants du web refusent de se soumettre aux lois européennes
Exploitation des données personnelles, Surveillance, Influence, Evasion fiscale, Captation des contenus, décidément , les G A F A M ont tendance à faire leurs propres lois.
On savait déjà…";s:7:"content";s:1506:"
Les géants du web refusent de se soumettre aux lois européennes
Exploitation des données personnelles, Surveillance, Influence, Evasion fiscale, Captation des contenus, décidément , les G A F A M ont tendance à faire leurs propres lois.
On savait déjà que les GAFAM ne paient pas leurs impôts mais également en matière de protection des données personnelles, ils ne respectent pas les règles européennes.
";s:7:"dateiso";s:15:"20190413_150000";}s:15:"20190413_140000";a:7:{s:5:"title";s:87:"[ReporTerre] Au nom de la lutte anti-terroriste, l’Europe menace de censurer Internet";s:4:"link";s:122:"https://www.laquadrature.net/2019/04/13/reporterre-au-nom-de-la-lutte-anti-terroriste-leurope-menace-de-censurer-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13993";s:7:"pubDate";s:31:"Sat, 13 Apr 2019 12:00:00 +0000";s:11:"description";s:262:"Le Parlement européen se prononcera lundi 1er avril sur le règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Les auteurs de cette tribune soulignent que l’interprétation juridique très…";s:7:"content";s:2491:"
Le Parlement européen se prononcera lundi 1er avril sur le règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Les auteurs de cette tribune soulignent que l’interprétation juridique très large du terme « terroriste » fait de ce texte un outil liberticide, qui rejoindrait l’arsenal de la « censure politique » que fabrique le gouvernement.
Marne est militante de La Quadrature du Net. Cette association défend les libertés fondamentales dans l’environnement numérique. L’association lutte contre la censure et la surveillance, que celles-ci viennent des États ou des entreprises privées. Elle œuvre pour un Internet libre, décentralisé et émancipateur. […]
";s:7:"dateiso";s:15:"20190413_140000";}s:15:"20190412_151946";a:7:{s:5:"title";s:62:"Lettre aux députés européens : rejetez la censure de masse";s:4:"link";s:97:"https://www.laquadrature.net/2019/04/12/lettre-aux-deputes-europeens-rejetez-la-censure-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13987";s:7:"pubDate";s:31:"Fri, 12 Apr 2019 13:19:46 +0000";s:11:"description";s:237:"Hier, La Quadrature du Net a envoyé aux 751 députés européens la lettre traduite ci-dessous.
Nous les appelons à rejeter le règlement de censure terroriste qui, en plus d’être inutile, ouvrira les portes de la censure…";s:7:"content";s:8459:"
Hier, La Quadrature du Net a envoyé aux 751 députés européens la lettre traduite ci-dessous.
Nous les appelons à rejeter le règlement de censure terroriste qui, en plus d’être inutile, ouvrira les portes de la censure de masse, conduisant vers la censure politique et la destruction de l’Internet pour lequel nous nous battons. Dans la perspective où le texte ne serait pas entièrement rejeté, nous les appelons à corriger au moins ses pires parties.
Après l’adoption par la commission LIBE de son rapport lundi dernier (lire notre réaction), le règlement sera voté en première lecture par l’ensemble des députés européens ce 17 avril à 17h (voir le projet de calendrier).
Si le Parlement devait adopter le texte, le débat se poursuivrait probablement dans les quelques mois après les élections européennes : le Conseil de l’UE (qui rassemble les gouvernements de tous les États membres) et le Parlement européen devraient chercher un compromis entre le texte adopté par chacun d’eux en première lecture (lire notre réaction au texte adopté par le Conseil en décembre dernier).
Avant cela, rejoignez-nous et contactez les députés européens via notre page de campagne ! (la page existe aussi en allemand et en anglais) La grande majorité des députés n’ont encore jamais vraiment entendu parler de ce texte : chacune de nos voix sera décisive pour façonner leur opinion et les alerter.
Censure Terroriste : rejetez la censure de masse
Chers députés européens,
La semaine prochaine, vous voterez le règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce texte est sur le point d’ouvrir les portes de la censure de masse et sans contrôle, qui conduira (et a déjà conduit) à la censure politique et à la destruction de l’écosystème numérique européen, au profit de Google et Facebook.
Ce règlement n’aidera pas à lutter contre la propagande terroriste : les personnes qui défendent des idéologies meurtrières se réunissent sur des plateformes qui comptent déjà violer et contourner nos lois et qui ne se soumettront jamais aux demandes de retrait. Lorsque leur propagande atteint les autres plateformes, les solutions techniques pour empêcher leur mise en ligne et leur propagation ont déjà démontré être un échec : même Facebook et Google n’ont pas pu arrêter la propagation sur leur plateforme de la vidéo de l’attaque de Christchurch.
Ce règlement ne mènera qu’à promouvoir des solutions techniques dangereuses et inutiles. Les idéologies meurtrières ne peuvent être combattues que par des changements structurels et sociétaux.
Pour l’ensemble de ces raisons, La Quadrature vous appelle à rejeter ce texte.
Dans la perspective où il ne pourrait pas être entièrement rejeté, trois choses devraient au minimum être faites avant le vote final.
1 – Supprimez le délai d’une heure pour retirer les contenus
Seuls les géants du Web ont les capacités humaines et techniques pour retirer « en une heure » des contenus qui leur seraient notifiés. Les plateformes non-lucratives et les petites et moyennes entreprises n’ont pas la capacité de répondre 24h/24 et 7j/7 à ces demandes (car elles n’ont pas de personnel travaillant tous les jours ni 24h/24), ni d’identifier et de retirer les contenus dans un délai si court.
La seule possibilité pour ces acteurs de ne pas se retrouver en violation systématique de ce règlement (et de risquer des lourdes amendes financières) sera de mettre fin à leurs activités ou de retirer tout contenu « problématique » à l’avance en utilisant les outils de filtrage automatique développés par Google et Facebook.
Ces outils mèneront au contournement du juge et à la censure politique. Ils donneront à Google et à Facebook d’immenses pouvoirs économiques, techniques et politiques sur l’écosystème numérique européen. Votre devoir est précisément de protéger cet écosystème contre de tels prédateurs.
La Quadrature du Net vous appelle à adopter tout amendement supprimant ce délai d’ « une heure ».
2 – Exigez que seul un juge puisse ordonner un retrait
La proposition de règlement autoriserait des autorités administratives à ordonner à toute plateforme du Web le retrait d’un contenu qu’elle considérerait comme « terroriste ».
La loi française autorise déjà ce type de mesures, ce qui a permis à la police française d’utiliser le prétexte du « terrorisme » pour censurer des contenus politiques qui n’avaient rien à voir avec le terrorisme (les juges n’ont pu déclarer cette censure comme étant illégale que 1,5 an après l’ordre de retrait). De la même manière, durant ces dernières semaines, le site Internet Archive a listé 550 URLs qu’Europol et la police française lui ont faussement notifiés comme étant de la propagande terroriste.
C’est pourquoi de tels ordres de retrait ne devraient être émis que par un juge, et non aussi par une « autorité administrative fonctionnellement indépendante », comme cela est pourtant permis dans le rapport LIBE. Une telle définition permettrait à la police française, l’OCLCTIC, d’être désignée comme une telle autorité et de poursuivre ses demandes de censure illégales et non contrôlées.
La Quadrature du Net vous appelle à adopter tout amendement qui rendrait obligatoire la décision préalable d’un juge avant tout ordre de retrait.
3 – Respectez l’interdiction des outils automatisés votée par LIBE
Vos collègues de la Commission LIBE ont amendé avec sagesse l’article 6, en refusant que des autorités publiques puissent imposer à des plateformes l’usage d’outils de filtrage automatisé.
Ces outils informatiques, développés par Google et Facebook, ont prouvé leur inutilité face à une propagande humaine organisée, comme celle qui a eu lieu sur leurs plateformes lors de la diffusion de la vidéo de l’attaque de Christchurch. D’un autre côté, ces outils ont également démontré conduire systématiquement à une large censure de contenus parfaitement licites, et ont même nuit à des discours visant à lutter contre ces idéologies meurtrières.
Pour ces raisons, la Commission LIBE a également fait inscrire à l’article 9 l’obligation pour les plateformes de prévoir une vérification humaine avant le retrait de chaque contenu illicite.
La Quadrature du Net vous appelle à rejeter tout amendement qui supprimerait ces garanties nécessaires à nos droits fondamentaux, telles qu’adoptées par la Commission LIBE dans son rapport.
";s:7:"dateiso";s:15:"20190412_151946";}s:15:"20190408_171452";a:7:{s:5:"title";s:77:"Le Parlement européen valide la censure de masse (Règlement antiterroriste)";s:4:"link";s:114:"https://www.laquadrature.net/2019/04/08/le-parlement-europeen-valide-la-censure-de-masse-reglement-antiterroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13917";s:7:"pubDate";s:31:"Mon, 08 Apr 2019 15:14:52 +0000";s:11:"description";s:214:"La Commission LIBE (pour « Libertés civiles ») vient d'adopter le rapport sur le règlement de censure antiterroriste. Ce rapport sera le texte discuté dans quelques jours par l'ensemble du Parlement européen.";s:7:"content";s:4417:"
La Commission LIBE (pour « Libertés civiles ») vient d’adopter le rapport sur le règlement de censure antiterroriste. Ce rapport sera le texte discuté dans quelques jours par l’ensemble du Parlement européen.
Le texte, tel qu’adopté1Le rapport adopté aujourd’hui n’est pas encore publié mais correspond presque entièrement à ces amendements de compromis., prévoit qu’une autorité d’un État membre (administrative ou judiciaire) peut obliger n’importe quel acteur de l’Internet à retirer en une heure un contenu qu’elle considère comme terroriste. Cette obligation irréaliste aura pour conséquence la destruction des petites et moyennes plateformes. Elle ne fera que renforcer la domination de Google et Facebook qui travaillent déjà avec les États pour mettre en place une censure de masse sans contrôle – c’est le but même de ce règlement proposé en septembre dernier par la Commission européenne.
Encore une fois, le Parlement européen a prouvé qu’il était incapable de résister à la pression de la Commission européenne et des gouvernements. Après l’adoption de la directive Copyright il y a deux semaines, ce vote est une nouvelle étape, encore plus grave, vers la censure de masse automatisée.
Le prochain vote pourrait être dès la semaine prochaine, durant la dernière session plénière du Parlement européen. Notre combat n’est donc pas fini : la plupart des députés européens ne sont pas encore au courant de ce règlement. Nous devons les appeler dès demain pour leur faire entendre nos arguments.
Visitez notre page dédiée pour les contacter et les convaincre de refuser la censure de masse.
Le rapport adopté aujourd’hui n’est pas encore publié mais correspond presque entièrement à ces amendements de compromis.
";s:7:"dateiso";s:15:"20190408_171452";}s:15:"20190405_140000";a:7:{s:5:"title";s:113:"[Regards] Benjamin Sonntag : « La directive droit d’auteur inscrit dans le droit la censure automatisée »";s:4:"link";s:137:"https://www.laquadrature.net/2019/04/05/regards-benjamin-sonntag-la-directive-droit-dauteur-inscrit-dans-le-droit-la-censure-automatisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13837";s:7:"pubDate";s:31:"Fri, 05 Apr 2019 12:00:00 +0000";s:11:"description";s:319:"La directive droit d’auteur a été adoptée hier au Parlement européen. Avec quelles conséquences ? Une alternative était-elle possible ? Est-elle toujours possible ? Benjamin Sonntag, co-fondateur de Quadrature du Net, est l’invité de la Midinale. […]
« Il faut écouter…";s:7:"content";s:1410:"
La directive droit d’auteur a été adoptée hier au Parlement européen. Avec quelles conséquences ? Une alternative était-elle possible ? Est-elle toujours possible ? Benjamin Sonntag, co-fondateur de Quadrature du Net, est l’invité de la Midinale. […]
« Il faut écouter les citoyens qui se mobilisent et réfléchissent aux enjeux du numérique et des plateformes et qui disent : “vous êtes en train d’apporter une mauvaise réponse à un faux problème”. » […]
";s:7:"dateiso";s:15:"20190405_140000";}s:15:"20190405_120259";a:7:{s:5:"title";s:74:"Au nom de la lutte anti-terroriste, l’Europe menace de censurer Internet";s:4:"link";s:111:"https://www.laquadrature.net/2019/04/05/au-nom-de-la-lutte-anti-terroriste-leurope-menace-de-censurer-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13899";s:7:"pubDate";s:31:"Fri, 05 Apr 2019 10:02:59 +0000";s:11:"description";s:238:"Nous republions la tribune de Marne dans Reporterre Dans un contexte où la stratégie globale des dirigeants est d’assimiler toute forme d’opposition à des extrémistes, des casseurs, des haineux et des violents, la figure du…";s:7:"content";s:12087:"
Nous republions la tribune de Marne dans Reporterre.
Depuis les attentats de 2015, la lutte contre le terrorisme est devenue un sujet majeur dans le jeu de la politique. Dans un pays où les élites se plaignent d’une défiance de plus en plus grande du peuple à l’égard des dirigeants et des médias, « le terroriste » représente l’ennemi commun idéal contre lequel se serrer les coudes. Du Parti socialiste au Rassemblement national, une grande partie du spectre politique surfe sur cette vague de peur, entretenue par certains médias généralistes, proposant coup sur coup : déchéance de nationalité, inscription de l’état d’urgence dans le droit commun, fermeture des frontières, interdictions de manifestation, assignations à résidence…
En mai prochain auront lieu les élections européennes, occasion pour ces « antiterroristes » de tous bords de se réveiller et de faire la démonstration de leur capacité à lutter farouchement contre l’insécurité. Emmanuel Macron n’est pas en reste, en poussant une loi européenne de censure de contenus terroristes sur Internet. À la suite de cet appel du pied, la Commission européenne a donc publié en septembre dernier une proposition de règlement — c’est-à-dire une loi directement applicable dans les États membres de l’union — « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Le texte est actuellement en discussion au Parlement, le vote décisif aura lieu le 1er avril.
Il n’a pas échappé aux Gafam qu’un gigantesque marché de la modération s’ouvrait
Pour atteindre ses objectifs, le règlement prévoit de mobiliser tous les acteurs d’Internet, du petit forum associatif aux gros réseaux sociaux en passant par un média comme Reporterre. Tous devront s’engager dans la bataille contre le terrorisme, et mettre en place des mesures pour censurer automatiquement les fameux « contenus à caractère terroriste ». Censurer de manière automatique signifie, au choix : développer des méthodes de reconnaissance automatique des contenus terroristes, ce qui est très coûteux (et aléatoire) ; ou avoir recours aux outils de modération que proposeront les Gafam, auxquels il n’a pas échappé qu’un gigantesque marché de la modération s’ouvrait.
Si un acteur ne censure pas un tel contenu, la police ne manquera pas de le lui signaler. Il devra alors retirer ce contenu en moins d’une heure. Cela impose à ces acteurs, souvent des associations ou de petits médias, d’avoir une personne disponible, tous les jours et à toute heure, pour obéir aux ordres de la police.
Autre point frappant dans ce texte, c’est le contournement du juge, normalement seul en mesure de déterminer si un contenu est terroriste ou non. Ici, ce sont les acteurs d’Internet qui sont désignés censeurs officiels. Dans le cas où ils ne seraient pas suffisamment stricts, la police pourra également utiliser son droit de censure. Afin de motiver les acteurs à ne pas être trop laxistes, le règlement prévoit des sanctions pénales et une amende pouvant atteindre jusqu’à 4 % de son chiffre d’affaires mondial à celui qui ne respecterait pas ces obligations.
L’opposition à l’aéroport de Notre-Dame-des-Landes, un « acte terroriste » selon la définition européenne
Venons-en au fondement sur lequel nos censeurs doivent s’appuyer pour censurer : il s’agit de la définition d’« infractions terroristes » données par le droit de l’Union européenne. Elle concerne les meurtres ayant pour objectif de terroriser la population mais égrène également une longue liste d’exemples d’« infractions terroristes ». Liste au sein de laquelle le fait de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables » ou encore de “gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays » sont considérés comme autant d’actes terroristes. La simple menace de commettre de tels actes entre également dans la définition.
Dans un contexte où la stratégie globale des dirigeants est d’assimiler toute forme d’opposition à des extrémistes, des casseurs, des haineux et des violents, la figure du terroriste se révèle bien pratique. Nous sommes maintenant bien habitués à entendre parler de terrorisme d’« ultragauche » qui intercepte des lignes de TGV, de terrorisme végane qui vandalise les boucheries, de terrorisme vert qui occupe des centrales nucléaires.
L’occupation de la Zad de Notre-Dame-des-Landes empêchant de construire un aéroport a des conséquences économiques, et c’est une action qui vise à « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque », un des buts qui, selon le droit de l’Union européenne, pourrait permettre de qualifier un acte comme terroriste.
En avril 2018, après le retrait du projet d’aéroport à Notre-Dame-des-Landes, les occupants de la Zad étaient régulièrement qualifiés de terroristes sur les plateaux de télévision1Gérard Feldzer, membre de la mission de médiation sur l’aéroport de Notre-Dame-des-Landes, disait par exemple en parlant des actions des occupants toujours présents sur la Zad, « il y a un peu de terrorisme derrière ça »..
Cette interprétation de la notion de terrorisme peut sembler assez grotesque, pourtant, elle ne l’est pas au regard de la définition de terrorisme du droit de l’Union européenne. En effet l’occupation empêchant de construire cet aéroport a des conséquences économiques, et c’est une action qui vise à « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque », un des buts qui, selon le droit de l’Union européenne, pourrait permettre de qualifier un acte comme terroriste.
Ce règlement n’est qu’une partie de la machine à censure politique que construit le gouvernement
Avec une interprétation aussi large de cette définition, un appel à la grève générale ou au boycottage de certains produits pourrait également être considéré comme des « infractions terroristes ».
Après avoir rendu l’opposition politique inacceptable par le langage, elle est rendue illégale par le droit. Ce règlement n’est qu’une partie de la machine à censure politique que construit le gouvernement. La loi dite « anticasseurs » et la loi contre la haine en ligne, actuellement en préparation, sont construites dans la même logique. C’est en interdisant certaines actions politiques et en bridant la liberté d’expression de ses opposants qu’Emmanuel Macron entend garder le pouvoir.
La censure n’est qu’un élément de l’arsenal du pouvoir pour garder le contrôle d’un peuple qui ne le soutient plus. L’autre face de ce système répressif n’est autre que la surveillance. Surveillance et censure sont les deux principaux combats de La Quadrature du Net pour un Internet libre. C’est pourquoi elle appelle aujourd’hui les opposants au pouvoir en place et tous ceux qui veulent préserver un semblant de liberté d’expression sur Internet à appeler les députés européens chargés du texte pour leur demander de s’opposer à ce règlement de censure avant le 1er avril, date du vote en commission. Les numéros des députés et les arguments contre le texte sont sur le site de La Quadrature du Net.
Gérard Feldzer, membre de la mission de médiation sur l’aéroport de Notre-Dame-des-Landes, disait par exemple en parlant des actions des occupants toujours présents sur la Zad, « il y a un peu de terrorisme derrière ça ».
";s:7:"dateiso";s:15:"20190405_120259";}s:15:"20190405_120000";a:7:{s:5:"title";s:100:"[ActuaLitte] Directive droit d’auteur : auteurs, éditeurs, ministère, cette étrange unanimité";s:4:"link";s:126:"https://www.laquadrature.net/2019/04/05/actualitte-directive-droit-dauteur-auteurs-editeurs-ministere-cette-etrange-unanimite/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13838";s:7:"pubDate";s:31:"Fri, 05 Apr 2019 10:00:00 +0000";s:11:"description";s:215:"Très attendu ce 26 mars, le vote au Parlement européen de Strasbourg. Une journée historique pour la culture et l’Europe, indiquent les partisans du texte qui a été adopté. Et tout un chacun de saluer…";s:7:"content";s:1498:"
Très attendu ce 26 mars, le vote au Parlement européen de Strasbourg. Une journée historique pour la culture et l’Europe, indiquent les partisans du texte qui a été adopté. Et tout un chacun de saluer une réforme considérée comme équilibrée dans les règles d’utilisation des contenus culturels sur internet… […]
Il ne fallait en revanche pas attendre de la Quadrature du Net qu’elle cautionne l’adoption, et son discours fait douloureusement contrepoint — plus argumenté par ailleurs — aux réjouissances collectives. « Croyant agir au nom de la défense des auteurs et de la liberté de la presse, l’Union européenne vient au contraire de renforcer la dépendance de l’industrie de la culture et de la presse aux géants du Web, Google et Facebook en tête. » […]
";s:7:"dateiso";s:15:"20190405_120000";}s:15:"20190404_140000";a:7:{s:5:"title";s:116:"[Alterpresse68] Au parlement européen de Strasbourg, c’est “gardarem lou matraque” sur le droit d’auteur ?";s:4:"link";s:138:"https://www.laquadrature.net/2019/04/04/alterpresse68-au-parlement-europeen-de-strasbourg-cest-gardarem-lou-matraque-sur-le-droit-dauteur/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13839";s:7:"pubDate";s:31:"Thu, 04 Apr 2019 12:00:00 +0000";s:11:"description";s:267:"[…] A l’occasion de la session parlementaire du Parlement européen à Strasbourg, Luc Ueberschlag et Jeanne Roy se sont attachés à interroger des partisans et adversaires de la directive, dont les ramifications et conséquences pourraient être…";s:7:"content";s:1473:"
[…] A l’occasion de la session parlementaire du Parlement européen à Strasbourg, Luc Ueberschlag et Jeanne Roy se sont attachés à interroger des partisans et adversaires de la directive, dont les ramifications et conséquences pourraient être nombreuses, y compris pour votre journal électronique favori, dès lors que celle-ci sera transposée en droit français… […]
Tout comme Martin Drago, juriste auprès de l’association de défense du logiciel libre, et farouche partisan de la protection des données personnelles et de la vie privée, “La quadrature du net“ […]
";s:7:"dateiso";s:15:"20190404_140000";}s:15:"20190404_120000";a:7:{s:5:"title";s:89:"[FranceCulture] Droits d’auteur : ce qui change avec la nouvelle directive européenne";s:4:"link";s:121:"https://www.laquadrature.net/2019/04/04/franceculture-droits-dauteur-ce-qui-change-avec-la-nouvelle-directive-europeenne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13840";s:7:"pubDate";s:31:"Thu, 04 Apr 2019 10:00:00 +0000";s:11:"description";s:235:"Le Parlement européen a adopté ce mardi la directive sur les droits d’auteur, censée mieux rétribuer les médias et les artistes à l’ère du numérique. Ce texte, combattu par les grandes plateformes américaines et par…";s:7:"content";s:1742:"
Le Parlement européen a adopté ce mardi la directive sur les droits d’auteur, censée mieux rétribuer les médias et les artistes à l’ère du numérique. Ce texte, combattu par les grandes plateformes américaines et par les partisans de la liberté du net, doit entrer en vigueur dans les deux ans. […]
Mais les collectifs d’internautes ne sont pas rassurés pour autant et pointent du doigt les risques de dérives de cette directive. Seules les grandes plateformes vont avoir les moyens d’investir dans des mécanismes de filtrage de contenus qui sont extrêmement coûteux. Ce filtrage imposé par l’UE risque donc de donner encore plus de pouvoir aux plus grandes plateformes, qui dominent déjà internet. Des associations de défense des internautes, comme la Quadrature du net, critiquent ainsi “une directive Copyright qui sert de laboratoire aux logiques de censure automatisée”. […]
";s:7:"dateiso";s:15:"20190404_120000";}s:15:"20190403_140000";a:7:{s:5:"title";s:131:"[FranceInter] Réforme européenne du droit d’auteur : « Le principe de censure automatique devrait effrayer tout le monde »";s:4:"link";s:154:"https://www.laquadrature.net/2019/04/03/franceinter-reforme-europeenne-du-droit-dauteur-le-principe-de-censure-automatique-devrait-effrayer-tout-le-monde/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13841";s:7:"pubDate";s:31:"Wed, 03 Apr 2019 12:00:00 +0000";s:11:"description";s:256:"Après deux années de débat et de lobbying intense, le Parlement européen a adopté ce mardi un nouvel ensemble de règles régissant du droit d’auteur. Pour Benjamin Sonntag, cofondateur de l’association « La Quadrature du net« ,…";s:7:"content";s:1702:"
Après deux années de débat et de lobbying intense, le Parlement européen a adopté ce mardi un nouvel ensemble de règles régissant du droit d’auteur. Pour Benjamin Sonntag, cofondateur de l’association « La Quadrature du net« , opposée au texte, cette directive va porter atteinte aux libertés publiques.
Benjamin Sonntag (La Quadrature du net) – Elle présente un certain nombre de dangers, notamment de censure automatisée sur internet. Bien qu’elle ne s’applique qu’aux géants comme Google ou Facebook, on voit très régulièrement des lois s’élargir, deux ou trois ans après, à tout le monde. Cette directive européenne, comme elle applique une censure a priori aux contenus publiés par les internautes sur Youtube et Facebook, ça risque de concerner à terme toutes les plateformes, et d’imposer une charge énorme d’automatisation, de filtrage des contenus et de censure à de tous petits opérateurs. […]
";s:7:"dateiso";s:15:"20190403_140000";}s:15:"20190403_122109";a:7:{s:5:"title";s:83:"Règlement terroriste : derniers jours pour s’opposer à la censure d’Internet";s:4:"link";s:113:"https://www.laquadrature.net/2019/04/03/reglement-terroriste-derniers-jours-pour-sopposer-a-la-censure-dinternet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13849";s:7:"pubDate";s:31:"Wed, 03 Apr 2019 10:21:09 +0000";s:11:"description";s:240:"Lundi 8 avril, le projet de règlement sur la censure antiterroriste sera voté en commission LIBE au Parlement européen. Après déjà plusieurs reports du vote, les députés, toujours sous la pression de la Commission européenne…";s:7:"content";s:9598:"
Lundi 8 avril, le projet de règlement sur la censure antiterroriste sera voté en commission LIBE au Parlement européen. Après déjà plusieurs reports du vote, les députés, toujours sous la pression de la Commission européenne et de certains États membres, devraient cette fois adopter ce texte. Il ne reste donc que quelques jours pour les appeler et leur demander de le rejeter.
Présenté en septembre dernier par la Commission européenne, et soutenu de manière intensive par les gouvernements français et allemand, ce texte a parcouru les étapes de la procédure législative européenne à un rythme extrêmement rapide, si ce n’est expéditif : présenté en septembre par la Commission européenne, adopté par le Conseil de l’Union européenne début décembre, il est aujourd’hui dans les mains de la Commission LIBE (pour Libertés civiles) au Parlement européen, après la publication des rapports (décevants) des commissions saisis pour avis.
Un nouveau texte pour la censure automatisée
Prétendant lutter contre la « diffusion des contenus à caractère terroriste en ligne », le texte cherche à soumettre l’ensemble des acteurs de l’Internet à des obligations aussi strictes qu’absurdes. Ainsi, le règlement veut permettre à l’autorité de n’importe quel État membre de l’Union européenne (que ce soit la police ou une juridiction) de forcer un hébergeur à retirer en une heure un contenu que cette autorité aura considéré comme terroriste. Par ailleurs, le texte encourage et permet d’imposer la mise en place de mesures proactives pour lutter contre la diffusion de ces contenus, y compris des outils de filtrage automatique. Le tout sous la menace de lourdes sanctions financières.
Pour une présentation plus complète du texte, nous avons créé une page dédiée sur notre site.
Quelques jours à peine après l’adoption de la directive sur le droit d’auteur, qui est venue institutionnaliser le filtrage automatique pour une partie d’Internet, le Parlement européen est sur le point d’adopter (pour l’instant au niveau d’une commission) un nouveau texte liberticide, cette fois-ci à l’encontre de l’ensemble d’Internet. Cet objectif d’étendre les outils de filtrage automatisé développés par Google et Facebook à tous les acteurs n’est ici d’ailleurs pas dissimulé et est au contraire clairement apparu dès les premières discussions du texte (voir notre analyse détaillée). L’actualité récente a pourtant encore démontré l’absurdité à vouloir rendre obligatoires les outils développés par les grandes plateformes : si même ces dernières n’ont pas réussi à retirer (comme elles s’en vantaient pourtant) les contenus signalés suite à l’attentat de Christchurch en une ou vingt-quatre heures, qu’en aurait-il été, en cas d’adoption de ce texte, pour les petits acteurs de l’Internet qui n’ont pas les moyens financiers et humains de Facebook et Google ? Et cela alors qu’une partie du problème pourrait justement venir de la structure et du rôle de ces grandes plateformes dans la diffusion massive de ces contenus.
Néanmoins, l’urgence avec laquelle est poussée ce texte empêche toute réflexion de fond.
Toujours plus de pression
En effet, malgré ces nombreuses alertes, la Commission européenne et certains gouvernements continuent de mettre une pression toute sauf démocratique sur les députés. Les gouvernements français et allemand ont ainsi envoyé une lettre aux députés il y a deux semaines en énonçant :
« Il nous semble impératif de tout faire pour chercher à aboutir sur ce projet de texte dans les quelques jours devant nous avant la clôture des travaux parlementaires de l’actuelle législature du Parlement européen ».
Pour la Commission européenne, c’est encore plus étonnant : alors que le vote était encore prévu le 1er avril en Commission LIBE, Julian King, le commissaire européen en charge du dossier, souhaitait le faire voter au Parlement deux jours plus tard, le 3 avril, pour commencer les trilogues dès le 4 avril…
Soulignons que les derniers compromis en discussion au sein de la Commission LIBE sont encore loin d’être satisfaisants. Si des efforts sont faits pour que l’autorité désignée soit une autorité indépendante (mais là encore, la notion d’indépendance dépend de l’interprétation de chaque État membre), le texte mentionne toujours l’obligation (impossible pour un très grand nombre d’acteurs) de retrait des contenus en une heure. Plus précisément, les autorités auraient l’obligation d’ « essayer de prendre contact » avec l’hébergeur douze heures avant l’ordre de retrait, ce qui ne change pas grand chose… Par ailleurs, si la Commission LIBE essaie de retirer aux autorités le pouvoir d’imposer des outils de filtrage automatique, ces derniers sont encore bien présents dans le texte. Il en fait même la promotion en les affichant comme des outils essentiels dans la lutte contre le terrorisme. De toute manière, comme nous le répétons depuis plusieurs mois, l’obligation de retrait d’un contenu en une ou treize heures, couplée avec la menace d’une sanction importante, poussera une grande partie des acteurs à adopter ces outils de filtrage automatique.
Il est donc plus que jamais essentiel de ne pas baisser les bras sur ce combat. Car, à lire les communiqués d’une des associations ayant le plus œuvré pour l’adoption de ce texte, si le sujet est aujourd’hui celui de la censure automatisée, le prochain est sans aucun doute celui du chiffrement de nos conversations.
Jusqu’au 8 avril, appelons nos députés. Demandons le rejet de ce texte.
";s:7:"dateiso";s:15:"20190403_122109";}s:15:"20190403_120000";a:7:{s:5:"title";s:64:"[Mediapart] Droit d’auteur: l’Europe prend un virage risqué";s:4:"link";s:95:"https://www.laquadrature.net/2019/04/03/mediapart-droit-dauteur-leurope-prend-un-virage-risque/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13842";s:7:"pubDate";s:31:"Wed, 03 Apr 2019 10:00:00 +0000";s:11:"description";s:275:"En adoptant la directive sur le droit d’auteur mardi à Strasbourg, les députés européens transfèrent aux entreprises du Web la responsabilité de s’assurer que les utilisateurs, en l’occurrence les internautes qui publient des « contenus», respectent…";s:7:"content";s:1990:"
En adoptant la directive sur le droit d’auteur mardi à Strasbourg, les députés européens transfèrent aux entreprises du Web la responsabilité de s’assurer que les utilisateurs, en l’occurrence les internautes qui publient des « contenus», respectent la législation. La voie vers une censure privée que seuls les géants américains auront les moyens d’exercer, dénoncent les opposants au texte. […]
Le 21 mars, la Quadrature du Net avait une nouvelle fois appelé au rejet d’un texte qui « ne comporte aucun élément tangible qui améliorerait la situation des créateurs ». Ce mardi, l’association a déploré que l’UE ait cédé « au lobbying intense et fallacieux des industries de la presse et de la culture, ainsi qu’à la pression de plusieurs gouvernements européens (avec la France en première ligne) ». Opposée de longue date à un texte qui ne fera que « déléguer encore plus de pouvoir » aux grandes entreprises de l’Internet, la Quadrature souligne que celles-ci « voient sûrement avec plaisir l’ouverture d’un nouveau marché très porteur, celui des filtres automatiques. Déjà leaders sur ce sujet, les géants ne seront sûrement pas mécontents de le voir institutionnalisé et consacré par l’Union européenne ».
";s:7:"dateiso";s:15:"20190403_120000";}s:15:"20190402_140000";a:7:{s:5:"title";s:112:"[20Minutes] Grand barouf numérique: On a vu le futur de la démocratie et il y a (peut-être) un peu d’espoir";s:4:"link";s:142:"https://www.laquadrature.net/2019/04/02/20minutes-grand-barouf-numerique-on-a-vu-le-futur-de-la-democratie-et-il-y-a-peut-etre-un-peu-despoir/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13843";s:7:"pubDate";s:31:"Tue, 02 Apr 2019 12:00:00 +0000";s:11:"description";s:266:"Reportage. On a endossé le costume de député dans une session parlementaire du futur. […]
Voter sur les réseaux sociaux ? Mauvaise idée. Les futurs électeurs voteront-ils pour leur président de la République à l’aide de leurs outils…";s:7:"content";s:1477:"
Reportage. On a endossé le costume de député dans une session parlementaire du futur. […]
Voter sur les réseaux sociaux ? Mauvaise idée. Les futurs électeurs voteront-ils pour leur président de la République à l’aide de leurs outils numériques ? Benjamin Bayart, co-président de La Quadrature du Net et militant de la neutralité du net, a mis en garde les députés présents dans la salle. « Ne faites jamais passer un vote sérieux par un ordinateur, vous ne savez pas ce que fait le programme, a-t-il insisté. Le vote secret est une condition non-négociable à la démocratie, or on ne peut contrôler un vote sur ordinateur que si on sait qui a voté quoi ». Et que ferait un réseau social avec cette donnée entre ses mains ? […]
";s:7:"dateiso";s:15:"20190402_140000";}s:15:"20190402_120000";a:7:{s:5:"title";s:104:"[LADN] J’ai joué à la députée, taxé Facebook et sauvé des ordinateurs au Grand barouf numérique";s:4:"link";s:132:"https://www.laquadrature.net/2019/04/02/ladn-jai-joue-a-la-deputee-taxe-facebook-et-sauve-des-ordinateurs-au-grand-barouf-numerique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13844";s:7:"pubDate";s:31:"Tue, 02 Apr 2019 10:00:00 +0000";s:11:"description";s:240:"Au Grand barouf numérique à Lille, j’ai passé 10 heures dans la peau d’une députée. L’idée ? Imaginer le futur de la démocratie à l’ère digitale. Une expérience qui a remis en question mes pratiques numériques…";s:7:"content";s:1424:"
Au Grand barouf numérique à Lille, j’ai passé 10 heures dans la peau d’une députée. L’idée ? Imaginer le futur de la démocratie à l’ère digitale. Une expérience qui a remis en question mes pratiques numériques et ma certitude qu’il est trop compliqué de contourner Facebook, Google and cie. […]
Aucun représentant des Big tech n’est venu se défendre. Dommage. Un boulevard s’ouvre pour les défenseurs du web libre présents sur scène. Quelques phrases m’interpellent. « Les autorités sont schizophrènes, elles veulent protéger nos données et en même temps confèrent plus de pouvoirs aux GAFA en leur demandant de contrôler et sanctionner les propos haineux. Moi je ne veux pas qu’on leur donne plus de pouvoir, je veux qu’on leur en retire », martèle Benjamin Bayart, co-fondateur de la Quadrature du Net. […]
";s:7:"dateiso";s:15:"20190402_120000";}s:15:"20190401_140000";a:7:{s:5:"title";s:73:"[Marianne] Vente de billets SNCF sur Facebook : la fausse bonne idée ?";s:4:"link";s:105:"https://www.laquadrature.net/2019/04/01/marianne-vente-de-billets-sncf-sur-facebook-la-fausse-bonne-idee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13845";s:7:"pubDate";s:31:"Mon, 01 Apr 2019 12:00:00 +0000";s:11:"description";s:246:"La SNCF a démarré ce mercredi 20 mars un partenariat avec Facebook. Objectif : permettre aux 35 millions de Français inscrits sur le réseau social de commander leurs billets directement sur la plateforme. Séduisante de facilité,…";s:7:"content";s:2003:"
La SNCF a démarré ce mercredi 20 mars un partenariat avec Facebook. Objectif : permettre aux 35 millions de Français inscrits sur le réseau social de commander leurs billets directement sur la plateforme. Séduisante de facilité, l’initiative n’est pourtant pas sans poser quelques questions. […]
Mais si l’attrait business du partenariat n’est pas à démontrer, sa mise en place soulève néanmoins plusieurs questions de fond. A la Quadrature du net, association de préservation des libertés sur Internet, on s’interroge ainsi sur la pertinence de donner au réseau social une compétence, à dimension de service public, jusque-là assurée entièrement par la SNCF : « A cause de la prédominance des grosses plateformes, même les services publics se sentent obligés de proposer leurs services par leur intermédiaire« , regrette Alexis Fitzjean Ó Cobhthaigh, avocat et membre de la Quadrature du Net. Avec ce partenariat, Facebook va en effet être amené à avoir un impact croissant sur l’activité commerciale de la SNCF : « De fait, elle est en train de se placer dans une forme de dépendance par rapport à Facebook« , poursuit-il avant d’ajouter, très sévère : « Il ne s’agit de rien de moins qu’un renforcement de l’hégémonie de Facebook… et d’un abandon de souveraineté ». […]
";s:7:"dateiso";s:15:"20190401_140000";}s:15:"20190401_120000";a:7:{s:5:"title";s:106:"[LenouveauMontpellier] Implantation de Google à Montpellier : l’autre vision des acteurs du numérique";s:4:"link";s:137:"https://www.laquadrature.net/2019/04/01/lenouveaumontpellier-implantation-de-google-a-montpellier-lautre-vision-des-acteurs-du-numerique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13846";s:7:"pubDate";s:31:"Mon, 01 Apr 2019 10:00:00 +0000";s:11:"description";s:237:"Jeudi 14 mars 2019 se déroulait un événement spécial à la Carmagnole, autour des enjeux des géants du numérique alias les GAFAM (Google, Apple, Facebook, Amazone et Microsoft). Dans ce nouveau lieu alternatif installé dans…";s:7:"content";s:2037:"
Jeudi 14 mars 2019 se déroulait un événement spécial à la Carmagnole, autour des enjeux des géants du numérique alias les GAFAM (Google, Apple, Facebook, Amazone et Microsoft). Dans ce nouveau lieu alternatif installé dans le quartier de Figuerolles, Felix Tréguer, l’un des fondateurs de la Quadrature du Net donnait une conférence. En ligne de mire, Google et le concept de « startup nation ». Il dresse un constat alarmant sur l’état du numérique et des enjeux de l’implantation locale de la multinationale. Retour sur ce qu’il s’est dit lors de cette conférence. […]
« Depuis la loi renseignement de 2015, la surveillance a de beaux jours devant elle… » explique Félix en exposant un graphique montrant la hausse des interventions de l’État dans la censure avec une « volonté d’élargir le panel des profils de terroristes sur le territoire », à l’image des assignations à résidence de certains militants écologique après les attentats du 13 novembre 2015. « On va même vers une automatisation de la censure. Aujourd’hui, bloquer un péage ça peut être considéré comme une forme de terrorisme. Ce qui est en train de se mettre en place est très grave… Et on n’a très peu de relais médiatique » déclare le conférencier. […]
";s:7:"dateiso";s:15:"20190401_120000";}s:15:"20190326_173820";a:7:{s:5:"title";s:60:"Le Parlement européen se soumet aux lobbys des ayants droit";s:4:"link";s:100:"https://www.laquadrature.net/2019/03/26/le-parlement-europeen-se-soumet-aux-lobbys-des-ayants-droit/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13772";s:7:"pubDate";s:31:"Tue, 26 Mar 2019 16:38:20 +0000";s:11:"description";s:251:"Le Parlement européen a adopté aujourd’hui la Directive sur le droit d’auteur. Cédant au lobbying intense et fallacieux des industries de la presse et de la culture, ainsi qu’à la pression de plusieurs gouvernements européens…";s:7:"content";s:5076:"
Le Parlement européen a adopté aujourd’hui la Directive sur le droit d’auteur. Cédant au lobbying intense et fallacieux des industries de la presse et de la culture, ainsi qu’à la pression de plusieurs gouvernements européens (avec la France en première ligne) l’Union européenne vient d’institutionnaliser la censure automatisée et la surveillance de masse pratiquées par les géants du Web.
Aujourd’hui, en quelques minutes à peine, le Parlement européen a adopté le texte de la Directive Copyright (par 348 voix contre 274). Croyant agir au nom de la défense des auteurs et de la liberté de la presse, l’Union européenne vient au contraire (comme nous le dénonçons depuis plusieurs mois) de renforcer la dépendance de l’industrie de la culture et de la presse aux géants du Web, Google et Facebook en tête. Les manifestations de ce week-end, les pétitions, les tribunes et autres campagnes organisées par des associations de défense des libertés à travers toute l’Europe n’auront donc eu que peu de poids face à la campagne frénétique et mensongère menée par les promoteurs de ce texte (voir, pour un bon exemple, ici, à 1’06’10).
Le texte adopté impose notamment à une partie des acteurs du Web — les plateformes centralisées et lucratives — une obligation de filtrage a priori des contenus protégés par le droit d’auteur (article 13, devenu article 17). Il crée également de nouveaux droits pour les éditeurs de presse, en forçant les plateformes à les rémunérer pour toute utilisation de leurs contenus (article 11, devenu article 15). Nous le répétions encore la semaine dernière : ces dispositions ne pourront entraîner que de graves restrictions de la liberté d’expression et de l’accès à l’information.
En aucun cas, elles ne permettront de rééquilibrer les relations avec les Géants du Net : elles ne conduiront qu’à leur déléguer encore plus de pouvoir. Ces derniers doivent d’ailleurs voient sûrement avec plaisir l’ouverture d’un nouveau marché très porteur, celui des filtres automatiques. Déjà leaders sur ce sujet, les géants ne seront sûrement pas mécontents de le voir institutionnalisé et consacré par l’Union européenne.
Au lieu de combattre la surveillance de masse mise en place par les Géants du Net, la Directive Copyright consacre leur puissance, pourtant basée sur la violation du RGPD voté par le même Parlement européen… D’où vient l’argent que convoitent tant les industries de la presse et de la culture ? Du marché de la publicité ciblée qu’exploitent depuis plusieurs années les GAFAM en toute illégalité, et qui est entièrement fondé sur la surveillance généralisée de nos comportements sur le Web. Alors que les premières décisions commençaient justement à remettre en cause ce modèle économique (voir notre communiqué sur la décision de la CNIL contre Google), l’Union européenne et ses gouvernements ne semblent pas réellement souhaiter l’application de leur propre texte, mais plutôt se satisfaire de petits retours financiers sur la violation de nos libertés.
Ainsi, l’Union européenne préfère promouvoir des outils de filtrage automatique, dans une logique de toujours plus de censure, de toujours plus de surveillance, au lieu de se pencher sur d’autres réformes et d’autres solutions plus adaptées au monde numérique et surtout plus respectueuses de nos libertés (voir nos propositions).
Malgré le vote d’aujourd’hui, la lutte contre le filtrage automatisé et la censure continue. L’autre texte contre lequel La Quadrature se bat depuis plusieurs mois, et qui repose sur les mêmes logiques de censure automatisée, de surveillance et de centralisation, sera voté en commission parlementaire début avril. Il nous reste encore quelques jours pour appeler les députés en charge de ce règlement de censure automatique de contenus terroristes et leur demander de le rejeter.
";s:7:"dateiso";s:15:"20190326_173820";}s:15:"20190325_110000";a:7:{s:5:"title";s:71:"[Europe1] 30 ans après sa création, que faudrait-il changer au Web ?";s:4:"link";s:104:"https://www.laquadrature.net/2019/03/25/europe1-30-ans-apres-sa-creation-que-faudrait-il-changer-au-web/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13707";s:7:"pubDate";s:31:"Mon, 25 Mar 2019 10:00:00 +0000";s:11:"description";s:262:"Matthieu Belliard embarque les auditeurs pour écrire avec lui ce “Grand journal du soir”. Trois heures d’actualité avec toute la rédaction d’Europe 1 et de nombreux invités. Coups de gueule, coups de cœur, témoignages, ils interviennent…";s:7:"content";s:1940:"
Matthieu Belliard embarque les auditeurs pour écrire avec lui ce “Grand journal du soir”. Trois heures d’actualité avec toute la rédaction d’Europe 1 et de nombreux invités. Coups de gueule, coups de cœur, témoignages, ils interviennent tout au long de l’émission. A 19h10, Sonia Mabrouk reçoit un invité politique pour une interview sans concession, et à 19h20, Matthieu Belliard poursuit l’échange avec trois débatteurs eux-mêmes questionnés par les auditeurs. Le vendredi, les Grandes Voix le rejoignent pour ce debrief de l’actualité.
NDLRP : débat animé par Matthieu Belliard. Plateau sur la thématique ‘30 ans après sa création, que faudrait-il changer au Web ?‘ avec en invités Daniel Ichbiah, Hugo Travers, et Arthur Messaud de La Quadrature du Net.
";s:7:"dateiso";s:15:"20190325_110000";}s:15:"20190324_110000";a:7:{s:5:"title";s:60:"[ActeursPublics] Débat : L’État face aux géants du Web";s:4:"link";s:90:"https://www.laquadrature.net/2019/03/24/acteurspublics-debat-letat-face-aux-geants-du-web/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13708";s:7:"pubDate";s:31:"Sun, 24 Mar 2019 10:00:00 +0000";s:11:"description";s:251:"Chaque mois, Écrans publics propose de débattre autour de documentaires qui interrogent les politiques publiques. Ce mois-ci, la diffusion du documentaire Apple, Google, Facebook, les nouveaux maîtres du monde, de Yannick Adam de Villiers, a…";s:7:"content";s:1691:"
Chaque mois, Écrans publics propose de débattre autour de documentaires qui interrogent les politiques publiques. Ce mois-ci, la diffusion du documentaire Apple, Google, Facebook, les nouveaux maîtres du monde, de Yannick Adam de Villiers, a été l’occasion d’échanger autour du thème « L’État face aux géants du Web« . Un débat animé par Adeline Baldacchino, haute fonctionnaire et écrivaine, avec Yannick Adam de Villiers, réalisateur du documentaire, Gilles Babinet, vice-président du Conseil national du numérique, Alexis Fitzjean O Cobhthaigh, avocat, membre de La Quadrature du net, et Laurent Gayard, auteur de Darknet, GAFA, Bitcoin. L’anonymat est un choix.
";s:7:"dateiso";s:15:"20190324_110000";}s:15:"20190323_110000";a:7:{s:5:"title";s:87:"[BFMTV] 30 ans du Web: HTTP, URL… ce que signifient ces acronymes qui nous connectent";s:4:"link";s:121:"https://www.laquadrature.net/2019/03/23/bfmtv-30-ans-du-web-http-url-ce-que-signifient-ces-acronymes-qui-nous-connectent/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13709";s:7:"pubDate";s:31:"Sat, 23 Mar 2019 10:00:00 +0000";s:11:"description";s:238:"Créées à la fin des années 80, ces technologies constituent encore aujourd’hui les bases du Web, tel qu’il est utilisé par la plupart des internautes dans le monde.
“Vague, mais prometteur”. C’est ainsi que le projet…";s:7:"content";s:1781:"
Créées à la fin des années 80, ces technologies constituent encore aujourd’hui les bases du Web, tel qu’il est utilisé par la plupart des internautes dans le monde.
“Vague, mais prometteur”. C’est ainsi que le projet de Tim Berners-Lee, alors informaticien, fut accueilli le 12 mars 1989 par le Cern, le laboratoire européen pour la physique des particules. L’idée de son système : permettre à tous les chercheurs de partager l’information et d’y accéder à distance. Quelques schémas incompréhensibles pour le profane, qui ont posé les fondations du Web tel que nous le connaissons. Tim Berners-Lee commence par nommer son projet : WorldWideWeb. […]
";s:7:"dateiso";s:15:"20190323_110000";}s:15:"20190322_110000";a:7:{s:5:"title";s:74:"[RadioCauseCommune] Règlement terroriste, Pépites libres, Fund the Code!";s:4:"link";s:108:"https://www.laquadrature.net/2019/03/22/radiocausecommune-reglement-terroriste-pepites-libres-fund-the-code/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13710";s:7:"pubDate";s:31:"Fri, 22 Mar 2019 10:00:00 +0000";s:11:"description";s:287:"La seizième émission Libre à vous ! de l’April a été diffusée en direct mardi 12 mars 2019 de 15 h 30 à 17 h 00.
Nous avons commencé par la troisième chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April.…";s:7:"content";s:2535:"
La seizième émission Libre à vous ! de l’April a été diffusée en direct mardi 12 mars 2019 de 15 h 30 à 17 h 00.
Nous avons commencé par la troisième chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Nous avons enchainé avec notre sujet principal qui portait sur le projet de règlement terroriste / censure sécuritaire avec nos invités : Arthur Messaud et Martin Drago de La Quadrature du Net. Nous avons poursuivi par une interview de présentation de l’initiative Fund the Code! avec Louis-David Benyayer. Nous avons terminé par diverses annonces. […]
NDLRP : retrouvez sur le peertube de La Quadrature du Net l’interview d’Arthur et Martin sur la proposition de règlement terroriste et la censure sécuritaire.
";s:7:"dateiso";s:15:"20190322_110000";}s:15:"20190321_112032";a:7:{s:5:"title";s:102:"La Quadrature du Net appelle le Parlement européen à rejeter la directive sur le droit d’auteur !";s:4:"link";s:135:"https://www.laquadrature.net/2019/03/21/la-quadrature-du-net-appelle-le-parlement-europeen-a-rejeter-la-directive-sur-le-droit-dauteur/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13736";s:7:"pubDate";s:31:"Thu, 21 Mar 2019 10:20:32 +0000";s:11:"description";s:230:"La semaine prochaine, le Parlement européen va devoir se prononcer par un dernier vote sur le sort de la directive Copyright, en discussion depuis plusieurs années. La Quadrature du Net appelle les députés européens à…";s:7:"content";s:6907:"
La semaine prochaine, le Parlement européen va devoir se prononcer par un dernier vote sur le sort de la directive Copyright, en discussion depuis plusieurs années. La Quadrature du Net appelle les députés européens à rejeter ce texte, qui provoquerait de graves restrictions à la liberté d’expression et à l’accès à l’information. Loin de rééquilibrer les relations avec les Géants du Net, cette directive conduirait à leur déléguer un inquiétant pouvoir de censure automatisée. Ce texte ne constitue pas la réforme du droit d’auteur dont l’Union européenne a besoin et il ne comporte aucun élément tangible qui améliorerait la situation des créateurs.
Le texte résultant des négociations conduites ces derniers mois par les institutions européennes n’a corrigé aucun des points problématiques qui nous avaient conduit à demander le rejet du texte déjà à plusieurs reprises en 2018. Notre analyse reste la même : les industries culturelles et les grandes sociétés d’ayants droit cherchent en réalité à ramasser les miettes du butin engrangé par les Géants du Net grâce à la surveillance de masse qu’ils mettent en œuvre à travers la publicité ciblée. Sous couvert d’opérer un « partage de la valeur », cette directive constituerait un grave renoncement de l’Union européenne, en liant le financement de la création et de la presse à la violation systématique des droits des individus.
Tout ceci s’accomplira en outre sur le dos des libertés fondamentales, à cause des articles 11 et 13 de la directive qui suscitent l’opposition d’un grand nombre d’acteurs de la société civile. Même si le champ d’application de l’article 13 ne concerne pas dans sa rédaction finale ce que La Quadrature considère comme l’Internet libre et ouvert – à savoir les services décentralisés ou fédérés de type Mastodon ou Peertube – il imposera aux plateformes centralisées et lucratives une obligation de filtrage a priori des contenus à laquelle notre association s’est toujours opposée. L’application de tels procédés est manifestement disproportionnée et la directive n’apporte aucune garantie satisfaisante pour protéger la liberté d’expression. La directive Copyright a ainsi servi de laboratoire aux logiques de censure automatisée que l’on retrouve dans d’autres textes, comme le règlement Anti-terroriste contre lequel La Quadrature du Net est mobilisée (voir notre page dédiée).
L’article 11 est tout aussi problématique, puisqu’en souhaitant instaurer de nouveaux droits pour les éditeurs de presse, il va restreindre l’usage de ces contenus bien au-delà des seuls agrégateurs, type Google News, en affectant aussi potentiellement des acteurs non-lucratifs et tout l’écosystème de l’accès à l’information.
Si la directive Copyright doit être rejetée par le Parlement européen, c’est aussi parce qu’elle ne constitue pas la réforme positive du droit d’auteur dont l’Union a besoin. Les industries culturelles sont parvenues encore une fois à focaliser le débat autour d’un renforcement de la propriété intellectuelle, en occultant le profond besoin d’adaptation des règles du droit d’auteur aux pratiques numériques. Dans son état actuel, la directive contient certes quelques aménagements sous la forme d’exceptions au droit d’auteur, mais ils restent bien trop limités pour apporter un changement significatif.
Aucune de ces mesures ne correspond aux propositions formulées depuis plusieurs années par la Quadrature du Net afin de changer en profondeur le droit d’auteur en réconciliant les artistes et le public. Il aurait fallu pour cela mettre en débat des idées comme la légalisation du partage non-marchand des œuvres, la reconnaissance des pratiques transformatives comme le remix ou le mashup ou de nouvelles formes de financement comme la contribution créative.
En affirmant que ce texte sera en mesure d’améliorer le sort des créateurs en Europe, les industries culturelles qui le soutiennent mentent profondément. Elles ont constamment empêché que des sujets comme les modalités de financement de la création ou les règles de répartition des revenus entre créateurs et intermédiaires soient discutés, alors qu’ils constituent le cœur du problème à régler pour améliorer la condition des auteurs. La France porte une responsabilité particulière dans ce fiasco dans la mesure où les gouvernements successifs et la majorité des eurodéputés français ont constamment fait obstruction sur ces questions tout en poussant les mesures les plus répressives.
Plus largement, c’est tout le processus d’élaboration de ce texte qui a été émaillé d’intrusions, aussi bien de la part du lobby des industries culturelles que de celui des Géants du Net. Ce spectacle navrant porte atteinte à la crédibilité démocratique de l’Union européenne. Mais il ne doit pas occulter la mobilisation importante des personnes et des organisations de la société civile – l’une des plus importantes à ce jour -, qui a constamment été ignorée ou raillée tant par la Commission européenne que par une partie des eurodéputés favorables au texte.
Le Parlement européen dispose encore d’une ultime chance de montrer qu’il est capable de faire preuve d’indépendance en enterrant définitivement ce texte aberrant. Il l’a déjà fait en juillet 2018 pour protéger les libertés fondamentales et il doit le refaire à présent pour les mêmes raisons.
C’est la raison pour laquelle La Quadrature du Net se joint aux autres associations engagées contre ce texte – EDRi, Bits of Freedom, Wikimedia, l’APRIL et bien d’autres ! – en appelant les citoyens à contacter les eurodéputés via la plateforme Pledge2019.
";s:7:"dateiso";s:15:"20190321_112032";}s:15:"20190321_110000";a:7:{s:5:"title";s:77:"[LaNouvelleRepublique] Face aux pirates, le sport français cherche la parade";s:4:"link";s:114:"https://www.laquadrature.net/2019/03/21/lanouvellerepublique-face-aux-pirates-le-sport-francais-cherche-la-parade/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13711";s:7:"pubDate";s:31:"Thu, 21 Mar 2019 10:00:00 +0000";s:11:"description";s:290:"La diffusion illégale de contenus sportifs sur Internet a connu une hausse en 2018, notamment pour le football. Les acteurs s’organisent pour riposter. Zoom sur cette problématique. […]
3 – Faut-il s’inquiéter de la volonté affichée de bloquer des…";s:7:"content";s:2006:"
La diffusion illégale de contenus sportifs sur Internet a connu une hausse en 2018, notamment pour le football. Les acteurs s’organisent pour riposter. Zoom sur cette problématique. […]
3 – Faut-il s’inquiéter de la volonté affichée de bloquer des sites plus facilement ?
« C’est un vrai problème. Depuis plusieurs années, on étend le domaine de la censure administrative, à chaque fois avec des raisons différentes, certaines vraiment compréhensibles, d’autres beaucoup plus légères, répond Axel Simon, membre de la Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. On contourne les problèmes. On ne s’attaque jamais aux causes, mais aux symptômes… »
Il précise : « A l’heure actuelle, c’est possible de bloquer des sites, sur décision d’un juge. Mais, l’automatiser, c’est beaucoup plus dangereux, car quand on passe par de l’administratif, on se retrouve avec des listes noires et des personnes capables d’en empêcher d’autres de voir quelque chose, sans qu’il y ait de contradictoire. On rentre dans des choses vraiment désagréables et difficiles à accepter au sein d’une société démocratique. Car on ne sait pas qui censure quoi. Qui surveille les surveillants ? »
";s:7:"dateiso";s:15:"20190321_110000";}s:15:"20190320_110000";a:7:{s:5:"title";s:40:"[LeDevoir] Il y a 30 ans naissait le Web";s:4:"link";s:79:"https://www.laquadrature.net/2019/03/20/ledevoir-ll-y-a-30-ans-naissait-le-web/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13706";s:7:"pubDate";s:31:"Wed, 20 Mar 2019 10:00:00 +0000";s:11:"description";s:251:"« On a connecté le monde, mais on a aussi connecté toute la merde qui allait avec. » Au téléphone, Ben Segal, ingénieur au laboratoire du CERN, l’Organisation européenne pour la recherche nucléaire, est tout sauf lénifiant…";s:7:"content";s:1494:"
« On a connecté le monde, mais on a aussi connecté toute la merde qui allait avec. » Au téléphone, Ben Segal, ingénieur au laboratoire du CERN, l’Organisation européenne pour la recherche nucléaire, est tout sauf lénifiant lorsqu’il remonte le fil de l’histoire du Web, dont il a accompagné la naissance. […]
« La décentralisation, les protocoles ouverts, c’est l’idée de départ, dit Alexis Fitzjean, membre de La Quadrature du Net, un organisme européen qui milite pour un Web plus proche de son idéologie originelle. Il faut revenir à cette idée de l’internaute producteur et diffuseur de l’information, mais aussi imposer des interfaces de programmation [les fameuses API] ouvertes qui permettraient à un usager de ne plus être captif d’un réseau social et de migrer vers un autre, sans peur de perdre son historique, ses données personnelles ou ses contacts. » […]
";s:7:"dateiso";s:15:"20190320_110000";}s:15:"20190319_110000";a:7:{s:5:"title";s:132:"[Contexte] La Quadrature du Net : « Emmanuel Macron n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam »";s:4:"link";s:149:"https://www.laquadrature.net/2019/03/19/contexte-la-quadrature-du-net-emmanuel-macron-nest-pas-pour-leurope-des-libertes-mais-pour-leurope-des-gafam/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13712";s:7:"pubDate";s:31:"Tue, 19 Mar 2019 10:00:00 +0000";s:11:"description";s:241:"[Série] Un an et demi après l’arrivée d’Emmanuel Macron au pouvoir et alors que se profilent les européennes, Contexte donne la parole à des acteurs privés français impliqués sur les sujets numériques. Quel bilan font-ils…";s:7:"content";s:1715:"
[Série] Un an et demi après l’arrivée d’Emmanuel Macron au pouvoir et alors que se profilent les européennes, Contexte donne la parole à des acteurs privés français impliqués sur les sujets numériques. Quel bilan font-ils de ce début de présidence et du marché unique numérique ? Quels sont leurs souhaits pour la suite ? Sixième volet avec Arthur Messaud et Martin Drago, juristes à La Quadrature du Net. […]
« On entend souvent dire qu’Emmanuel Macron est européen, c’est faux ! Il ne respecte pas l’arrêt Tele2 de la Cour de justice de l’Union européenne, un arrêt protecteur pour les libertés publiques, qui interdit de mettre les acteurs privés au service de la surveillance de masse. Il veut même aller plus loin, avec la loi sur les contenus haineux. Il n’est pas pour l’Europe des libertés, mais pour l’Europe des Gafam et des grosses entreprises. » […]
";s:7:"dateiso";s:15:"20190319_110000";}s:15:"20190318_110000";a:7:{s:5:"title";s:121:"[20Minutes] Cambridge analytica: « Le scandale a montré que les politiciens sont aussi malhonnêtes que les autres »";s:4:"link";s:149:"https://www.laquadrature.net/2019/03/18/20minutes-cambridge-analytica-le-scandale-a-montre-que-les-politiciens-sont-aussi-malhonnetes-que-les-autres/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13713";s:7:"pubDate";s:31:"Mon, 18 Mar 2019 10:00:00 +0000";s:11:"description";s:250:"INTERVIEW. Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur. […]
Benjamin Bayart, cofondateur de la Quadrature du Net, animera la conférence…";s:7:"content";s:1467:"
INTERVIEW. Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur. […]
Benjamin Bayart, cofondateur de la Quadrature du Net, animera la conférence « La démocratie à l’épreuve des réseaux sociaux » au Grand Barouf du numérique de Lille le 21 mars. Pour donner un avant-goût à cette réflexion, il revient avec 20 Minutes sur cette manipulation de grande ampleur et ouvre les portes à la démocratie du futur. […]
";s:7:"dateiso";s:15:"20190318_110000";}s:15:"20190315_155629";a:7:{s:5:"title";s:65:"Censure antiterroriste : seconde défaite au Parlement européen";s:4:"link";s:101:"https://www.laquadrature.net/2019/03/15/censure-antiterroriste-seconde-defaite-au-parlement-europeen/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13698";s:7:"pubDate";s:31:"Fri, 15 Mar 2019 14:56:29 +0000";s:11:"description";s:263:"Au Parlement européen, les deux commissions appelées à rendre leur avis sur le règlement de censure anti-terroriste ont désormais publié leurs propositions d’amendements. Hélas, de même que l’avis rendu par la commission IMCO la semaine…";s:7:"content";s:5955:"
Au Parlement européen, les deux commissions appelées à rendre leur avis sur le règlement de censure anti-terroriste ont désormais publié leurs propositions d’amendements. Hélas, de même que l’avis rendu par la commission IMCO la semaine dernière (voir notre réaction), l’avis de la commission CULT (culture et éducation) n’apporte aucun véritable changement à la proposition initiale de la Commission européenne, désastreuse pour nos libertés.
Julie Ward, rapporteure du texte pour CULT, introduit l’avis en expliquant bien les menaces que représente le texte, de même que nous les dénonçons depuis des mois : le délai d’une heure que la police peut imposer à n’importe quel service pour retirer un contenu qu’elle considère « terroriste », l’élimination du rôle de l’autorité judiciaire, la possibilité pour la police d’imposer aux plateformes des mesures proactives (notamment des filtres automatisés), les amendes considérables pour tous les acteurs de l’Internet qui ne respecteraient pas ces obligations…
Mais presque aucune de ces inquiétudes ne sont matérialisées dans le texte final adopté lundi par la commission CULT. Au contraire.
S’agissant du délai d’une heure, CULT propose de le remplacer par un « sans retard indu ». Ce qui pourrait paraître pour un premier progrès disparaît aussitôt qu’on lit la suite du texte : « les États Membres peuvent prévoir que, lorsqu’un contenu terroriste est manifestement nocif ou constitue une menace immédiate à l’ordre public, les services d’hébergement doivent le supprimer ou en empêcher l’accès dès l’instant où ils reçoivent une injonction dûment justifiée » (notre traduction). Ainsi, contre toute attente, les députés de CULT ont réussi à rendre cette disposition encore plus dangereuse, permettant aux États Membres de donner à leur police le pouvoir d’exiger le retrait immédiat d’un contenu. Tel que nous le rappelons dans chacune de nos analyses, seule une poignée d’acteurs sont capables de respecter une obligation aussi stricte : les géants du Web. Alors que nous pensions que la proposition initiale de la Commission européenne ne pouvait être aggravée, la commission CULT a défié toutes nos attentes.
Aucun progrès non plus du côté de l’autorité compétente qui peut ordonner le retrait de ces contenus : le texte prévoit que les États membres peuvent désigner une autorité judiciaire ou « une autorité administrative indépendante disposant de l’expertise requise ». Néanmoins, une telle notion pourrait concerner de nombreuses autorités administratives et il ne fait aucun doute que certains États interpréteront cette notion de la manière la plus profitable pour eux. L’article 6 dans lequel l’autorité compétente peut imposer des mesures proactives aux hébergeurs est également toujours présent, tout comme les sanctions financières (si la version de la Commission prévoyait que les acteurs pouvaient être sanctionnés jusqu’à 4% de leur chiffre d’affaires, CULT propose de baisser à 2%…)
Des changements aussi timides ne permettront jamais de régler les principaux dangers qui existent au cœur de ce texte : l’existence de mesures proactives obligatoires avec la menace de lourdes sanctions financières n’aura pour effet que d’encourager les acteurs de l’Internet à adopter une définition de la notion de contenu terroriste aussi large que possible. Cela mènera à une censure de masse des contenus en ligne et à la soumission de l’ensemble de ces acteurs aux outils de modération développés par les géants du Web.
Dernière ligne droite
Il revient maintenant à la commission LIBE (Libertés civiles, justice et affaires intérieures) de voter sa version du texte qui sera présentée en avril à l’ensemble du Parlement européen. Les députés de cette commission et les « shadow rappporteurs » se rencontrent en ce moment régulièrement pour trouver des compromis sur les points les plus problématiques du texte, avec l’objectif d’arriver à une position finale d’ici le 21 mars, jour du vote. Nous craignons malheureusement le pire : les compromis que nous avons pu pour l’instant lire ne sont pas bons du tout, et même aussi mauvais que l’avis de CULT. Ils ne prévoient toujours aucune autorisation judiciaire préalable, remplacent le délai d’une heure par un délai de huit heures (ce qui ne change rien) et promeuvent toujours le filtrage automatique…
Il est plus que jamais nécessaire d’appeler vos députés. Pour cela, nous avons prévu une page dédiée sur notre site avec une analyse du texte et un outil pour contacter les députés en charge du règlement.
Appelez vos députés. Demander le rejet de ce texte.
";s:7:"dateiso";s:15:"20190315_155629";}s:15:"20190312_152126";a:7:{s:5:"title";s:87:"Rachida Dati porte-parole de la politique sécuritaire de Macron au Parlement européen";s:4:"link";s:96:"https://www.laquadrature.net/2019/03/12/dati-porte-parole-de-la-politique-securitaire-de-macron/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13673";s:7:"pubDate";s:31:"Tue, 12 Mar 2019 14:21:26 +0000";s:11:"description";s:216:"Alors que le vote sur le règlement de censure terroriste aura lieu le 21 mars (voir notre site de campagne), Rachida Dati a adressé à l’ensemble des députés européens en charge du texte, une lettre…";s:7:"content";s:11085:"
Alors que le vote sur le règlement de censure terroriste aura lieu le 21 mars (voir notre site de campagne), Rachida Dati a adressé à l’ensemble des députés européens en charge du texte, une lettre dans laquelle elle soutient la position la plus sécuritaire du Parlement européen. Nommée cheffe de file sur ce dossier par le groupe politique de droite (le Parti populaire européen – PPE, le plus important du Parlement), elle y défend les intérêts politiques d’Emmanuel Macron, en faveur d’un contournement de la justice et d’un assujettissement du Web européen à Google et Facebook.
Le 27 février dernier, Rachida Dati envoyait à l’ensemble des 60 députés de la commission LIBE (« liberté civile », qui votera le texte le 21 mars) une lettre les invitant à adopter le règlement dans sa version la plus sécuritaire possible (voir la lettre (PDF)). Refusant tout débat objectif, Mme Dati se moque que ce texte soit inutile, qu’il méprise la séparation des pouvoirs en permettant des censures massives sans juge, qu’il détruise nos libertés sur Internet ou qu’il annihile l’écosystème numérique européen. Elle semble ne chercher qu’un symbole politique facile pour ses prochaines élections : se positionner en tant que héraut de la lutte contre le terrorisme.
Le mythe de l’auto-radicalisation
D’entrée de jeu, elle fait sienne la rhétorique trompeuse de la Commission européenne, arguant que le règlement de censure terroriste « est un outil crucial pour renforcer la lutte contre le terrorisme et la radicalisation en Europe ». Comme la Commission, elle refuse tout débat basé sur des faits, préférant fonder son action politique sur les sentiments de crainte et d’urgence. Si Rachida Dati acceptait de s’en tenir aux faits, sa conclusion serait pourtant bien différente : en 2017, l’UNESCO publiait un rapport analysant 550 études sur la question de la radicalisation en ligne et concluant que « les données sont insuffisantes pour que l’on puisse conclure à l’existence d’un lien de cause à effet entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». En face, ni Rachida Dati, ni la Commission européenne, ne sont capables de produire des études soutenant leurs théories.
Cette situation n’est pas nouvelle. Comme elle le rappelle dans sa lettre, Rachida Dati a été, en 2015, la rapporteure d’une « résolution du Parlement européen sur la prévention de la radicalisation et du recrutement de citoyens de l’Union par des organisations terroristes ». Cette résolution souffrait des mêmes défauts, affirmant déjà au doigt mouillé, sans aucune évaluation concrète ni chiffrée, que « l’internet et les réseaux sociaux constituent des plateformes importantes utilisées pour accélérer la radicalisation et le fondamentalisme, car ils permettent une diffusion massive et rapide, à l’échelle mondiale, des messages de haine et d’apologie du terrorisme » (nous le dénoncions déjà alors).
Plus grave encore, cette résolution parlementaire de 2015 « exprime ses vives inquiétudes face à l’utilisation croissante des techniques de cryptage par les organisations terroristes qui rendent impossibles la détection et la lecture de leurs communications ». Invoquer le prétexte terroriste pour lutter contre le chiffrement de nos communications est malheureusement devenu un lieu commun. Heureusement, Rachida Dati nous fait grâce de ce serpent de mer dans les débats actuels.
Dans tous les cas, il devient ainsi difficile de dire aujourd’hui qui d’Emmanuel Macron ou de Rachida Dati reprend la politique de l’autre. L’approche sécuritaire, prise par Nicolas Sarkozy lorsque Madame Dati faisait parti de son gouvernement, n’est en rien différente de celle d’Emmanuel Macron. Tous reposent sur la mise en avant de solutions simplistes, ignorant les faits ainsi que leurs conséquences concrètes, espérant que leur électorat soit plus sensible à la peur qu’à la raison.
Destruction de l’écosystème numérique européen
Dans la lettre envoyée à ses 60 collègues de la commission LIBE, Rachida Dati « appelle le Parlement à soutenir le délai d’une heure pour exécuter les injonctions de retrait ». Face aux réalités d’une telle obligation, Madame Dati feint d’avoir « entendu et compris les préoccupations de différents acteurs, notamment des PME ». En vérité, elle en méprise totalement les intérêts.
Aucune petite ou moyenne plateforme ne peut supprimer en une heure un contenu signalé comme terroriste par la police (pour la simple raison, déjà, que répondre à cette demande la nuit ou le weekend n’est possible que pour les entreprises les plus importantes). Madame Dati ne propose aucune marge d’ajustement pour ces plateformes, faisant primer ce délai magique d’une heure sur toute autre considération.
L’écosystème numérique européen n’a qu’à disparaître, soumis à des obligations intenables sous la menace de lourdes sanctions. Ceci n’affectera en rien la stratégie électoraliste de Rachida Dati qui, manifestement, pense qu’une position aussi symbolique qu’absurde contre le terrorisme l’aidera à gagner la mairie de Paris (pour laquelle elle vient d’annoncer se présenter).
Surtout, cet acharnement symbolique est parfaitement vain : l’extrême majorité des plateformes en ligne font déjà de leur mieux pour supprimer les contenus terroristes, qu’ils soient ou non signalés par la police. Aucune plateforme n’a d’intérêt à héberger de tels contenus, si ce n’est à vouloir effectivement participer à leur diffusion. Contre des plateformes qui souhaiteraient cela, le règlement de censure terroriste ne prévoit rien, car aucune loi ne peut rien faire contre : ces plateformes pourront toujours s’installer n’importe où pour échapper à la loi (elles le font déjà) et seront toujours accessibles par leur public.
Renforcer la dépendance à Google et Facebook
Rachida Dati affirme auprès de ses collègues que « ces dernières années ont prouvé qu’avec le développement technologique les grandes plateformes telles que Google, Facebook et Twitter ont atteint de bons résultats » en matière de censure des contenus terroristes. Un tel éloge des GAFAM, qui ne se base toujours pas sur une analyse chiffrée, fait directement écho à la façon dont Mounir Mahjoubi promeut Facebook en héros de la modération contre la haine sur Internet (voir notre analyse). À chaque fois dans le même but : conforter la position dominante des géants du Web qui sont devenus les alliées de gouvernements souhaitant toujours plus surveiller et contrôler la population.
Encore une fois, les acteurs qui offrent des modèles alternatifs, plus respectueux de notre vie privée et de notre liberté d’expression (revoir notre article à leur sujet), sont appelés à disparaître ou, au mieux, à se placer sous la dépendance de ces géants. Rachida Dati reprend ainsi la rhétorique de la Commission européenne, en « soutenant fortement la proposition sur les mesures proactives » que les plateformes devront obligatoirement déployer pour détecter et supprimer les contenus terroristes.
La Commission européenne explique ainsi, au côté du ministère de l’intérieur français, que les outils de filtrage développés par Facebook, Google, Twitter et Microsoft depuis 2015 pour leur plateformes doivent maintenant être utilisés par l’ensemble des acteurs du Web (lire notre analyse sur la genèse du règlement). La zone d’influence des GAFAM continue de s’étendre, avec le soutien total des gouvernements européens et, ici, de Madame Dati.
Une démarche purement électoraliste
Rachida Dati ne cache pas le sens de son engagement : « Nous devons voter ce rapport avant la fin du mandat. Tout délai à son adoption serait non seulement une sérieuse erreur politique, mais aussi un affront aux citoyens qui demandent à l’Union européenne de les protéger ».
Puisque ce règlement n’apportera aucune protection, c’est uniquement la peur des citoyens qui l’intéresse. On comprend alors très bien pourquoi ce serait une « sérieuse erreur politique » de ne pas en jouer, alors qu’elle ne compte pas se représenter au Parlement européen, mais qu’elle doit justifier, dans l’urgence, son mandat européen assez creux, afin de poursuivre sa carrière politique française.
C’est pourtant la démarche inverse que doit adopter le Parlement européen : forcé de débattre d’un texte aux conséquences aussi lourdes en seulement quelques semaines, il ne pourra prendre que les pires solutions. Aucun débat législatif ne doit être conduit dans l’urgence électoraliste. Certes, les craintes que la composition du prochain Parlement européen soit encore plus à droite et proche d’Emmanuel Macron ne sont pas à prendre à la légère. Mais, contre toute projection politicienne, nous préférons la sagesse des débats longs, précis et rigoureux.
Pour repousser la censure automatisée, le contournement du juge et la GAFAMisation du Web, appelons les députés européens avant le 21 mars via notre site d’action.
Les citations de la lettre de Rachida Dati sont des traductions de notre part, de l’anglais vers le français.
";s:7:"dateiso";s:15:"20190312_152126";}s:15:"20190311_110000";a:7:{s:5:"title";s:71:"[France3] Un livre un jour « Algorithmes, la bombe à retardement »";s:4:"link";s:100:"https://www.laquadrature.net/2019/03/11/france3-un-livre-un-jour-algorithmes-la-bombe-a-retardement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13669";s:7:"pubDate";s:31:"Mon, 11 Mar 2019 10:00:00 +0000";s:11:"description";s:445:"Présenté par : Adeline Alexandre, Delphine Chaume.
Entretien avec Benjamin Sonntag, co-fondateur de La Quadrature du Net’ pour le livre « Algorithmes, la bombe à retardement », de Cathy O’Neil (Les Arènes).
https://www.france.tv/france-3/un-livre-un-jour/910845-algorithmes-la-bombe-a-retardement-de-cathy-o-neil-les-arenes.html
NDLRP : réalisé par Olivie’r Chevillard. Les illustrations sont…";s:7:"content";s:1223:"
Présenté par : Adeline Alexandre, Delphine Chaume.
Entretien avec Benjamin Sonntag, co-fondateur de La Quadrature du Net’ pour le livre « Algorithmes, la bombe à retardement », de Cathy O’Neil (Les Arènes).
";s:7:"dateiso";s:15:"20190311_110000";}s:15:"20190310_110000";a:7:{s:5:"title";s:102:"[TV5Monde] Règlement antiterroriste européen : la censure d’Internet automatisée par les GAFA ?";s:4:"link";s:129:"https://www.laquadrature.net/2019/03/10/tv5monde-reglement-antiterroriste-europeen-la-censure-dinternet-automatisee-par-les-gafa/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13641";s:7:"pubDate";s:31:"Sun, 10 Mar 2019 10:00:00 +0000";s:11:"description";s:257:"Le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilé en janvier par la Commission européenne, devrait être adopté avant les élections européennes de mai. L’obligation pour les…";s:7:"content";s:2326:"
Le règlement européen pour la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilé en janvier par la Commission européenne, devrait être adopté avant les élections européennes de mai. L’obligation pour les hébergeurs de retirer un contenu dans l’heure risque de créer une automatisation de la censure en ligne, qui se verrait alors massivement gérée par les géants du Net. Eclairage avec Olivier Iteanu, avocat spécialiste du droit de l’Internet. […]
Selon La Quadrature du net, cette définition très large du terrorisme pourrait englober à terme des mouvements sociaux contestataires — comme celui des Gilets jaunes — et mener à une censure automatisée de la contestation sur Internet. Un article du règlement est particulièrement pointé du doigt : celui permettant à une autorité administrative ou judiciaire d’imposer le retrait de contenus dans un délai d’une heure maximum (règle appelée la « Golden hour », ndlr) sans quoi une amende de 4% du chiffre d’affaires de l’hébergeur impliqué pourrait être appliquée. […]
";s:7:"dateiso";s:15:"20190310_110000";}s:15:"20190309_110000";a:7:{s:5:"title";s:67:"[Brut] La reconnaissance faciale expérimentée au carnaval de Nice";s:4:"link";s:104:"https://www.laquadrature.net/2019/03/09/brut-la-reconnaissance-faciale-experimentee-au-carnaval-de-nice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13642";s:7:"pubDate";s:31:"Sat, 09 Mar 2019 10:00:00 +0000";s:11:"description";s:437:"La reconnaissance faciale est expérimentée pour renforcer la sécurité pendant le carnaval de Nice. Cela inquiète certaines associations, notamment sur l’utilisation des données personnelles…
https://www.brut.media/fr/science-and-technology/la-reconnaissance-faciale-experimentee-au-carnaval-de-nice-c8c75753-3070-4662-b206-ab92ca754623
NRLDP : avec Martin de La Quadrature du net.
Retrouvez notre recours avec trois…";s:7:"content";s:1640:"
La reconnaissance faciale est expérimentée pour renforcer la sécurité pendant le carnaval de Nice. Cela inquiète certaines associations, notamment sur l’utilisation des données personnelles…
";s:7:"dateiso";s:15:"20190309_110000";}s:15:"20190308_110000";a:7:{s:5:"title";s:39:"[LeMedia] Macron contre l’information";s:4:"link";s:75:"https://www.laquadrature.net/2019/03/08/lemedia-macron-contre-linformation/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13643";s:7:"pubDate";s:31:"Fri, 08 Mar 2019 10:00:00 +0000";s:11:"description";s:233:"Après le projet de loi sur les fake news, le pouvoir français prépare une nouvelle loi sur l’information. Officiellement conçue pour lutter contre les contenus haineux sur Internet, celle-ci ouvre une fois encore la voie…";s:7:"content";s:1511:"
Après le projet de loi sur les fake news, le pouvoir français prépare une nouvelle loi sur l’information. Officiellement conçue pour lutter contre les contenus haineux sur Internet, celle-ci ouvre une fois encore la voie à une réduction des libertés publiques. Que nous prépare l’Etat, main dans la main avec les GAFAS ? Quelles menaces pèsent sur la liberté d’informer en France ? Pour en discuter au Média TV à Montreuil, 4 invités avec nous le jeudi 28 février à 20h30.
Gaspard Glanz, journaliste indépendant, fondateur de Taranis news ;
John R. MacArthur, journaliste et essayiste politique, patron du Harper’s, le plus ancien mensuel américain ;
Olivier Berruyer, fondateur du site Les crises, un des blogs français les plus fréquentés sur les sujets internationaux et économiques ;
Benjamin Bayart, cofondateur de La Quadrature du Net, association qui milite pour les libertés fondamentales sur le web. Ex-président de French Data Network, le plus ancien fournisseur d’accès à internet en France.
";s:7:"dateiso";s:15:"20190308_110000";}s:15:"20190307_110000";a:7:{s:5:"title";s:61:"[korii] Alexa va-t-elle devenir un membre de notre famille ?";s:4:"link";s:97:"https://www.laquadrature.net/2019/03/07/korii-alexa-va-t-elle-devenir-un-membre-de-notre-famille/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13644";s:7:"pubDate";s:31:"Thu, 07 Mar 2019 10:00:00 +0000";s:11:"description";s:272:"Nos assistants vocaux nous connaissent aussi bien (voire mieux) que les personnes qui composent notre foyer, où ils occupent une place bien particulière. […]
Malgré sa voix humaine, malgré son côté sympa et disponible, Alexa n’éprouve aucune…";s:7:"content";s:1481:"
Nos assistants vocaux nous connaissent aussi bien (voire mieux) que les personnes qui composent notre foyer, où ils occupent une place bien particulière. […]
Malgré sa voix humaine, malgré son côté sympa et disponible, Alexa n’éprouve aucune émotion. Même si la personne qui l’utilise s’est attachée à elle, Alexa ne fera jamais de même, rappelle Alexis Fitzjean O Cobhthaigh, juriste et membre de la Quadrature du Net, une association qui défend les libertés numériques : « Dans la relation avec un assistant vocal, l’affect ne va que dans un sens. Il ne faut pas tomber dans le piège de croire qu’une véritable relation se nouerait avec la machine. Le chatbot ne ressent absolument rien. Il essaye juste de faire le lien entre les informations qu’il arrive à capter. Un chatbot, c’est aussi tout simplement un moteur de recherche comme Google ». […]
";s:7:"dateiso";s:15:"20190307_110000";}s:15:"20190306_110000";a:7:{s:5:"title";s:122:"[ActeursPublics] Cybersécurité : les sondes de l’Anssi dans le collimateur d’associations de défense des libertés";s:4:"link";s:148:"https://www.laquadrature.net/2019/03/06/acteurspublics-cybersecurite-les-sondes-de-lanssi-dans-le-collimateur-dassociations-de-defense-des-libertes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13645";s:7:"pubDate";s:31:"Wed, 06 Mar 2019 10:00:00 +0000";s:11:"description";s:262:"La Quadrature du net, le fournisseur d’accès « franciliens.net » et la Fédération des fournisseurs d’accès associatifs ont déposé un recours pour excès de pouvoir devant le Conseil d’État. En ligne de mire : les sondes de détection…";s:7:"content";s:2118:"
La Quadrature du net, le fournisseur d’accès « franciliens.net » et la Fédération des fournisseurs d’accès associatifs ont déposé un recours pour excès de pouvoir devant le Conseil d’État. En ligne de mire : les sondes de détection dont le déploiement par l’Anssi a été autorisé par la dernière loi de programmation militaire. […]
Cette imprécision terminologique, couplée à celle qui entoure les “menaces” qui seront recherchées par ces sondes, ne permet donc pas, selon Alexis Fitzjean O’Cobhthaigh, de bien saisir “l’objet et la portée exacte des mesures susceptibles d’être mises en œuvre”. Ainsi, ce recours “pose de nombreuses questions de « principe », notamment celle de la légitimité d’une analyse profonde (ce qu’on appelle le Deep Packet Inspection, c’est-à-dire une analyse du contenu des paquets et non seulement des métadonnées) en temps réel de la totalité du trafic internet ou à tout le moins de parts très substantielles de celui-ci”, explique l’avocat. […]
";s:7:"dateiso";s:15:"20190306_110000";}s:15:"20190305_124757";a:7:{s:5:"title";s:67:"Censure antiterroriste : première défaite au Parlement européen";s:4:"link";s:102:"https://www.laquadrature.net/2019/03/05/censure-antiterroriste-premiere-defaite-au-parlement-europeen/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13659";s:7:"pubDate";s:31:"Tue, 05 Mar 2019 11:47:57 +0000";s:11:"description";s:247:"Hier, les députés européens ont publié le premier des deux avis attendus sur le règlement de censure des « contenus terroristes », et il est mauvais. Malgré les bonnes intentions de la rapporteure Julia Reda, la Commission…";s:7:"content";s:8403:"
Hier, les députés européens ont publié le premier des deux avis attendus sur le règlement de censure des « contenus terroristes », et il est mauvais. Malgré les bonnes intentions de la rapporteure Julia Reda, la Commission IMCO (« Marché intérieur et protection des consommateurs ») a décidé de n’apporter aucun réel changement à la proposition telle que publiée par la Commission européenne en septembre dernier.
Selon l’avis de la commission IMCO1L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document., le gouvernement de n’importe quel État membre de l’Union européenne pourra ordonner à tout site Internet de retirer un contenu qu’il considère comme « terroriste ». Aucune autorisation judiciaire préalable ne sera nécessaire, ce qui permettra aux gouvernements d’abuser de la notion vague de « terrorisme ». La seule chose que la commission IMCO a accepté d’ajouter est de soumettre l’ordre de retrait du gouvernement à un « contrôle judiciaire », ce qui ne veut pas dire grand chose.
En France, les ordres de retrait du gouvernement concernant les « contenus terroristes » sont déjà sujets à un « contrôle judiciaire », avec une autorité indépendante (une personne qualifiée de la CNIL) qui est notifiée de tous les ordres de retrait et qui peut demander à un juge d’en évaluer la légalité. Cela n’a pas servi à grand chose : ce contrôle judiciaire n’a été utilisé qu’une seule fois et, même s’il a conduit à une annulation de l’ordre de retrait, n’a été reconnu comme étant illicite qu’un an et demi après (voir la décision). Durant ce laps de temps, le gouvernement français a donc été capable de censurer abusivement un contenu, en l’espèce une publication d’extrême-gauche sur la plateforme Indymedia.
Loin de simplifier le cadre juridique, le règlement ne fera que le rendre plus complexe, l’autorité d’un État membre étant en capacité d’ordonner le retrait d’un contenu dans un autre État, sans nécessairement prendre en compte le contexte dans lequel il a été publié.
Des délais de retrait irréalistes
Concernant le délai d’une heure que la police peut imposer à un hébergeur pour retirer un contenu qu’elle considère comme « terroriste », aucun réel progrès n’a non plus été réalisé par la commission IMCO. Il a été remplacé par un délai ne pouvant être plus court que huit heures, avec une exception pour les « microentreprises » qui n’auraient pas déjà reçu un ordre de retrait (dans ce cas, il est indiqué que le délai ne pourrait se terminer avant le prochain jour travaillé).
Cette exception très limitée ne permettrait pas à la grande majorité des acteurs de l’Internet de se conformer à des délais aussi courts. Même si la commission IMCO a retiré toute référence à des « mesures proactives » que la police pourrait imposer aux acteurs de l’Internet, et a indiqué que ces derniers ne devraient pas utiliser de filtres automatiques ; ces délais très courts, ainsi que la menace de lourdes sanctions financières ne pourront que les forcer à se soumettre aux outils de modération développés par les GAFAM (Facebook et Google en tête) et à retenir la définition la plus large possible de la notion de « terrorisme » pour éviter toute sanction. De la même façon, l’obligation irréaliste de prévoir un « point de contact » disponible 24/24h et 7j/7 n’a pas été modifiée. La commission IMCO a même alourdi les sanctions financières qui peuvent être imposées en prévoyant une sanction minimum de 1% du chiffre d’affaires mondial, plancher qui n’existait pas dans la proposition de la Commission européenne.
Prochaines étapes
La prochaine étape sera le 11 mars, lors du vote de l’avis de la commission CULT (Culture et Education). Nous n’avons pas de grands espoirs : comme nous l’avions déjà souligné, le projet d’avis de la rapporteure Julie Ward n’était même pas aussi positif que celui de la commission ICMO.
Notre dernière réelle opportunité pour obtenir le rejet de ce texte liberticide sera le 21 mars prochain, lors du vote au sein de la commission LIBE (Libertés civiles, justice et affaires intérieures). Les citoyens européens doivent contacter leurs députés pour demander le rejet du règlement. Nous avons prévu à cet effet une page dédiée avec une analyse du texte et un outil pour contacter directement les députés concernés.
Dès aujourd’hui et dans les 2 semaines à venir, appelez vos députés et demandez leur de rejeter ce texte.
L’avis de la commission IMCO n’a pas encore été publié, mais il est principalement constitué de tous les amendements de compromis (excepté le CA 5) listés dans ce document.
";s:7:"dateiso";s:15:"20190305_124757";}s:15:"20190305_110000";a:7:{s:5:"title";s:76:"[FranceTvInfo] Faut-il voir la reconnaissance faciale d’un mauvais œil ?";s:4:"link";s:109:"https://www.laquadrature.net/2019/03/05/francetvinfo-faut-il-voir-la-reconnaissance-faciale-dun-mauvais-oeil/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13646";s:7:"pubDate";s:31:"Tue, 05 Mar 2019 10:00:00 +0000";s:11:"description";s:280:"Au printemps 2018, deux lycées de la région Paca vont tester cette technologie à l’entrée des établissements pour éviter les intrusions. Un dispositif inédit en France qui suscite des interrogations sur l’utilisation des données biométriques. […]
Un…";s:7:"content";s:2895:"
Au printemps 2018, deux lycées de la région Paca vont tester cette technologie à l’entrée des établissements pour éviter les intrusions. Un dispositif inédit en France qui suscite des interrogations sur l’utilisation des données biométriques. […]
Un angle mort déjà exposé par le député LREM Didier Baichère, dans une question officiellement adressée le 9 octobre 2018, à Mounir Mahjoubi, secrétaire d’Etat chargé du Numérique. Le parlementaire souhaitait « savoir si [le gouvernement] envisage prochainement de réfléchir à comment prévenir l’utilisation de ces technologies à des fins malhonnêtes« .
Sa question était restée sans réponse. « En tant que parlementaire, je suis gêné que des expérimentations démarrent, regrette le député interrogé par franceinfo. Il faudrait d’abord commencer par saisir des instances comme l’office parlementaire d’évaluation des choix scientifiques et technologiques. » Martin Drago, membre de la Quadrature du net interrogé par franceinfo, considère ces expérimentations comme « un nouvel exemple de la banalisation des technologies de surveillance en France. La reconnaissance faciale est une technologie particulièrement intrusive pour notre vie privée et devrait être, au minimum, comme le recommande l’article 8 de la CEDH, basée sur une loi adaptée, claire, intelligible avec les garde-fous nécessaires« , préconise-t-il. […]
";s:7:"dateiso";s:15:"20190305_110000";}s:15:"20190304_110000";a:7:{s:5:"title";s:106:"[NextINpact] LPM 2019-2025 : le décret sur le Deep Packet Inspection attaqué devant le Conseil d’Etat";s:4:"link";s:137:"https://www.laquadrature.net/2019/03/04/nextinpact-lpm-2019-2025-le-decret-sur-le-deep-packet-inspection-attaque-devant-le-conseil-detat/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13647";s:7:"pubDate";s:31:"Mon, 04 Mar 2019 10:00:00 +0000";s:11:"description";s:253:"La Quadrature du Net, Franciliens.net et la Fédération FDN viennent d’attaquer le décret de la loi de programmation militaire. Un texte qui autorise le déploiement d’outils de deep packet inspection chez les intermédiaires techniques, en…";s:7:"content";s:2017:"
La Quadrature du Net, Franciliens.net et la Fédération FDN viennent d’attaquer le décret de la loi de programmation militaire. Un texte qui autorise le déploiement d’outils de deep packet inspection chez les intermédiaires techniques, en particulier les hébergeurs. […]
Dans le fil du recours, un autre reproche vise la définition même de plusieurs termes centraux comme la notion de « menace » ou celle de « marqueurs techniques », jugées trop floues dans les textes. De fait, LQDN et les deux autres associations estiment être dans l’incapacité d’affirmer que cette détection des menaces se limitera aux seules données de connexion ou débordera sur le contenu des correspondances.
« L’imprécision de cette notion, regrettent les trois acteurs, engendre un doute dans le régime appliqué et donc dans les garanties et restrictions qui doivent être attachées à une telle technique de surveillance ». […]
";s:7:"dateiso";s:15:"20190304_110000";}s:15:"20190303_110000";a:7:{s:5:"title";s:117:"[Cnet] La reconnaissance faciale dans les lycées suscite l’inquiétude, plusieurs associations montent au créneau";s:4:"link";s:149:"https://www.laquadrature.net/2019/03/03/cnet-la-reconnaissance-faciale-dans-les-lycees-suscite-linquietude-plusieurs-associations-montent-au-creneau/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13604";s:7:"pubDate";s:31:"Sun, 03 Mar 2019 10:00:00 +0000";s:11:"description";s:276:"Deux lycées de la région Sud testent la reconnaissance faciale. Quatre associations françaises ont déposé un recours auprès du tribunal administratif de Marseille. […]
Pour Martin Drago, juriste à la Quadrature du Net, l’une des associations qui…";s:7:"content";s:1910:"
Deux lycées de la région Sud testent la reconnaissance faciale. Quatre associations françaises ont déposé un recours auprès du tribunal administratif de Marseille. […]
Pour Martin Drago, juriste à la Quadrature du Net, l’une des associations qui a déposé ce recours : « Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français« . Rappelons que l’aéroport de Nice dispose d’un outil similaire afin notamment d’améliorer le contrôle aux frontières et fluidifier la circulation.
";s:7:"dateiso";s:15:"20190303_110000";}s:15:"20190302_110000";a:7:{s:5:"title";s:94:"[FranceCulture] Civic tech, fake news : les algorithmes, amis ou ennemis de la démocratie ?";s:4:"link";s:124:"https://www.laquadrature.net/2019/03/02/franceculture-civic-tech-fake-news-les-algorithmes-amis-ou-ennemis-de-la-democratie/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13598";s:7:"pubDate";s:31:"Sat, 02 Mar 2019 10:00:00 +0000";s:11:"description";s:327:"Comment fonctionnent les algorithmes ? Comment après la vie privée, les algorithmes s’installent-ils dans la vie publique ? La contestation sociale dépend-elle aujourd’hui des algorithmes ? Quelles innovations pourraient permettre de lutter contre les fake news ? […]
Pour en parler…";s:7:"content";s:1602:"
Comment fonctionnent les algorithmes ? Comment après la vie privée, les algorithmes s’installent-ils dans la vie publique ? La contestation sociale dépend-elle aujourd’hui des algorithmes ? Quelles innovations pourraient permettre de lutter contre les fake news ? […]
Pour en parler autour de cette table, nous sommes ravis d’accueillir Axelle Lemaire, ancienne Secrétaire d’Etat chargée du Numérique sous la présidence de François Hollande, actuellement associée au cabinet de conseil en stratégie Roland Berger – qui est en charge du traitement des données recueillies pour le Grand Débat National, Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Universités, et président du conseil d’éthique du CNRS et Benjamin Bayart, co-fondateur de la quadrature du Net, co-président de la Fédération des Fournisseurs d’Accès à Internet Associatifs. […]
";s:7:"dateiso";s:15:"20190302_110000";}s:15:"20190301_110000";a:7:{s:5:"title";s:91:"[PublicSenat] Haine sur Internet : l’exécutif veut mettre les plateformes sous pression";s:4:"link";s:123:"https://www.laquadrature.net/2019/03/01/publicsenat-haine-sur-internet-lexecutif-veut-mettre-les-plateformes-sous-pression/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13599";s:7:"pubDate";s:31:"Fri, 01 Mar 2019 10:00:00 +0000";s:11:"description";s:253:"Un délai de 24 heures imposé aux plateformes pour retirer un contenu haineux, mise en place d’une procédure uniformisée pour les signalements ou encore l’accélération de la levée de l’anonymat pour les auteurs d’injures racistes……";s:7:"content";s:2894:"
Un délai de 24 heures imposé aux plateformes pour retirer un contenu haineux, mise en place d’une procédure uniformisée pour les signalements ou encore l’accélération de la levée de l’anonymat pour les auteurs d’injures racistes… Une proposition de loi en ce sens devrait voir le jour dans les prochaines semaines mais se heurte déjà à des limites juridiques et techniques. […]
En effet, les propositions contenues dans le rapport pourraient, à première vue, conduire à des effets indésirables. « Seules les grandes plateformes ont les moyens de se munir d’algorithmes permettant ce filtrage généralisé et ainsi retirer des contenus dans un délai court. Une telle loi renforcerait l’hégémonie de Facebook, Twitter… Mais surtout, Facebook ne dispose pas de garanties d’indépendance et d’impartialité pour juger ce qui est haineux ou non. Il ne peut se substituer à un magistrat dont c’est le rôle » rappelle Alexis Fitzjean O Cobhthaigh avocat au barreau de Paris et membre de la Quadrature du Net. Dans une interview au Monde, la députée Laetitia Avia affirme également sa volonté d’accélérer la levée de l’anonymat pour les auteurs d’injures racistes ou antisémites sur le web. « Pour lever l’anonymat sur le Net, la France contraint les hébergeurs de contenus à conserver les données de connexions pendant un an. Or, la jurisprudence de la Cour de Justice européenne considère que ce n’est pas conforme au droit européen » observe Alexis Fitzjean O Cobhthaigh. […]
";s:7:"dateiso";s:15:"20190301_110000";}s:15:"20190228_113839";a:7:{s:5:"title";s:60:"Solidarité avec les profs de Paris 13 remplacés par Google";s:4:"link";s:99:"https://www.laquadrature.net/2019/02/28/solidarite-avec-les-profs-de-paris-13-remplaces-par-google/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13624";s:7:"pubDate";s:31:"Thu, 28 Feb 2019 10:38:39 +0000";s:11:"description";s:251:"Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignant·es de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es.
Cette formation…";s:7:"content";s:3225:"
Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignant·es de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es.
Cette formation de Google est un exemple de plus où l’État désinvestit le service public pour le déléguer à des acteurs privés, faisant directement écho à nos principaux dossiers en cours – où l’État délègue la censure du Net aux GAFAM dans le règlement de censure terroriste et où certaines villes confient leur politique sécuritaire à des technologies privées.
Le cas de Paris 13 est criant : alors que l’université manque considérablement de moyens pour fournir des cours à ses étudiant·es, elle accueille à bras ouvert Google, qui vient gratuitement expliquer aux élèves comment devenir complices de sa surveillance économique de masse (récemment reconnue illégale par la CNIL suite à l’une de nos plaintes collectives).
Nous reproduisons ci-dessous et nous nous associons au communiqué des membres du personnel de Paris 13 luttant contre cette privatisation de l’enseignement public.
Action contre la présence de Google à Paris 13
La formation « Ateliers Numériques » donnée par Google à l’Université Paris 13 a été interrompue le lundi 25 février 2019 vers 9h30 par des membres du comité de mobilisation de Paris 13 (enseignant·e·s, chercheur·se·s, étudiant·e·s, membres du personnel) et des militant·e·s de l’association la Quadrature du Net, qui promeut et défend les libertés fondamentales dans l’environnement numérique.
En présence d’une centaine d’étudiant·e·s, de Jean-Pierre Astruc (Président de l’Université) et
Younès Bennani (Vice-Président « transition numérique » de l’Université), ils ont pu prendre la parole et dénoncer :
l’ingérence d’intérêts privés dans l’enseignement supérieur public, qui corrompt
l’indépendance des savoirs enseignés à l’Université,
la faiblesse pédagogique de la formation qui se résume à de la publicité gratuite,
la politique d’évasion fiscale massive pratiquée par Google qui contribue à la destruction de l’enseignement supérieur français, ce qui fournit en retour l’excuse pour céder à ce type de formations.
Les membres du comité de mobilisation et de la Quadrature du Net ont ensuite quitté la salle sans heurts.
";s:7:"dateiso";s:15:"20190228_113839";}s:15:"20190228_110000";a:7:{s:5:"title";s:88:"[BFMTV] Quatre associations se liguent contre la reconnaissance faciale dans les lycées";s:4:"link";s:126:"https://www.laquadrature.net/2019/02/28/bfmtv-quatre-associations-se-liguent-contre-la-reconnaissance-faciale-dans-les-lycees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13600";s:7:"pubDate";s:31:"Thu, 28 Feb 2019 10:00:00 +0000";s:11:"description";s:273:"Pour mieux contrôler l’entrée des élèves, deux lycées du Sud de la France testent des portiques dotés d’une technologie de reconnaissance faciale. Un recours vient d’être déposé auprès du tribunal administratif de Marseille pour « faire…";s:7:"content";s:1756:"
Pour mieux contrôler l’entrée des élèves, deux lycées du Sud de la France testent des portiques dotés d’une technologie de reconnaissance faciale. Un recours vient d’être déposé auprès du tribunal administratif de Marseille pour « faire barrage à la surveillance biométrique« . […]
Le recours déplore également le défaut d’analyse d’impact, pourtant légitime avant le lancement d’un tel test. Une impasse d’autant plus cruciale que « ce dispositif expérimental, installé et financé par la société américaine Cisco a vocation à être étendu à l’ensemble des établissements scolaires de la région« , relève la Quadrature du Net.
";s:7:"dateiso";s:15:"20190228_110000";}s:15:"20190227_110000";a:7:{s:5:"title";s:136:"[TV5Monde] Reconnaissance faciale : quatre associations déposent un recours contre les futurs portiques de lycées du sud de la France";s:4:"link";s:170:"https://www.laquadrature.net/2019/02/27/tv5monde-reconnaissance-faciale-quatre-associations-deposent-un-recours-contre-les-futurs-portiques-de-lycees-du-sud-de-la-france/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13601";s:7:"pubDate";s:31:"Wed, 27 Feb 2019 10:00:00 +0000";s:11:"description";s:229:"Deux lycées du sud de la France ont eu le feu vert de la Commission nationale de l’informatique et des libertés pour tester des portiques virtuels utilisant une technologie de reconnaissance faciale afin de filtrer…";s:7:"content";s:2048:"
Deux lycées du sud de la France ont eu le feu vert de la Commission nationale de l’informatique et des libertés pour tester des portiques virtuels utilisant une technologie de reconnaissance faciale afin de filtrer les élèves. La quadrature du net associée à trois autres associations a déposé un recours pour demander l’annulation de la délibération du conseil régional à l’initiative de ce projet. Entretien avec Martin Drago, membre de LQDN et Didier Baichere, député LREM. […]
Martin Drago (membre de LQDN en charge du dossier reconnaissance faciale) et Didier Bachaire, député LREM (ayant posé une question au gouvernement sur la régulation des technologies de reconnaissance faciale), répondent chacun à nos questions au sujet de ces portiques et plus généralement de l’arrivée des « caméras intelligentes » dans les espaces publics. […]
";s:7:"dateiso";s:15:"20190227_110000";}s:15:"20190226_135710";a:7:{s:5:"title";s:58:"Cybersécurité : nous attaquons la surveillance de masse";s:4:"link";s:94:"https://www.laquadrature.net/2019/02/26/cybersecurite-nous-attaquons-la-surveillance-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13613";s:7:"pubDate";s:31:"Tue, 26 Feb 2019 12:57:10 +0000";s:11:"description";s:266:"Nous venons de saisir le Conseil d’État contre la loi de programmation militaire (LPM) 2019 au côté d’un fournisseur d’accès associatif, Franciliens.net, et de la Fédération des fournisseurs d’accès associatifs (FFDN) . Pour la…";s:7:"content";s:7908:"
Nous venons de saisir le Conseil d’État contre la loi de programmation militaire (LPM) 2019 au côté d’un fournisseur d’accès associatif, Franciliens.net, et de la Fédération des fournisseurs d’accès associatifs (FFDN) . Pour la première fois, le droit français a autorisé le gouvernement à analyser de façon automatisée le contenu de nos communications. Voilà comment nous nous y opposons.
La LPM 2019 est entrée en vigueur en France en juillet 2018. C’est un texte épars sur des questions de sécurité et notamment, à son article 34, de cybersécurité.
L’agence de cybersécurité du gouvernement (l’ANSSI – l’autorité nationale de sécurité des systèmes d’information) gagne de nouveaux pouvoirs de surveillance du Net. Elle peut ordonner à un hébergeur Web ou un FAI (fournisseur d’accès à Internet) de poser sur le réseau des sondes lui permettant d’analyser le trafic pour détecter des attaques informatiques – en théorie du moins car, en pratique, on n’en sait trop rien, tout cela se déroulant sans le contrôle d’un juge.
Ces sondes sont la suite directe des « boîtes noires » instituées par la loi renseignement de 2015, qui permettent aux services du gouvernement de surveiller les réseaux de télécommunication de façon automatique et parfaitement opaque afin de détecter des « menaces terroristes », toujours sans l’autorisation d’un juge. La différence majeure entre les boites noires de 2015 et de 2019 est que ces premières n’analysent en théorie que des données techniques (qui parle à qui, quand…) alors que celles de 2019 peuvent aussi analyser le contenu des communications. La tentation pour le gouvernement de détourner ces nouveaux outils à des fins de surveillance politique en est d’autant plus grande.
Pour aller plus en détails, vous pouvez relire notre analyse complète de la loi, publiée cet été.
Nos arguments
En terme de stratégie, nous avons demandé au Conseil d’État de dire que cette loi viole le droit européen (techniquement, nous n’avons pas directement attaqué la loi mais son « décret d’application », car il n’existe pas de procédure en France pour attaquer une loi ; en pratique, ça ne fait ici aucune différence puisque le Conseil d’État a le pouvoir d’annuler un décret au motif que la loi qu’il applique viole le droit européen, ce qui revient au même pour nous : c’est cette violation que nous voulons voir reconnue par un juge).
Sur le fond, vous pouvez lire ici la demande que nous avons envoyée. Elle est très simple et courte, car il ne s’agit que d’un premier document destiné à ouvrir la procédure (nous devions envoyer notre demande dans les deux mois suivant la publication du décret). Le détail de notre argumentation viendra dans un « mémoire complémentaire », mais les grandes lignes sont déjà là.
Des objectifs confus
Le texte est extrêmement confus quant à son objectif. Il semble vouloir protéger les internautes des cyberattaques et, dans le même temps, détecter ceux qui sont à l’origine de ces attaques, sans faire aucune distinction entre ces deux objectifs. Or, en droit, poursuivre l’un ou l’autre de ces objectifs change tout. Si c’est pour vous protéger, le droit doit au minimum vous laisser la possibilité de vous opposer à l’analyse de vos communications qui en résulte. Ici, la LPM ne vous laisse aucun pouvoir de la sorte : vous êtes protégé contre votre volonté.
Si l’objectif est de détecter les attaquants, évidemment, le droit n’a plus aucune raison de laisser à ceux-ci la possibilité de s’y opposer. Mais la loi doit toutefois leur garantir un certain nombre de droits, ne serait-ce que pour éviter que ces mesures ne soient dévoyées à des fins de surveillance politique.
Une surveillance indéfinie
D’abord, la nature et les conséquences de la surveillance doivent être compréhensibles à la lecture de la loi : ici, aucune définition ne limite la nature des données qui pourront être analysées par les sondes (le directeur de l’ANSSI annonce ainsi qu’il pourra s’agir de données techniques comme des données relatives au contenu des communications, ce qui décuplera les risques posés par ces mesures) ni quelles seront les « menaces » qui pourront être recherchées.
On ne sait pas non plus ce que seront ces « marqueurs techniques » utilisés par ces sondes pour rechercher ces menaces : cette notion de « marqueurs », invoquée par la loi, n’a aucune signification juridique ou technique.
Aucun contrôle indépendant
Ensuite, le droit européen impose de soumettre n’importe quelle mesure de surveillance au contrôle d’une autorité indépendante : ici, l’autorité indépendante désignée par la loi est l’ARCEP (l’autorité de régulation des postes et des communications électroniques).
Sauf que la LPM ne donne aucun pouvoir de contrôle à l’ARCEP : elle ne peut pas contrôler les sondes « sur place » (contrairement au contrôle que la CNIL peut faire dans une entreprise, par exemple). Elle ne peut pas davantage sanctionner l’ANSSI si elle constate que les sondes ont été dévoyées à des fins de surveillance politique.
Aucun moyen de se défendre
Enfin, les personnes surveillées doivent pouvoir contester les mesures illicites qu’elles ont subit. Le droit européen exige ceci de deux façon : en s’assurant que les personnes surveillées soient prévenues de la mesure une fois que la menace invoquée a disparue ; en leur permettant de saisir la justice ou une autorité compétente (ici l’ARCEP) pour contester la validité de la surveillance. Encore une fois, la LPM 2019 ne prévoit aucune de ces garanties.
Nous ouvrons ce nouveau front contre la surveillance de masse alors même que notre action contre la loi renseignement de 2015 vient tout juste d’être transmise devant les juges européens (voir notre article) et que le Parlement européen est sur le point de voter une nouvelle loi de surveillance-censure généralisée du Web dans les mains de la police et des GAFAM, abusant une fois de plus du prétexte terroriste.
Si vous pensez que nous avons bien fait d’ouvrir ce nouveau front, participez à tenir les autres fronts avec nous : jusqu’au 21 mars, appelez les députés européens pour leur demander de rejeter le règlement de censure terroriste.
";s:7:"dateiso";s:15:"20190226_135710";}s:15:"20190226_110000";a:7:{s:5:"title";s:69:"[FranceCulture] Peut-on repartir de zéro sur les réseaux sociaux ?";s:4:"link";s:103:"https://www.laquadrature.net/2019/02/26/franceculture-peut-on-repartir-de-zero-sur-les-reseaux-sociaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13602";s:7:"pubDate";s:31:"Tue, 26 Feb 2019 10:00:00 +0000";s:11:"description";s:237:"Chaque seconde, près de 6000 tweets sont postés sur Twitter. Ceux qui ne seront pas effacés deviendront vite obsolètes. Mais culture de l’instantané ne veut pas dire culture de l’oubli. Les vieux messages peuvent toujours…";s:7:"content";s:1291:"
Chaque seconde, près de 6000 tweets sont postés sur Twitter. Ceux qui ne seront pas effacés deviendront vite obsolètes. Mais culture de l’instantané ne veut pas dire culture de l’oubli. Les vieux messages peuvent toujours ressurgir. Alors comment gérer la mémoire d’Internet ? […]
Intervenants :
Laurent Chemla, Fondateur de GANDI, membre de la Quadrature du net
Fanny Georges, Sémiologue, maître de conférences en sciences de l’information et de la communication à l’Université Sorbonne Nouvelle – Paris 3
Yann Padova, Avocat, ancien secrétaire général de la CNIL (2006-2012), partner chez Baker McKenzie
";s:7:"dateiso";s:15:"20190226_110000";}s:15:"20190225_110000";a:7:{s:5:"title";s:93:"[NextINpact] Le Conseil constitutionnel censure l’ancien droit de communication des douanes";s:4:"link";s:129:"https://www.laquadrature.net/2019/02/25/nextinpact-le-conseil-constitutionnel-censure-lancien-droit-de-communication-des-douanes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13603";s:7:"pubDate";s:31:"Mon, 25 Feb 2019 10:00:00 +0000";s:11:"description";s:259:"Le Conseil constitutionnel a censuré vendredi l’ancien régime du droit de communication des données de connexion dont bénéficiaient les agents des douanes. Après avoir considéré que ce régime était conforme au bloc de constitutionnalité le…";s:7:"content";s:1601:"
Le Conseil constitutionnel a censuré vendredi l’ancien régime du droit de communication des données de connexion dont bénéficiaient les agents des douanes. Après avoir considéré que ce régime était conforme au bloc de constitutionnalité le 27 janvier 2012, la haute juridiction est finalement revenue sur son analyse en raison d’un « changement des circonstances ». […]
Dans cette QPC, notons l’intervention de la Quadrature du Net, et d’autres associations (Franciliens.net, FAImaison, Midway’s Network et Rézine), toutes représentées par Me Alexis Fitzjean Ó Cobhthaigh.
";s:7:"dateiso";s:15:"20190225_110000";}s:15:"20190222_123055";a:7:{s:5:"title";s:47:"Vers l’automatisation de la censure politique";s:4:"link";s:85:"https://www.laquadrature.net/2019/02/22/vers-lautomatisation-de-la-censure-politique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13420";s:7:"pubDate";s:31:"Fri, 22 Feb 2019 11:30:55 +0000";s:11:"description";s:227:"Une tribune de Félix Tréguer.
Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées…";s:7:"content";s:29626:"
Pour vous opposer à l’automatisation de la censure imposée par le règlement terroriste, rendez-vous sur notre page de campagne et contactez les députés européens jusqu’au 21 mars.
Une tribune de Félix Tréguer, membre de La Quadrature du Net.
Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.
L’héritage démocratique-libéral piétiné
La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.
Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.
Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.
De l’expérimentation à la législation
Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu de cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.
La France est directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.
Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :
L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.
La censure automatique bientôt généralisée
De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.
D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :
« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine… ».
À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de filtrage pour ajouter de nouvelles catégories de contenus.
Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte :
« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».
Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos publiées par ses utilisateurs, aura à lui seul coûté près de 100 millions de dollars en développement…
Macron en soutien
Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.
Dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :
« le premier concerne la lutte contre les contenus objectivement et gravement illégaux – le terrorisme, la pédopornographie ». Pour ces contenus, l’intelligence artificielle est « mûre », assure le président français. C’est bien le sens du règlement européen que d’en généraliser l’usage.
« le second rassemble les contenus dont le caractère illicite est soumis à une interprétation, souvent d’ailleurs différente d’un pays à l’autre – les contenus haineux, la diffamation, le harcèlement ». Pour ces derniers, Emmanuel Macron estime que l’intelligence artificielle « n’est pas encore assez fine pour distinguer l’ironie, la parodie ou au contraire reconnaître un sous-entendu abject sous un discours policé ».
« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.
Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…
L’intelligence artificielle, Saint Graal des États
Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle ».
Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».
Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (mais guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne les ait signalés.
Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage. L’essentiel des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. « En attendant les robots », ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.
Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. Elle est bien en passe de fonder un nouveau régime de censure.
La fusion État-GAFAM : actualisation de logiques anciennes
Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoir-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.
Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.
En France, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique, bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.
Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).
La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent renforcer la position dominante de ces multinationales en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de filtrage. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.
L’instrumentalisation de la lutte contre les discours de haine
On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats public-privé opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.
On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.
On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de faire retirer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.
S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.
Conjurer la re-féodalisation de l’espace public numérique
Si l’on se soucie de la liberté d’expression, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles formes de censure doivent être tenues en échec.
Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.
Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.
Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.
L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.
L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.
";s:7:"dateiso";s:15:"20190222_123055";}s:15:"20190220_152836";a:7:{s:5:"title";s:83:"Le Conseil constitutionnel censure l’accès des douanes aux données de connexion";s:4:"link";s:119:"https://www.laquadrature.net/2019/02/20/le-conseil-constitutionnel-censure-lacces-des-douanes-aux-donnees-de-connexion/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13540";s:7:"pubDate";s:31:"Wed, 20 Feb 2019 14:28:36 +0000";s:11:"description";s:237:"Retour sur la petite victoire du 15 février dernier : La Quadrature du Net et les FAI associatifs Franciliens.net, Rézine, FAImaison et Midway's Network sont intervenus fin décembre devant le Conseil constitutionnel afin de lui…";s:7:"content";s:5233:"
La Quadrature du Net et les FAI associatifs Franciliens.net, Rézine, FAImaison et Midway’s Network sont intervenus fin décembre devant le Conseil constitutionnel afin de lui demander de censurer le i) du 1°) de l’article 65 du code des douanes.
Ces dispositions permettaient aux agents des douanes d’accéder aux données de connexion conservées par les intermédiaires techniques (vous pouvez lire notre recours ici).
Ce texte pose deux problèmes fondamentaux : d’une part il s’appuie sur une conservation des données de connexion qui n’est pas conforme au droit européen, d’autre part, dans la procédure pour y accéder, aucune garantie n’était prévue (il n’y avait pas de délai d’effacement des données prévu, par exemple) ce que le Conseil Constitutionnel a systématiquement sanctionné ces dernières années.
Le 15 février 2019, le Conseil constitutionnel a fait droit à cette demande, et censuré les dispositions légales attaquées, aux motifs que « La communication des données de connexion est de nature à porter atteinte au droit au respect de la vie privée de la personne intéressée » (voir la décision).
Le Conseil constitutionnel a considéré que, si le législateur avait réservé à certains agents des douanes soumis au respect du secret professionnel le pouvoir d’obtenir ces données dans le cadre d’opérations intéressant leur service et ne leur a pas conféré un pouvoir d’exécution forcée, il n’avait assorti la procédure prévue par les dispositions en cause d’aucune autre garantie. Dans ces conditions, toujours d’après le Conseil, le législateur n’avait pas entouré la procédure prévue par les dispositions contestées de garanties propres à assurer une conciliation équilibrée entre, d’une part, le droit au respect de la vie privée et, d’autre part, la prévention des atteintes à l’ordre public et la recherche des auteurs d’infractions.
Pour mémoire, cette victoire s’inscrit dans le sillage de précédentes actions. En particulier, en 2017, La Quadrature du Net avait remporté une victoire similaire, aux côtés de la Fédération des fournisseurs d’accès à Internet associatifs et de FDN, via les Exégètes Amateurs, à propos de dispositions législatives qui permettaient aux agents de l’Autorité des marchés financiers d’accéder aux mêmes données, dans des conditions identiques.
Le combat n’en est pas terminé pour autant ! En effet, le Conseil constitutionnel a préféré s’abstenir de répondre à une série de points qui étaient soulevés devant lui et qui concernaient le positionnement des données de connexion par rapport au champ couvert par le secret de correspondances, ou encore l’encadrement précis des conditions d’accès à de telles données, à l’instar de ce qu’a fait la Cour de justice de l’Union européenne, notamment dans sa jurisprudence de grande chambre de 2016 « Tele2 » (revoir l’argumentation que nous développons devant cette même Cour de justice contre le système de conservation des données de connexion dans son ensemble).
Par ailleurs, les dispositions qui ont été censurées avaient été abrogées par le législateur à compter du 1er janvier 2019. De nouvelles dispositions sont donc entrées en vigueur concomitamment à cette procédure (qui est donc distincte). Or, ces nouvelles dispositions prévoient désormais que l’accès des douanes aux données de connexion doit être préalablement autorisé par le procureur de la République, qui n’est pourtant pas une autorité indépendante au sens du droit européen, et s’abstiennent de prévoir une information des personnes concernées. Il s’agit pourtant de deux garanties (contrôle préalable par une autorité indépendante et notification de la mesure aux personnes concernées) qui sont exigées par le droit européen.
Le moment venu, nous ne manquerons pas de le rappeler. Notre intervention, et petite victoire, dans la procédure qui a pris fin le 15 février, visait surtout à renforcer des positions et symboles à invoquer dans la longue série de contentieux que nous avons déjà ouverts ou que nous prévoyons de lancer à l’avenir.
";s:7:"dateiso";s:15:"20190220_152836";}s:15:"20190219_154958";a:7:{s:5:"title";s:87:"Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique";s:4:"link";s:123:"https://www.laquadrature.net/2019/02/19/reconnaissance-faciale-un-recours-pour-faire-barrage-a-la-surveillance-biometrique/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13517";s:7:"pubDate";s:31:"Tue, 19 Feb 2019 14:49:58 +0000";s:11:"description";s:267:"Quatre organisations – La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes – viennent de déposer un…";s:7:"content";s:5516:"
Quatre organisations – La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes – viennent de déposer un recours devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région.
Ce recours intervient alors que la polémique enfle après que la mairie de Nice a annoncé expérimenter la reconnaissance faciale dans le cadre du carnaval.
Le 14 décembre 2018, le conseil régional de la région Sud (ex-PACA) a voté une délibération visant à faire installer à l’entrée de deux lycées de la région — le lycée des Eucalyptus à Nice et le lycée Ampère à Marseille — un dispositif de reconnaissance faciale. Ce dispositif expérimental, installé et financé par la société états-unienne Cisco, a vocation, comme l’a précisé M. Christian Estrosi lors du vote au Conseil régional, à être étendu à l’ensemble des établissements scolaires de la région.
Devant l’inaction de la CNIL et alors que cette expérimentation prépare la banalisation de la surveillance par reconnaissance faciale, les quatre organisations requérantes ont décidé de saisir le tribunal administratif de Marseille pour demander l’annulation de cette délibération.
Les arguments juridiques soulevés s’appuient essentiellement sur le règlement général sur la protection des données (RGPD) : la délibération, votée alors qu’aucune analyse d’impact n’avait été réalisée, permet en effet la mise en œuvre d’un traitement de données biométriques qui est notamment manifestement disproportionné par rapport à l’objectif poursuivi (apporter « une assistance aux agents en charge du contrôle d’accès au lycée et de l’accueil ») et qui n’est fondée sur aucune règle juridique adaptée, claire et intelligible, contrairement à ce qu’impose la Convention européenne des droits de l’Homme en matière de droit à la vie privée. La délibération autorisant cette expérimentation est donc illégale et doit être annulée.
Pour Martin Drago, juriste à La Quadrature du Net :
« Cette expérimentation vise à accoutumer les élèves à une surveillance biométrique. Cela participe à la banalisation de ce type de technologies, alors que des projets sécuritaires de vidéosurveillance dopées à la reconnaissance faciale pullulent désormais sur le territoire français. On trouve malheureusement bien peu de monde pour y faire barrage, que ce soit à la CNIL ou au niveau des élus locaux et à ce stade, les juges apparaissent comme l’ultime rempart institutionnel. »
Pour Maryse Artiguelong, vice-présidente de la Ligue des droits de l’Homme :
« Pour la Ligue des droits de l’Homme (LDH) cette expérimentation de reconnaissance faciale, qui permet l’identification à l’aide de données biométriques particulièrement sensibles – elles permettent notamment de déterminer l’origine ethnique, qui plus est sur des élèves en majorité mineurs – est particulièrement inquiétante. »
Pour Laure Guérard-Boushor, de la CGT Educ’Action des Alpes-Maritimes :
« Répression contre les lycéen.ne.s, mise en place de mesures pour restreindre le droit de manifester et maintenant mise en place d’un système de reconnaissance faciale à l’entrée de l’établissement les EK à Nice et Ampère à Marseille; l’escalade est toujours plus importante. Nous condamnons ces projets qui remettent en cause tous les principes de la liberté qu’elle soit individuelle ou collective ; qui laissent la porte ouverte à toutes les dérives, toutes les discriminations. Nous demandons à ce que l’argent dont notre école publique a besoin ne soit pas gaspillé dans des mesures dont on connaît l’inutilité et la nocivité. »
Pour Laëtitia Siccardi, présidente de la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes :
« Cette expérimentation est une dérive sécuritaire de plus, et nous sommes extrêmement attentifs à ce que les droits fondamentaux des lycéens soient respectés. De plus, il s’agit une fois encore d’un investissement financier considérable au service d’une mesure à l’efficacité douteuse.»
";s:7:"dateiso";s:15:"20190219_154958";}s:15:"20190219_110000";a:7:{s:5:"title";s:88:"[ActualitedesLuttes] Vidéosurveillance et menace des libertés sur les réseaux sociaux";s:4:"link";s:124:"https://www.laquadrature.net/2019/02/19/actualitedesluttes-videosurveillance-et-menace-des-libertes-sur-les-reseaux-sociaux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13500";s:7:"pubDate";s:31:"Tue, 19 Feb 2019 10:00:00 +0000";s:11:"description";s:228:"En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL-commision nationale informatique et liberté- pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs…";s:7:"content";s:2147:"
En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL-commision nationale informatique et liberté- pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale. »
Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook, comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ? […]
C’est de ses questions dont nous parlerons dans l’émission de ce jour . Et pour cela , nous serons en compagnie de Martin et Marne, de La Quadrature du Net.
NRDLRP : retrouvez l’émission avec Marne et Martin sur le Peertube de La Quadrature du net.
Notre page dédiée sur la future loi de censure antiterroriste évoquée dans l’émission, avec présentation et argumentaire : Règlement terroriste, censure sécuritaire.
";s:7:"dateiso";s:15:"20190219_110000";}s:15:"20190218_163903";a:7:{s:5:"title";s:88:"Déclaration commune : se mobiliser pour une réappropriation démocratique des médias";s:4:"link";s:122:"https://www.laquadrature.net/2019/02/18/declaration-commune-se-mobiliser-pour-une-reappropriation-democratique-des-medias/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13509";s:7:"pubDate";s:31:"Mon, 18 Feb 2019 15:39:03 +0000";s:11:"description";s:274:"La Quadrature du Net partage la déclaration ci-dessous avec une dizaine d’associations et une trentaine de média. La méfiance envers les « média dominants » (presse, TV, radio) a toujours été une opportunité de réappropriation de nos moyens…";s:7:"content";s:7131:"
La Quadrature du Net partage la déclaration ci-dessous avec une dizaine d’associations et une trentaine de média. La méfiance envers les « média dominants » (presse, TV, radio) a toujours été une opportunité de réappropriation de nos moyens de communication, où Internet joue tout son rôle. Ainsi, en plus d’interroger la place de ces média, il faut lutter pour qu’Internet reste entre nos mains.
Repoussons sa mise sous tutelle par la police et par l’alliance de nos gouvernements aux Facebook et Google de ce monde. Repoussons urgemment le règlement terroriste (notre site de campagne) ainsi que les ambitions du gouvernement dans sa future loi prétendument « anti-haine » (notre analyse).
Pour une réappropriation démocratique des médias
Depuis plusieurs semaines, le mouvement des gilets jaunes bouleverse l’agenda politique, et porte une remise en cause profonde des institutions. Les médias sont tout particulièrement visés. Les gilets jaunes dénoncent, à juste titre bien souvent, un traitement caricatural des mobilisations : surenchère sécuritaire sur les plateaux télévisés et dans certains quotidiens ; confiscation de la parole par les éditorialistes ; disqualification de certaines revendications jugées «irréalistes» et appels à «dialoguer» avec le gouvernement ; ou encore dénonciations des violences des manifestants – alors que les violences policières ont été pendant trop longtemps passées sous silence.
Une telle pédagogie de la résignation n’est certes pas nouvelle. Déjà lors des grèves de 1995, les tenanciers des grands médias martelaient leur sempiternel message : il n’y a pas d’alternative aux réformes libérales. En 2005, ils pointaient du doigt ceux qui mettaient en cause le bien-fondé des politiques européennes et déformaient la révolte des banlieues. Plus récemment, lors des mobilisations contre la loi El-Khomri et les ordonnances Macron, ils dénonçaient un code du travail soi-disant «trop épais et illisible». À l’occasion de chaque mobilisation sociale, ils se sont faits les gardiens de l’ordre économique et politique.
Ces partis pris ont contribué à disqualifier les grands médias. La défiance à leur égard est profonde et sans précédent. D’autres sources d’information sont plébiscitées, médias indépendants ou réseaux sociaux. Certaines des analyses portées depuis des décennies par la critique des médias sont réinvesties largement, au-delà du mouvement des gilets jaunes. L’emprise de quelques milliardaires sur la production de l’information est pointée du doigt. La question des médias s’impose désormais comme une question politique.
La plupart des éditorialistes et chefs de rédaction ne voient, dans cette défiance, qu’une «haine des médias» et de la démocratie. Ils éludent la responsabilité qu’ils portent, par leurs diatribes ou leurs choix éditoriaux, dans l’hostilité qui s’exprime contre l’ensemble des journalistes. Une hostilité dont les plus précaires (en termes de statut ou de conditions de travail) font parfois les frais, sur le terrain, en étant injustement pris à partie ou agressés.
Nous pensons que la défiance envers les grands médias doit être une opportunité. Opportunité, dans les rédactions, de remettre en cause les orientations délétères imposées par les directions éditoriales, et de replacer le reportage et l’enquête au cœur du travail journalistique. Opportunité, dans les médias indépendants, de faire la démonstration par l’exemple qu’un autre journalisme, plus exigeant et plus libre vis-à-vis des pouvoirs, est possible.
Que nous soyons gilets jaunes, militant·es, journalistes, usager·es des médias, nous avons toutes et tous des raisons légitimes de contester un ordre médiatique inique, qui maltraite le pluralisme. Et de nous inquiéter des menaces réelles qui pèsent sur le droit à l’information : la mainmise de quelques milliardaires sur la plupart des médias, les plans de suppressions d’emploi dans l’audiovisuel public comme dans les groupes privés, la précarisation des journalistes statutaires ou pigistes y compris dans certains médias indépendants, la répression policière et la criminalisation qui frappent de plein fouet certains reporters et leurs sources, ou encore les lois liberticides qui visent à contrôler l’information – loi sur le secret des affaires et sur les «fake news».
C’est pourquoi nous affirmons qu’il est temps de se mobiliser pour une réappropriation démocratique des médias. Pour défendre le droit d’informer et le droit à être informé, tous deux gravement menacés. Et pour que l’information, trop longtemps confisquée par les pouvoirs, devienne enfin un bien commun et non une marchandise.
Cette déclaration est une initiative commune :
D’associations, d’organisations de journalistes et de syndicats : Acrimed, Attac, Fédération Nationale de l’Audiovisuel Participatif, Info’Com-CGT, La Quadrature du net, Les Amis du Monde diplomatique, Profession : Pigiste, Résistance à l’agression publicitaire, Ritimo, SNJ-CGT, Union syndicale Solidaires.
De médias : Cause commune, Contretemps-web, CQFD, Démosphère Ariège, Démosphère Toulouse, Frustration, Hors-Série, Jef Klak, L’Alterpresse68, Là-bas si j’y suis, La Clé des ondes, La Gazette de Gouzy, Le journal minimal, L’Insatiable, Le Média, Le Ravi, MAP 36, MédiaCitoyens PACA et Rhône-Alpes, Mediacoop, Radio Parleur, radio Cause commune, Ricochets, Rosalux, Silence, Transrural initiatives, TV Bruits, Télé Mouche, Télé Regain, TVnet Citoyenne.
D’organisations politiques : Alternative libertaire (AL), Ensemble, Nouveau Parti anticapitaliste (NPA), Parti communiste français (PCF), Parti de gauche (PG).
Premiers signataires : Alain Accardo, sociologue; Gilles Balbastre, réalisateur; Patrick Champagne, sociologue; Sophie Chapelle, journaliste; Colloghan, dessinateur; Benoît Collombat, journaliste; Jean-Baptiste Comby, sociologue; Annie Ernaux, écrivaine; Nina Faure, réalisatrice; Benjamin Ferron, sociologue; Anne-Sophie Jacques, journaliste; Yannick Kergoat, réalisateur; Henri Maler, universitaire; Philippe Merlant, journaliste et conférencier gesticulant; Pierre Morel, photojournaliste; Gérard Noiriel, historien; Michel Pinçon, sociologue; Monique Pinçon-Charlot, sociologue; Denis Robert, journaliste; Karim Souanef, sociologue; Usul, vidéaste.
";s:7:"dateiso";s:15:"20190218_163903";}s:15:"20190218_133124";a:7:{s:5:"title";s:21:"Règlement terroriste";s:4:"link";s:61:"https://www.laquadrature.net/2019/02/18/reglement-terroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13494";s:7:"pubDate";s:31:"Mon, 18 Feb 2019 12:31:24 +0000";s:11:"description";s:156:"Appelons les députés européens jusqu'au 21 mars, pour leur demander leur de refuser : la censure policière sans juge ; la justice déléguée aux GAFAM.";s:7:"content";s:4227:"
En septembre 2018, sous l’influence de la France et de l’Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ».
Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de :
Bloquer en une heure n’importe quel contenu signalé comme « terroriste » par la police (sans l’autorisation préalable d’un juge), et donc se tenir à sa disposition 24h/24 et 7j/7.
Devancer les demandes de la police en détectant lui-même les contenus illicites à l’aide d’outils de filtrage automatisé.
Si un site ne respecte pas ces règles, il risque une amende jusqu’à 4 % de son chiffre d’affaires.
Délégation de la censure aux géants du Web
D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes.
Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne.
Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
Censure des discours politiques
En droit de l’Union européenne, la notion d’infraction « terroriste » est volontairement large, couvrant les actes de piratage ou de destruction massive de biens (ou la simple menace de le faire) commis pour influencer une décision politique ou de déstabiliser des institutions.
Laisser à la police et non au juge le pouvoir de décider ce qu’est un contenu de « terroriste » pourrait mener à la censure d’opposants politiques et de mouvements sociaux.
L’obligation de mettre en place des mesures proactives, avec la menace de lourdes amendes, aura pour effet de motiver les acteurs du Web à adopter une définition du terrorisme la plus large possible pour ne pas être sanctionnés.
Une loi inutile
Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours.
Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
Exigeons le rejet du texte
Sous couvert de solutionnisme technologique, ce règlement joue sur la peur du terrorisme pour mieux encadrer l’expression sur Internet et limiter les oppositions.
Nous devons demander le rejet de ce texte.
La censure d’État ne doit pouvoir être prononcée que par un juge.
Aucune censure automatisée ne doit être imposée aux acteurs du Web.
La lutte contre le terrorisme ne doit jamais être un prétexte pour censurer les oppositions politiques.
Le 21 mars 2019 se tiendra le premier vote sur ce texte, au sein de la commission « libertés civiles » du Parlement européen (60 députés). Les élections européennes arrivant tout de suite après, il s’agira probablement de notre dernière opportunité de faire rejeter ce texte.
";s:7:"dateiso";s:15:"20190218_133124";}s:15:"20190218_110000";a:7:{s:5:"title";s:119:"[Franceinfo:] Mesures du gouvernement contre le cyberharcèlement : De la poudre aux yeux pour faire semblant d’agir";s:4:"link";s:150:"https://www.laquadrature.net/2019/02/18/franceinfo-mesures-du-gouvernement-contre-le-cyberharcelement-de-la-poudre-aux-yeux-pour-faire-semblant-dagir/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13501";s:7:"pubDate";s:31:"Mon, 18 Feb 2019 10:00:00 +0000";s:11:"description";s:267:"Arthur Messaud, juriste pour l’association La Quadrature du net, critique le plan présenté par le gouvernement jeudi matin. […]
Arthur Messaud dénonce le fait de faire de Facebook « le héros de la modération sur internet« . Le juriste…";s:7:"content";s:2110:"
Arthur Messaud, juriste pour l’association La Quadrature du net, critique le plan présenté par le gouvernement jeudi matin. […]
Arthur Messaud dénonce le fait de faire de Facebook « le héros de la modération sur internet« . Le juriste de l’association de défense des droits et libertés des citoyens sur internet critique également la gestion des zones grises d’internet. « On veut déléguer ce pouvoir de justice à des acteurs privés qui ne sont pas soumis à nos valeurs démocratiques. » […]
";s:7:"dateiso";s:15:"20190218_110000";}s:15:"20190214_165337";a:7:{s:5:"title";s:84:"Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européen";s:4:"link";s:123:"https://www.laquadrature.net/2019/02/14/mahjoubi-et-schiappa-croient-lutter-contre-la-haine-en-meprisant-le-droit-europeen/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13488";s:7:"pubDate";s:31:"Thu, 14 Feb 2019 15:53:37 +0000";s:11:"description";s:247:"Ce matin, Mounir Mahjoubi a présenté au public son « plan d’action contre les contenus haineux en ligne », qu’il compte mener aux côtés de Marlène Schiappa et de la députée En Marche Laetitia Avia. Au-delà de…";s:7:"content";s:18208:"
Ce matin, Mounir Mahjoubi a présenté au public son « plan d’action contre les contenus haineux en ligne », qu’il compte mener aux côtés de Marlène Schiappa et de la députée En Marche Laetitia Avia. Au-delà de l’écran de fumée de ce plan d’action, qui peine à cacher un manque total de stratégie et de vision pour l’Internet, le gouvernement méprise totalement la liberté d’expression en suggérant de généraliser la censure automatisée, et renforce le fichage généralisé des utilisateurs d’Internet au mépris du droit européen. Au passage, Mahjoubi en profite pour se faire écho de l’amour véritable qui unirait son président à Mark Zuckerberg…
Au-delà du vœu pieux de faire participer les associations à l’édiction des règles de modérations de Facebook, Google et Twitter (chose sympathique mais bien inutile dans la mesure où rien n’est prévu pour rendre ces géants responsables des censures abusives qu’ils s’autorisent), le plan d’action « contre la haine » ne prévoit rien de neuf et réchauffe ce que la loi prévoit depuis 15 ans.
Favoriser les signalements de contenus haineux ?
Le plan propose d’imposer aux plateformes numériques de mettre à disposition du public un bouton facilement accessible pour signaler les contenus illicites. Mahjoubi ne le cache pas : c’est une chose prévue depuis 15 ans dans la loi pour la confiance dans l’économie numérique (LCEN). Mais il prétend que cette obligation n’est pas respectée par certains acteurs, et qu’il faut donc agir pour les forcer.
On se demande pourquoi le gouvernement a tant attendu pour agir : le non-respect de cette obligation est puni de un an d’emprisonnement et de 75 000 € d’amende depuis 2004… Son inaction s’explique vraisemblablement du fait qu’il sait que tout ceci est bien vain : les acteurs privés n’ont ni les moyens ni la légitimité de traiter l’ensemble des signalements de contenus illicites. Recevoir les signalements est le rôle de la police et plus précisément de PHAROS. Juger si un contenu est illicite est le rôle de l’autorité judiciaire. Or, ces deux acteurs sont presque entièrement absents du plan d’action annoncé aujourd’hui, pourtant en grand besoin de moyens.
Favoriser la justice privée ?
Depuis 2004, toujours, la LCEN prévoit qu’un hébergeur peut être tenu pour responsable des contenus illicites qu’il diffuse si, ayant pris connaissance de ceux-ci (à la suite d’un signalement, typiquement), il n’a pas « agit promptement pour retirer ces informations ». Le plan de Mahjoubi déplore que, sur les grosses plateformes, ce retrait n’intervienne pas assez rapidement. Il fait alors appel à l’exemple tant décrié de la loi allemande qui impose aux géants un retrait en 24h des contenus « manifestement illégaux ».
Encore une fois, la proposition est bien creuse. Depuis 2004, laissé à l’appréciation des juges, le caractère « prompt » du retrait est déjà appliqué avec une grande fermeté lorsque les circonstances l’exigent. Les juges n’hésitent pas à condamner un hébergeur qui, dans les cas les plus graves, n’aurait pas retiré un contenu illicite dans les 24 heures suivant son signalement1Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de noter que la Cour de cassation se gardait entièrement de considérer qu’un délai « prompt » de 24 heures ne correspondrait pas à ce qu’exige la loi.. Mettre dans la loi ce qui se fait déjà dans la pratique est une façon bien simple et peu coûteuse de faire croire qu’on agit quand, en vrai, on a aucune idée de quoi faire. Au contraire, s’il s’intéressait vraiment au développement du numérique français, le gouvernement ferait mieux de protéger les petits plateformes d’exigences aussi radicales et contre-productives de la part des juges, dissuadant l’apparition de nombreux acteurs vertueux qui, un jour, devront remplacer les géants.
Favoriser la censure judiciaire ?
Le plan de Mahjoubi déplore que la censure judiciaire du site democratieparticipative.biz soit restée sans effet : le site s’est naturellement dupliqué sur d’autres adresses. Au passage, il a bénéficié d’une large campagne de visibilité offerte bénévolement par le gouvernement. La situation est ridicule : nous nous croyons revenus 10 ans plus tôt quand nous expliquions à des députés découvrant l’Internet que la censure totale d’un site n’était techniquement pas viable et qu’il était vain de la chercher.
Même si Mahjoubi et Schiappa nous épargnent certains égarements comiques de l’époque (« pare-feu Open-Office », nous ne t’oublierons jamais <3), leur entêtement à chercher des solutions technologiques magiques pour censurer le Net reste aussi absurde, hors-sol et trompeur que par le passé. Les solutions que vous cherchez ne peuvent être qu'humaines et structurelles, vous ne gagnerez jamais le jeu du chat et de la souris sur Internet. Ne perdons pas plus de temps avec vos errements.
Lever l’anonymat contre le droit européen
Mahjoubi tombe enfin le masque du gouvernement qui, depuis quelques semaines, sème la confusion quant à la levée de l’anonymat en ligne. Son objectif est maintenant clair : le gouvernement veut entièrement s’opposer à la jurisprudence de la Cour de justice de l’Union européenne qui interdit aux États membres d’instaurer un fichage de l’ensemble des utilisateurs d’Internet.
La Quadrature du Net s’en réjouit régulièrement : la Cour de justice de l’Union européenne a construit depuis 2014 une jurisprudence ferme interdisant aux États d’obliger les acteurs d’Internet à conserver des données techniques permettant d’identifier l’ensemble de leurs utilisateurs. La Cour de justice n’autorise que des mesures de levée de l’anonymat qui sont ciblées, limitées quant aux personnes surveillées et à la durée de cette surveillance. Le gouvernement français a systématiquement refusé d’abroger les dispositions du droit français qui, en violation du droit européen, imposent aux opérateurs de télécommunications et hébergeurs de conserver pendant 1 an les données de connexion de l’ensemble de leurs utilisateurs.
Le gouvernement s’est tant entêté à violer le droit de l’Union que nous avons du contester le droit français devant le Conseil d’État qui, l’été dernier, après trois ans de procédure, a enfin accepté de soumettre la validité des dispositions françaises à l’examen de la Cour de justice (lire le résumé de nos actions, qui retrace l’état des droits français et européen).
Sans même attendre la décision de cette Cour de justice (qui, à rester cohérente avec ses décisions passées, condamnerait entièrement le modèle français), Mahjoubi et Schiappa annoncent vouloir s’enfoncer encore davantage dans le mépris des libertés fondamentales garanties par l’Union européenne. Ils veulent prévoir des sanctions et des délais plus strictes contre les opérateurs et hébergeurs qui refuseraient de communiquer aux autorités les données d’identification qu’ils conservent. Pour rappel, quand la police avait demandé à La Quadrature du Net de lui communiquer les données identifiant un des utilisateurs de son service Mastodon, nous avions refusé : conformément à la jurisprudence de l’Union européenne, nous ne disposions plus de ces données, car nous ne conservons les données de connexion que pour une durée de 14 jours.
Poursuite de l’alliance France-Facebook
Le document publié aujourd’hui encense Facebook sans retenue. Le « fonds pour le civisme en ligne », par lequel Facebook financera et rendra dépendantes des associations anti-racistes (comme elle sait si bien le faire), est qualifié sans nuance d’« initiative prometteuse [qui] mérite d’être pérennisée ».
Pour lutter contre la haine en ligne, la voie de l’« intelligence artificielle » est explicitement pointée (peu importe ce que ça veut dire), et donne un exemple héroïque à suivre : « Facebook revendique ainsi d’éliminer la quasi-totalité des contenus terroristes avant qu’ils aient pu être diffusés ». Bravo Facebook ! Mahjoubi aurait toutefois pu attendre la fin de la mission gouvernementale examinant la modération de Facebook avant de diffuser sans aucun recul ni aucune rigueur la propagande de l’entreprise.
Enfin, le plan d’action salue que « Facebook a d’ailleurs décidé de lancer en 2018 un mécanisme d’appel » contre ses censures abusives. Facebook est encore conforté dans son rôle d’État privé qui peut créer ses propres normes et juridictions, sans aucun contre-pouvoir, à côté et à la place des États censés démocratiques.
Derrière toutes ces flatteries, le gouvernement semble avoir oublié le rapport de Laetitia Avia (qu’il prétend pourtant reprendre), qui dénonçait comme l’une des causes majeures de la haine en ligne le modèle de Facebook et de ses amis : l’économie de l’attention.
À aucun moment la taille d’un acteur comme Facebook n’est remise en question. Pourtant, l’échelle à laquelle doit s’effectuer sa modération n’est pas qu’un défi technique à brillamment relever mais une ambition légitimement discutable et critiquable.
Une loi anti-haine calquée sur l’anti-terrorisme ?
Derrière les effets d’annonce bien creux de ce « plan d’action », cet appel du pied vers Facebook a de quoi nous inquiéter gravement. Elle nous rappelle à l’identique la situation qui a conduit la Commission européenne à proposer son règlement terroriste.
En 2015, suite à une série d’attaques terroristes meurtrières, Facebook, Google, Twitter et Microsoft s’engagent à travailler avec la Commission européenne au sein du Forum de l’Internet européen pour lutter contre la propagande terroriste. Grace à leurs « intelligences artificielles » magiques et leurs milliers de modérateurs aux quatre coins du monde, les entreprises construisent en 2 ans une liste de blocage contenant la signature de 80 000 images et vidéos qu’elles ont elles-mêmes reconnues comme illicites, sans juge. La Commission européenne est claire : il faut désormais que l’ensemble des plateformes du Web, pas que les géantes, utilisent ces outils de modération. C’est un des objectifs de son règlement terroriste (pour les détails de cette analyse, lire notre analyse complète du règlement).
De son côté, en novembre 2018, Mark Zuckerberg aussi est très clair : les petits acteurs du Web ne peuvent pas faire face à la propagande terroriste, aux « fake news » ou à la haine en ligne seuls. Ils ont besoin de l’aide de Facebook, et il se réjouit que le gouvernement français collabore avec lui pour penser la loi.
En même temps, au Forum de la Gouvernance d’Internet, Macron faisait le même constat : les géants du Net ont fait du bon boulot pour préparer le Net au nettoyage de la propagande terroriste – la prochaine étape sera de continuer le travail pour les contenus haineux.
Pour mettre un coup d’arrêt à cette d’alliance gouvernement-GAFAM, il nous reste un mois pour contacter les députés européens et leur demander de rejeter la première étape de ce projet, le règlement terroriste. Appelons-les.
Une affaire importante dans l’histoire de la LCEN est celle concernant la société AMEN qui, en 2009, a été condamnée par la cour d’appel de Toulouse pour ne pas avoir retiré dans la journée suivant leur signalement des écoutes téléphoniques diffusées par un des sites qu’elle hébergeait et concernant l’enquête judiciaire de l’affaire AZF. En 2011, la Cour de cassation a cassé cette décision car le signalement de ces écoutes ne respectait pas le formalisme stricte prévu par la LCEN. Toutefois, ce faisant, il est important de noter que la Cour de cassation se gardait entièrement de considérer qu’un délai « prompt » de 24 heures ne correspondrait pas à ce qu’exige la loi.
";s:7:"dateiso";s:15:"20190214_165337";}s:15:"20190213_110000";a:7:{s:5:"title";s:100:"[Marianne] Reconnaissance faciale : Big Brother s’invite dans les lycées à Nice et à Marseille";s:4:"link";s:130:"https://www.laquadrature.net/2019/02/13/marianne-reconnaissance-faciale-big-brother-sinvite-dans-les-lycees-a-nice-et-a-marseille/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13416";s:7:"pubDate";s:31:"Wed, 13 Feb 2019 10:00:00 +0000";s:11:"description";s:268:"Deux lycées de la région Provence-Alpes-Côte d’Azur vont installer des portiques de vidéosurveillance à reconnaissance faciale. Un dispositif en partie voué à combler le manque d’effectifs dédiés à la sécurité, mais qui interroge sur les…";s:7:"content";s:2628:"
Deux lycées de la région Provence-Alpes-Côte d’Azur vont installer des portiques de vidéosurveillance à reconnaissance faciale. Un dispositif en partie voué à combler le manque d’effectifs dédiés à la sécurité, mais qui interroge sur les risques liés à la vie privée. […]
Pour l’association la Quadrature du Net, qui défend les droits et libertés des citoyens sur Internet, cette déclaration prouve bien la nature du projet mené dans les lycées de Nice et de Marseille : il s’agirait d’une répétition générale pour une « banalisation » toujours plus grande d’une « technologie liberticide« . « Il s’agit d’une nouvelle étape dans la normalisation de la vidéo surveillance et de la reconnaissance faciale« , regrette auprès de Marianne Félix Tréguer, chercheur à l’Institut des sciences de la communication et membre de l’association. […]
Les inquiétudes de la Quadrature du Net ne sont pas des divagations d’amateurs de dystopie technologique. Car si la France est pour l’instant globalement frileuse face aux expérimentations sur la reconnaissance faciale, plusieurs instances s’en sont récemment dotées. Depuis cet été, les aéroports d’Orly et de Roissy en région parisienne, ainsi que le terminal 2 de l’aéroport de Nice, emploient cette technologie. Aéroports auxquels il faudra donc bientôt ajouter deux lycées français : « Difficile de ne pas y voir une nouvelle pierre à une tendance beaucoup plus large, commente Félix Tréguer. On commence par les lycées mais à Marseille et à Nice, les élus sont aussi les promoteurs de projets sécuritaires qui font de la reconnaissance faciale un pilier de contrôle à l’échelon de la ville« . […]
";s:7:"dateiso";s:15:"20190213_110000";}s:15:"20190212_110000";a:7:{s:5:"title";s:54:"[LesDecrypteurs] Qu’est-ce qui arrêtera Facebook ?";s:4:"link";s:86:"https://www.laquadrature.net/2019/02/12/lesdecrypteurs-quest-ce-qui-arretera-facebook/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13417";s:7:"pubDate";s:31:"Tue, 12 Feb 2019 10:00:00 +0000";s:11:"description";s:299:"Lucie Ronfaut (Le Figaro Tech), Alexandre des Isnards (observateur des réseaux sociaux) et Benjamin Sonntag (co-fondateur de la Quadrature du Net) décryptent le phénomène Facebook, 15 ans après sa création.
NDLRP – L’intervention de Benjamin Sonntag (co-fondateur…";s:7:"content";s:1200:"
Lucie Ronfaut (Le Figaro Tech), Alexandre des Isnards (observateur des réseaux sociaux) et Benjamin Sonntag (co-fondateur de la Quadrature du Net) décryptent le phénomène Facebook, 15 ans après sa création.
NDLRP – L’intervention de Benjamin Sonntag (co-fondateur de la Quadrature du Net) :
NDLRP : L’émission complète avec le débat de 2e partie est à suvire sur le lien original.
";s:7:"dateiso";s:15:"20190212_110000";}s:15:"20190211_110000";a:7:{s:5:"title";s:115:"[NextINpact] Blocage administratif : la personnalité qualifiée de la CNIL fait plier la police devant la justice";s:4:"link";s:149:"https://www.laquadrature.net/2019/02/11/nextinpact-blocage-administratif-la-personnalite-qualifiee-de-la-cnil-fait-plier-la-police-devant-la-justice/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13418";s:7:"pubDate";s:31:"Mon, 11 Feb 2019 10:00:00 +0000";s:11:"description";s:249:"Le tribunal administratif de Cergy-Pontoise vient de donner raison à la personnalité qualifiée de la CNIL, qui avait contesté en justice plusieurs demandes de retrait et de déréférencement émanant de l’Office central de lutte contre…";s:7:"content";s:1253:"
Le tribunal administratif de Cergy-Pontoise vient de donner raison à la personnalité qualifiée de la CNIL, qui avait contesté en justice plusieurs demandes de retrait et de déréférencement émanant de l’Office central de lutte contre la cybercriminalité (OCLCTIC). Une première. […]
Sur Twitter, La Quadrature du Net a réagi à cette décision en affirmant qu’elle ne devait « surtout pas » rassurer : « elle démontre exactement les dérives que permet la censure sans juge en France ».
";s:7:"dateiso";s:15:"20190211_110000";}s:15:"20190210_110000";a:7:{s:5:"title";s:107:"[LeMonde] Faire respecter le RGPD, principale mission de Marie-Laure Denis, nouvelle présidente de la CNIL";s:4:"link";s:143:"https://www.laquadrature.net/2019/02/10/lemonde-faire-respecter-le-rgpd-principale-mission-de-marie-laure-denis-nouvelle-presidente-de-la-cnil/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13379";s:7:"pubDate";s:31:"Sun, 10 Feb 2019 10:00:00 +0000";s:11:"description";s:249:"L’enjeu de son mandat se résume en quatre lettres : RGPD, sigle du règlement général sur la protection des données personnelles, entré en vigueur en 2018. […]
«La CNIL est très à l’aise pour se poser en protecteur…";s:7:"content";s:1508:"
L’enjeu de son mandat se résume en quatre lettres : RGPD, sigle du règlement général sur la protection des données personnelles, entré en vigueur en 2018. […]
«La CNIL est très à l’aise pour se poser en protecteur de la population contre les Gafam, mais se poser contre l’Etat est une tradition qu’elle est contente d’avoir perdu », cingle Arthur Messaud, de La Quadrature du Net, la principale association de défense des libertés numériques en France. En choisissant une juriste habituée des coulisses des régulateurs plutôt que certains noms qui circulaient encore il y a quelques semaines, comme celui de l’ancienne secrétaire d’Etat au numérique Axelle Lemaire, Emmanuel Macron semble avoir fait, sur ce terrain, le choix de la continuité.
";s:7:"dateiso";s:15:"20190210_110000";}s:15:"20190209_110000";a:7:{s:5:"title";s:84:"[FranceCulture] Les fichiers de police et de renseignement sont-ils trop nombreux ?";s:4:"link";s:120:"https://www.laquadrature.net/2019/02/09/franceculture-les-fichiers-de-police-et-de-renseignement-sont-ils-trop-nombreux/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13380";s:7:"pubDate";s:31:"Sat, 09 Feb 2019 10:00:00 +0000";s:11:"description";s:260:"[…] Le nombre de fichiers se multiplie en France. Le dernier rapport publié en octobre 2018 par les députés Didier Paris (La République en marche) et Pierre Morel-A-l’Huissier (UDI, Agir et indépendants) comptabilise 106 fichiers. Mais…";s:7:"content";s:2111:"
[…] Le nombre de fichiers se multiplie en France. Le dernier rapport publié en octobre 2018 par les députés Didier Paris (La République en marche) et Pierre Morel-A-l’Huissier (UDI, Agir et indépendants) comptabilise 106 fichiers. Mais il est difficile de savoir combien de personnes sont fichées au total. […]
Pourtant, parmi tous les fichiers que comptent la police et les renseignements intérieurs, une base de données a soulevé de nombreuses questions : le fichier TES, Titres Électroniques Sécurisés, alias le « fichier monstre ». La base, déployée en France en mars 2017, rassemble toutes les données nécessaires pour établir ses papiers : nom, prénom, couleur des yeux, photo du visage, et surtout les données biométriques (empreintes digitales). L’objectif avancé par le gouvernement ? Garantir l’exactitude des information et limiter le trafic de faux papiers.
L’association La Quadrature du Net, elle, dénonce un fichier présentant de sérieux risques. Alexis Fitzjean O Cobhthaigh, avocat au barreau de Paris et membre de l’association, signale que ce fichier pourrait concerner 60 millions de personnes : « Le risque ce n’est pas seulement qu’il y ait trop de fichiers mais que l’on soit tous fichés. Aujourd’hui, avec ce fichier, dès que vous allez renouveler votre carte d’identité ou votre passeport ce sera le cas. » […]
";s:7:"dateiso";s:15:"20190209_110000";}s:15:"20190208_110000";a:7:{s:5:"title";s:83:"[FranceCulture] Données personnelles : l’Europe aura-t-elle raison des GAFAM ?";s:4:"link";s:112:"https://www.laquadrature.net/2019/02/08/franceculture-donnees-personnelles-leurope-aura-t-elle-raison-des-gafam/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13381";s:7:"pubDate";s:31:"Fri, 08 Feb 2019 10:00:00 +0000";s:11:"description";s:226:"Le 21 janvier dernier, la CNIL impose à Google une sanction record de 50 millions d’euros pour non-respect du RGDP. Alors que les GAFAM semblaient intouchables, l’arsenal juridique qui s’est peu à peu mis en…";s:7:"content";s:1886:"
Le 21 janvier dernier, la CNIL impose à Google une sanction record de 50 millions d’euros pour non-respect du RGDP. Alors que les GAFAM semblaient intouchables, l’arsenal juridique qui s’est peu à peu mis en place semble enfin porter ses fruits. […]
L’Europe réussira-t-elle à faire plier Google sur la question des données personnelles ? La CNIL, la Commission nationale de l’informatique et des libertés, a infligé cette semaine une amende record de 50 millions d’euros au géant américain du numérique. Google est accusé de n’avoir pas respecté le Règlement général sur la protection des données personnelle, le fameux RGPD entré en vigueur en mai dernier. Alors, les Etats ont-ils désormais les moyens d’imposer leur volonté aux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) ? Et nos données seront-elles vraiment mieux protégées alors même qu’elles constituent le modèle économique des géants de la tech ? […]
[NDLRP : avec Arthur Messsaud, juriste à la Quadrature du Net].
";s:7:"dateiso";s:15:"20190208_110000";}s:15:"20190207_110000";a:7:{s:5:"title";s:100:"[RMC] Le sujet du jour : Données personnelles sur Internet, comment mieux se protéger en ligne ?";s:4:"link";s:130:"https://www.laquadrature.net/2019/02/07/rmc-le-sujet-du-jour-donnees-personnelles-sur-internet-comment-mieux-se-proteger-en-ligne/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13382";s:7:"pubDate";s:31:"Thu, 07 Feb 2019 10:00:00 +0000";s:11:"description";s:403:"Martin, juriste de La Quadrature du Net, est l’invité de RMC pour discuter de l’amende infligée par la CNIL à Google, et évoquer la protection des données personnelles en ligne.
https://rmc.bfmtv.com/mediaplayer/audio/rmc-2601-le-sujet-du-jour-donnees-personnelles-sur-internet-comment-mieux-se-proteger-en-ligne-451812.html
[NRLDP : Soutenons notre internet, La Quadrature…";s:7:"content";s:1100:"
Martin, juriste de La Quadrature du Net, est l’invité de RMC pour discuter de l’amende infligée par la CNIL à Google, et évoquer la protection des données personnelles en ligne.
";s:7:"dateiso";s:15:"20190207_110000";}s:15:"20190205_110000";a:7:{s:5:"title";s:113:"[TheConversation] Les impératifs sécuritaires auront-ils raison de notre droit fondamental à la vie privée ?";s:4:"link";s:145:"https://www.laquadrature.net/2019/02/05/theconversation-les-imperatifs-securitaires-auront-ils-raison-de-notre-droit-fondamental-a-la-vie-privee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13383";s:7:"pubDate";s:31:"Tue, 05 Feb 2019 10:00:00 +0000";s:11:"description";s:281:"Symboliquement, l’État semble accorder une importance toute particulière aux questions sécuritaires. Au-delà du symbole, ce tropisme sécuritaire prend une dimension politique concrète majeure si nous le lions à un événement récent, relativement peu souligné ces…";s:7:"content";s:2085:"
Symboliquement, l’État semble accorder une importance toute particulière aux questions sécuritaires. Au-delà du symbole, ce tropisme sécuritaire prend une dimension politique concrète majeure si nous le lions à un événement récent, relativement peu souligné ces dernières semaines : la validation d’une base de données biométriques intitulée « Titres électroniques sécurisés » (TES) instauré par le décret n° 2016-1480 du 28 octobre 2016. Cette décision laisse entrevoir la mutation d’un État dont les points d’équilibre se déplacent imperceptiblement vers moins de droit et plus de surveillance. Signe annonciateur d’une clarification franche du brouillage de nos représentations institutionnelles ? […]
En effet, les démocraties libérales occidentales semblent éprouver des difficultés à prospérer sereinement sur un système politique inédit où métaplateformes et État, punitif et divertissement, privé et public se mêlent, s’interpellent.
Ce changement de rapport de forces déstabilise le positionnement de l’État. Il n’est plus ni solitaire ni souverain mais cohabite avec d’autres formes de pouvoir pour configurer avec elles une nouvelle gouvernance mondiale. […]
";s:7:"dateiso";s:15:"20190205_110000";}s:15:"20190204_110000";a:7:{s:5:"title";s:146:"[TheConversation] Liberté d’in-expression : quand les États de l’Union européenne souhaitent sous-traiter la censure aux géants du web !";s:4:"link";s:169:"https://www.laquadrature.net/2019/02/04/theconversation-liberte-din-expression-quand-les-etats-de-lunion-europeenne-souhaitent-sous-traiter-la-censure-aux-geants-du-web/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13384";s:7:"pubDate";s:31:"Mon, 04 Feb 2019 10:00:00 +0000";s:11:"description";s:311:"Le texte européen le plus liberticide de cette décennie est en approche. […]
Usant toujours de la même argumentation – a priori – louable : la lutte contre le terrorisme, ce texte – que vous retrouverez sous l’intitulé : « Règlement du Parlement…";s:7:"content";s:2134:"
Le texte européen le plus liberticide de cette décennie est en approche. […]
";s:7:"dateiso";s:15:"20190204_110000";}s:15:"20190203_110000";a:7:{s:5:"title";s:105:"[20Minutes] Google condamné par la CNIL: « Cela ne va pas les empêcher de continuer leur business »";s:4:"link";s:133:"https://www.laquadrature.net/2019/02/03/20minutes-google-condamne-par-la-cnil-cela-ne-va-pas-les-empecher-de-continuer-leur-business/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13285";s:7:"pubDate";s:31:"Sun, 03 Feb 2019 10:00:00 +0000";s:11:"description";s:271:"Interview. Arthur Messaud, juriste pour la Quadrature du Net, revient sur l’amende infligée ce lundi par la Cnil à Google…
Le géant américain Google a écopé lundi d’une amende record de 50 millions d’euros infligée par l’autorité…";s:7:"content";s:1580:"
Interview. Arthur Messaud, juriste pour la Quadrature du Net, revient sur l’amende infligée ce lundi par la Cnil à Google…
Le géant américain Google a écopé lundi d’une amende record de 50 millions d’euros infligée par l’autorité française chargée de la protection des données privées qui estime insuffisante l’information sur l’exploitation des données personnelles de ses utilisateurs.
C’est la première fois qu’un géant de l’Internet se fait ainsi rattraper par un régulateur de l’Union européenne, en l’occurrence la Commission nationale de l’informatique et des libertés (Cnil), le « gendarme » français des données personnelles. Pourtant, Arthur Messaud, juriste pour l’association La Quadrature du Net – à l’origine d’une plainte contre plusieurs géants du numérique – estime qu’il aurait fallu aller beaucoup plus loin. […]
";s:7:"dateiso";s:15:"20190203_110000";}s:15:"20190202_110000";a:7:{s:5:"title";s:81:"[BFMTV] Fin de l’anonymat sur le Web: les limites du projet d’Emmanuel Macron";s:4:"link";s:113:"https://www.laquadrature.net/2019/02/02/bfmtv-fin-de-lanonymat-sur-le-web-les-limites-du-projet-demmanuel-macron/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13286";s:7:"pubDate";s:31:"Sat, 02 Feb 2019 10:00:00 +0000";s:11:"description";s:289:"Ce 18 janvier, Emmanuel Macron a plaidé en faveur d’une « levée progressive de tout anonymat », dans une volonté d’améliorer la qualité de la démocratie participative. Un discours qu’il n’est pas le premier à tenir. […]
« Ce genre…";s:7:"content";s:1566:"
Ce 18 janvier, Emmanuel Macron a plaidé en faveur d’une « levée progressive de tout anonymat », dans une volonté d’améliorer la qualité de la démocratie participative. Un discours qu’il n’est pas le premier à tenir. […]
« Ce genre d’obligations – si elles passaient par la loi – seraient impossibles à respecter pour les petits acteurs et risqueraient fort de renforcer davantage les grandes plateformes américaines », explique Félix Tréguer, de la Quadrature du Net, une association de défense des libertés en ligne. « Emmanuel Macron oublie que l’anonymat constitue un droit associé à la liberté d’expression et de communication et au droit à la vie privée. Il est reconnu comme tel au niveau international, notamment par la Cour européenne des droits de l’Homme », complète-t-il. […]
";s:7:"dateiso";s:15:"20190202_110000";}s:15:"20190201_110000";a:7:{s:5:"title";s:104:"[LeMonde] Données personnelles : la CNIL condamne Google à une amende record de 50 millions d’euros";s:4:"link";s:135:"https://www.laquadrature.net/2019/02/01/lemonde-donnees-personnelles-la-cnil-condamne-google-a-une-amende-record-de-50-millions-deuros/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13287";s:7:"pubDate";s:31:"Fri, 01 Feb 2019 10:00:00 +0000";s:11:"description";s:255:"Le gendarme français de la vie privée reproche au géant américain de ne pas informer assez clairement ses utilisateurs. […]
Malgré cette victoire, les plaignants restent sur leur faim. LQDN est ainsi déçue du niveau de l’amende,…";s:7:"content";s:1686:"
Le gendarme français de la vie privée reproche au géant américain de ne pas informer assez clairement ses utilisateurs. […]
Malgré cette victoire, les plaignants restent sur leur faim. LQDN est ainsi déçue du niveau de l’amende, puisque le RGPD permet d’infliger une pénalité allant jusqu’à 4 % du chiffre d’affaires de l’entreprise condamnée. Celui-ci s’élevait, en 2017, à 110 milliards de dollars (97 milliards d’euros) pour Alphabet, la maison mère de Google.
Par ailleurs, estime Benjamin Bayart, un des fondateurs de l’association, « la CNIL a traité une toute petite partie du problème ». Elle s’est attachée à un cas d’usage particulier en regardant si, au moment de configurer un téléphone Android (le système d’exploitation de Google qui équipe la majorité des smartphones), l’utilisateur peut maîtriser l’utilisation de ses données. […]
";s:7:"dateiso";s:15:"20190201_110000";}s:15:"20190131_110000";a:7:{s:5:"title";s:92:"[NextINpact] RGPD : pourquoi la CNIL a infligé 50 millions d’euros de sanction à Google";s:4:"link";s:123:"https://www.laquadrature.net/2019/01/31/nextinpact-rgpd-pourquoi-la-cnil-a-inflige-50-millions-deuros-de-sanction-a-google/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13288";s:7:"pubDate";s:31:"Thu, 31 Jan 2019 10:00:00 +0000";s:11:"description";s:249:"Alors qu’elle achève son mandat à la CNIL, Isabelle Falque Pierrotin pourra s’enorgueillir d’avoir fait infliger à l’un des géants du Net une sanction monstre : 50 millions d’euros, soit le plus haut niveau jamais prononcé…";s:7:"content";s:1982:"
Alors qu’elle achève son mandat à la CNIL, Isabelle Falque Pierrotin pourra s’enorgueillir d’avoir fait infliger à l’un des géants du Net une sanction monstre : 50 millions d’euros, soit le plus haut niveau jamais prononcé en France sur l’autel du règlement général sur la protection des données personnelles (RGPD). […]
La Quadrature du Netsalue cette sanction, non sans relativiser sa portée. Son action collective ne s’est en effet pas limitée au périmètre épinglé par la CNIL, mais « dénonçait surtout le ciblage publicitaire imposé sur YouTube, Gmail et Google Search en violation de notre consentement ».
L’initiative attend donc que la CNIL poursuive ses investigations sur ces autres services. « Nos plaintes visaient avant tout à trancher un autre débat, bien plus fondamental : que la CNIL reconnaisse que notre consentement n’est valide que s’il est librement donné. Que la CNIL explique clairement que Google ne peut pas nous obliger à accepter son ciblage publicitaire afin de pouvoir utiliser ses services ». […]
";s:7:"dateiso";s:15:"20190131_110000";}s:15:"20190130_110000";a:7:{s:5:"title";s:84:"[LeMonde] Comment des villes « hyper connectées » contrôlent l’espace public";s:4:"link";s:110:"https://www.laquadrature.net/2019/01/30/lemonde-comment-des-villes-hyper-connectees-controlent-lespace-public/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13289";s:7:"pubDate";s:31:"Wed, 30 Jan 2019 10:00:00 +0000";s:11:"description";s:296:"A Nice, Marseille ou Nîmes, on travaille avec des plates-formes numériques, quitte à repousser les frontières des libertés. […]
Françaises ou non, ces technologies soulèvent quelques inquiétudes. « La safe city, c’est la prolifération d’outils issus du milieu…";s:7:"content";s:1492:"
A Nice, Marseille ou Nîmes, on travaille avec des plates-formes numériques, quitte à repousser les frontières des libertés. […]
Françaises ou non, ces technologies soulèvent quelques inquiétudes. « La safe city, c’est la prolifération d’outils issus du milieu du renseignement, dans une logique de surveillance massive, d’identification des signaux faibles, des comportements suspects », dénonce Félix Tréguer, un responsable marseillais de l’association La Quadrature du Net. « Ces outils permettront un contrôle social très sophistiqué quand leur potentiel sera optimisé, estime-t-il. Nous ne trouvons pas rassurant que la police municipale devienne le service de renseignement de l’espace public urbain et de son double numérique. » […]
";s:7:"dateiso";s:15:"20190130_110000";}s:15:"20190129_110000";a:7:{s:5:"title";s:108:"[BFMTV] Nice et Marseille testeront des dispositifs de reconnaissance faciale à l’entrée de deux lycées";s:4:"link";s:141:"https://www.laquadrature.net/2019/01/29/bfmtv-nice-et-marseille-testeront-des-dispositifs-de-reconnaissance-faciale-a-lentree-de-deux-lycees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13290";s:7:"pubDate";s:31:"Tue, 29 Jan 2019 10:00:00 +0000";s:11:"description";s:297:"Des portiques dotés d’une technologie de reconnaissance faciale seront déployés dès janvier 2019 dans le lycée des Eucalyptus, à Nice, et dans le lycée Ampère, à Marseille, pour contrôler l’entrée des élèves. […]
« L’un des problèmes majeurs…";s:7:"content";s:1612:"
Des portiques dotés d’une technologie de reconnaissance faciale seront déployés dès janvier 2019 dans le lycée des Eucalyptus, à Nice, et dans le lycée Ampère, à Marseille, pour contrôler l’entrée des élèves. […]
« L’un des problèmes majeurs de ce projet a trait au régime commercial qui sera appliqué à ces données », complète Antonio Casilli, professeur de sociologie à Télécom ParisTech et à l’EHESS. « Leur circulation dans les infrastructures d’une entreprise américaine constitue une forme de valorisation abusive. Par ailleurs, la reconnaissance faciale est en soi répressive, invasive et discriminante et a tendance à comprendre des biais et à surcibler des minorités. En l’occurrence, elle habituera les lycéens au fait d’être constamment enregistrés, comparés et jugés. » […]
";s:7:"dateiso";s:15:"20190129_110000";}s:15:"20190128_143111";a:7:{s:5:"title";s:45:"Opération « Bloque la pub sur Internet »";s:4:"link";s:52:"https://www.laquadrature.net/2019/01/28/bloquelapub/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13314";s:7:"pubDate";s:31:"Mon, 28 Jan 2019 13:31:11 +0000";s:11:"description";s:256:"À l’occasion de la journée européenne de protection des données, ce lundi 28 janvier 2019, Résistance à l’Agression Publicitaire (RAP) et La Quadrature du Net, soutenues par d’autres associations, lancent une opération Bloque la pub…";s:7:"content";s:7000:"
À l’occasion de la journée européenne de protection des données, ce lundi 28 janvier 2019, Résistance à l’Agression Publicitaire (RAP) et La Quadrature du Net, soutenues par d’autres associations, lancent une opération Bloque la pub sur Internet et passe le bloqueur à tes voisin·es.
Cette opération continue de mettre en évidence les effets négatifs de la publicité en ligne et les outils pour s’en prémunir !
Internet est devenu un espace prioritaire pour les investissements des publicitaires. En France, pour la première fois en 2016, le marché de la publicité numérique devient le « premier média investi sur l’ensemble de l’année », avec une part de marché de 29,6%, devant la télévision. En 2017, c’est aussi le cas au niveau mondial. Ce jeune « marché » est principalement capté par deux géants de la publicité numérique. Google et Facebook. Ces deux géants concentrent à eux seuls autour de 50% du marché et bénéficient de la quasi-totalité des nouveaux investissements sur ce marché. « Pêché originel d’Internet », où, pour de nombreuses personnes et sociétés, il demeure difficile d’obtenir un paiement monétaire direct pour des contenus et services commerciaux et la publicité continue de s’imposer comme un paiement indirect.
Les services vivant de la publicité exploitent le « temps de cerveau disponible » des internautes qui les visitent, et qui n’en sont donc pas les clients, mais bien les produits. Cette influence est achetée par les annonceurs qui font payer le cout publicitaire dans les produits finalement achetés.
La publicité en ligne a plusieurs conséquences : en termes de dépendance vis-à-vis des annonceurs et des revenus publicitaires, et donc des limites sur la production de contenus et d’information, en termes de liberté de réception et de possibilité de limiter les manipulations publicitaires, sur la santé, l’écologie…
En ligne, ces problématiques qui concernent toutes les publicités ont de plus été complétées par un autre enjeu fondamental. Comme l’exprime parfaitement Zeynep Tufekci, une chercheuse turque, « on a créé une infrastructure de surveillance dystopique juste pour que des gens cliquent sur la pub ». De grandes entreprises telles que Google, Facebook et d’autres « courtiers en données » comme Criteo ont développés des outils visant à toujours mieux nous « traquer » dans nos navigations en ligne pour nous profiler publicitairement. Ces pratiques sont extrêmement intrusives et dangereuses pour les libertés fondamentales.
L’Europe dispose pourtant désormais d’un règlement qui devrait mettre majoritairement fin à cette exploitation de nos données personnelles. En vertu du règlement général pour la protection des données RGPD, la plupart de ces pratiques de collecte de données personnelles en ligne devraient reposer sur un consentement libre et éclairé. Sinon, ces pratiques sont illégales. C’est sur ce fondement que La Quadrature du Net a porté plainte collectivement contre les 5 géants du numérique. Si le RGPD est rentré en application récemment et que ces plaintes collectives prennent du temps, la CNIL française a déjà agi sur des questionnements similaires, et a même, lundi 22 janvier 2019, commencé à sanctionner Google à une amende de 50 millions d’euros s’agissant de ces pratiques relatives à Android.
Il est temps que cette législation soit totalement respectée et que les publicitaires cessent de nous espionner en permanence en ligne.
Un sondage BVA-La Dépêche de 2018 révélait que 77% des Français·es se disent inquiet·es de l’utilisation que pouvaient faire des grandes entreprises commerciales de leurs données numériques personnelles. 83% des Français·es sont irrité·es par la publicité en ligne selon un sondage de l’institut CSA en mars 2016 et « seulement » 24% des personnes interrogées avaient alors installé un bloqueur de publicité.
Le blocage de la publicité en ligne apparait comme un bon outil de résistance pour se prémunir de la surveillance publicitaire sur Internet. Pour l’aider à se développer, nos associations lancent le site Internet :
Plusieurs opérations collectives ou individuelles de sensibilisation et blocages de la publicité auront lieu sur plusieurs villes du territoire français et sur Internet peu de temps avant et le jour du 28 janvier 2019, journée européenne de la « protection des données personnelles ». Le jour rêvé pour s’opposer à la publicité en ligne qui exploite ces données !
RAP et La Quadrature du Net demandent :
– Le respect de la liberté de réception dans l’espace public et ailleurs, le droit et la possibilité de refuser d’être influencé par la publicité,
– Le strict respect du règlement général pour la protection des données et l’interdiction de la collecte de données personnelles à des fins publicitaires sans le recueil d’un consentement libre (non-conditionnant pour l’accès au service), explicite et éclairé où les paramètres les plus protecteurs sont configurés par défaut. Les sites Internet et services en ligne ne doivent par défaut collecter aucune information à des fins publicitaires sans que l’internaute ne les y ait expressément autorisés.
Rendez-vous sur bloquelapub.net et sur Internet toute la journée du 28 janvier 2019
Les associations soutiens de cette mobilisation : Framasoft, Le CECIL, Globenet
Contact : contact@bloquelapub.net, contact@antipub.org, contact@laquadrature.net
";s:7:"dateiso";s:15:"20190128_143111";}s:15:"20190128_124429";a:7:{s:5:"title";s:106:"D. Dalton, rapporteur sur le règlement antiterroriste, est sur le point d’autoriser la censure de masse";s:4:"link";s:140:"https://www.laquadrature.net/2019/01/28/d-dalton-rapporteur-sur-le-reglement-antiterroriste-est-sur-le-point-dautoriser-la-censure-de-masse/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13299";s:7:"pubDate";s:31:"Mon, 28 Jan 2019 11:44:29 +0000";s:11:"description";s:131:"Daniel Dalton, rapporteur sur le règlement européen antiterroriste, est sur le point d’autoriser la censure de masse d'Internet";s:7:"content";s:11853:"
Daniel Dalton est député au Parlement européen (Royaume-Uni, ECR – Extrême-droite) et a été désigné rapporteur pour la Commission LIBE sur le règlement de censure antiterroriste (lire notre article sur le texte). Venant du Royaume-Uni, il ne fera plus partie du Parlement européen d’ici quelques mois, mais il compte auparavant laisser l’Union européenne sous-traiter la censure de l’Internet à Google et Facebook, détruire les autres acteurs de l’Internet et laisser à la police le pouvoir d’ordonner le retrait en une heure de contenus qu’elle juge illicite, et cela sans autorisation judiciaire.
Mercredi dernier, il a publié son projet de rapport – un texte sur lequel se basera le Parlement européen pour amender la proposition sécuritaire de la Commission européenne publiée en septembre dernier, proposition poussée par la France et l’Allemagne. Ce projet de rapport ne propose aucun vrai changement par rapport au texte initial. Peut-être que, nous laissant bientôt à notre sort, M. Dalton n’a rien à faire de ce règlement.
Ou est-ce vraiment le cas ?
Lors des derniers mois, Dalton a pourtant exprimé publiquement son opposition aux obligations de filtrage automatique qui résulteront de l’article 13 de la directive sur le droit d’auteur.
Il a ainsi clairement énoncé que « Les grands acteurs comme Google et Amazon auront la capacité de respecter les obligations qui leur seront imposées par le texte de la commission JURI sur l’article 13, c’est à dire de chercher des millions d’ayant-droits à travers le monde, de conclure avec eux des accords et mettre en place des logiciels sophistiqués de surveillance, ce que ne pourront peut-être pas faire des petites entreprises unipersonnelles à temps partiel. La mise en ligne de nombreux contenus légitimes sera automatiquement empêchée par ces logiciels de surveillance de contenu que les sites auront l’obligation d’installer. De nombreux utilisateurs ne contesteront pas ces décisions, ce qui constitue une entrave inacceptable à la liberté d’expression, ce qui serait un changement fondamental pour la nature de l’Internet tel que nous le connaissons aujourd’hui ». Alors pourquoi ferait-il aujourd’hui l’opposé ?
Il y a deux hypothèses.
Première possibilité : il n’a jamais été sincère et il travaille en réalité depuis le début pour Google. Google est contre l’article 13 ? Dalton l’est aussi. Google bénéficiera largement de ce règlement antiterroriste, car celui-ci détruira nombre de ses concurrents et le placera au centre du système de modération du Web ? Dalton défend ce texte. C’est une hypothèse très cynique et nous ne préférons pas y croire.
Seconde hypothèse : Dalton est sincère mais mal informé. Il n’a pas lu les lettres ouvertes signées par des dizaines d’acteurs de l’Internet ou les analyses que nous avons publié aux côtés de nombreuses autres organisations et associations (EDRi ou Mozilla par exemple). C’est assez crédible. Le seul changement que suggère Dalton dans son projet de rapport est d’indiquer que le règlement ne devra pas conduire à un filtrage automatisé des contenus. C’est en accord avec sa position sur la directive droit d’auteur. Mais il n’a pas encore réalisé que, malgré sa proposition, le cœur même du texte ne peut conduire qu’à une forme de censure automatisée.
Si les acteurs de l’Internet sont obligés de prévoir un point de contact disponible 24h/24 et 7 jours sur 7 pour répondre en moins d’une heure aux injonctions de retrait de la police (quelque chose toujours présent dans le projet de rapport), qu’est-ce que Dalton pense qu’il arrivera ? Très peu d’acteurs seront capables de retirer des contenus dans un tel délai. Et, de toutes façons, personne n’attendra calmement que la police les appelle. La plupart des acteurs ne pourront que déléguer la modération des contenus à d’autres entreprises. Lesquelles ? Il suffit, pour comprendre, de lire les communiqués publiés conjointement par la Commission européenne, Google et Facebook : ces entreprises prétendent être capables de détecter et de retirer des contenus soi-disant terroristes en une heure et la Commission explique que les petits acteurs devront désormais utiliser leurs outils1Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais)..
C’est plutôt simple : le but même de ce règlement est de forcer tous les acteurs de l’Internet à utiliser les outils développés par Google et Facebook depuis deux ans dans le cadre du Forum de l’UE sur l’Internet. La Commission européenne ne s’en est jamais cachée. Si Dalton est sincèrement opposé au filtrage automatisé et ne travaille pas pour Google, il devrait simplement retirer son projet de rapport et demander le rejet du règlement – ce texte n’étant d’aucun façon amendable ou améliorable.
Un premier vote sur ce projet de rapport est prévu pour le 21 mars. La Quadrature du Net rencontrera cette semaine des députés du Parlement européen et nous vous tiendrons au courant des retours du terrain.
« Les déclarations de M. Dalton ne semblent pas correspondre à ses actions. S’il est vraiment opposé au filtrage automatisé, alors pourquoi s’y oppose-t-il seulement quand il s’agit de la directive droit d’auteur et pas sur le règlement de censure antiterroriste ? Si vous êtes aussi intrigués que nous par le comportement incohérent de M. Dalton, n’hésitez pas à lui demander directement » suggère Martin Drago, chargé d’analyse juridique à La Quadrature du Net.
Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
";s:7:"dateiso";s:15:"20190128_124429";}s:15:"20190128_110000";a:7:{s:5:"title";s:82:"[RadioCampusParis] La matinale – Quadrature du net & Les enfant.e.s du désordre";s:4:"link";s:114:"https://www.laquadrature.net/2019/01/28/radiocampusparis-la-matinale-quadrature-du-net-les-enfant-e-s-du-desordre/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13291";s:7:"pubDate";s:31:"Mon, 28 Jan 2019 10:00:00 +0000";s:11:"description";s:226:"Conserver un internet libre pour diversifier et démêler les vérités et des mensonges à propos des usages d’internet c’est le quotidien des activistes de La Quadrature du net. Martin Drago et Marne sont au micro…";s:7:"content";s:1234:"
Conserver un internet libre pour diversifier et démêler les vérités et des mensonges à propos des usages d’internet c’est le quotidien des activistes de La Quadrature du net. Martin Drago et Marne sont au micro de la Matinale de 19h pour réagir au projet de la Commission Européenne de censure antiterroriste sur internet. Ils nous offrent aussi un décryptage des usages et libertés sur internet.
« Pour soi-disant nous protéger du terrorisme, on impose des interdictions très restrictives à l’ensemble des acteurs d’internet que ce soit les grands réseaux, les forums et les sites. » […]
";s:7:"dateiso";s:15:"20190128_110000";}s:15:"20190123_153320";a:7:{s:5:"title";s:90:"Censure antiterroriste : la Commission européenne maintient la pression sur le Parlement";s:4:"link";s:127:"https://www.laquadrature.net/2019/01/23/censure-antiterroriste-la-commission-europeenne-maintient-la-pression-sur-le-parlement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13272";s:7:"pubDate";s:31:"Wed, 23 Jan 2019 14:33:20 +0000";s:11:"description";s:234:"Après sa présentation en septembre 2018 par la Commission européenne et son adoption trois mois plus tard par les gouvernements européens, le projet de règlement sur la censure antiterroriste est en ce moment en discussion…";s:7:"content";s:10618:"
Après sa présentation en septembre 2018 par la Commission européenne et son adoption trois mois plus tard par les gouvernements européens, le projet de règlement sur la censure antiterroriste est en ce moment en discussion devant le Parlement européen.
Pour rappel, ce texte obligera de fait tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisée fournis par Facebook et Google, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle juge « terroriste », sans l’autorisation d’un juge.
Au sein du Parlement, c’est aujourd’hui la Commission LIBE (pour Libertés civiles, justice et affaires intérieures) qui a été désignée comme « compétente au fond », avec comme rapporteur Daniel Dalton (Royaume-Uni, ECR – Extrême-droite). Ce dernier sera donc chargé de rendre un rapport proposant des amendements au texte de la Commission européenne, rapport qui servira ensuite de base au Parlement européen pour examiner le texte de la Commission en séance plénière. Selon nos informations, Dalton pourrait essayer de publier un projet de rapport d’ici la fin janvier avec pour objectif de le faire adopter par la Commission LIBE dès le 21 mars 2019.
Deux autres commissions ont été désignées pour rendre à la Commission LIBE des avis sur la proposition législative : la Commission IMCO (pour Marché intérieur et protection des consommateurs – avec Julia Reda comme rapporteure – Allemagne, Groupe des Verts) et la Commission CULT (pour Culture et Éducation – avec Julie Ward comme rapporteure – Royaume-Uni, du groupe Socialistes et Démocrates).
Ces commissions ont toutes les deux récemment publié leur projet d’avis sur le texte.
Le projet d’avis de Julia Reda, publié le 13 décembre 2018, suggère la modification et même la suppression de nombreux éléments qui posaient problème dans le texte original présenté par la Commission européenne. Il y est ainsi proposé d’exclure du champ d’application les petites et moyennes entreprises ainsi que les services d’informatique en nuage, les blogs ou les services de communication interpersonnelles (c’est à dire les messageries instantanées). Elle recommande par ailleurs que seules des autorités judiciaires (et non plus la police) puissent demander à un fournisseur le retrait d’un contenu et cela, non plus dans l’heure mais seulement « rapidement, compte étant tenu de la taille et des ressources des fournisseurs des services d’hébergement ». Le fournisseur de service pourrait également contester le fondement de la demande de retrait qui lui est adressé. Enfin, parmi d’autres mesures, il est demandé la suppression de l’article 6 qui concernait la possibilité pour les autorités d’imposer des mesures de filtrage automatique aux fournisseurs de services.
Concernant la Commission CULT, Julie Ward a publié la semaine dernière un projet d’avis dans lequel elle critique à son tour les dangers de la proposition de la Commission. Elle y propose notamment, elle-aussi, de ne donner le pouvoir d’ordonner des retraits de contenus qu’aux autorités judiciaires, de ne plus parler d’un retrait en une heure mais « dans les meilleurs délais », de supprimer l’article 6 sur les mesures proactives de filtrage et de retirer la sanction minimum de 4% du chiffre d’affaires…1Notons que parmi les différences entre les deux projets d’avis, Julia Reda ne propose pas seulement de supprimer l’article 6 sur les mesures proactives mais également l’article 5 qui laissait au fournisseur de services l’opportunité de supprimer ou non un contenu signalé par les autorités – ce qui n’est pas proposé dans le projet d’avis de Julie Ward.
Si ces deux projets d’avis contiennent des propositions de modification qui sont les bienvenues par rapport au texte original, il reste que la stratégie que paraissent poursuivre les députées, c’est-à-dire de vider le texte de sa substance (réduction du nombre d’acteurs visés, passage obligatoire par des autorités judiciaires, suppression du délai de retrait d’une heure et des filtres automatiques…) sans appeler à son rejet en entier, nous semble être un jeu bien trop dangereux, qu’il ne faut surtout pas jouer.
En effet, premièrement, rien ne dit que ce seront les avis définitifs qui seront adoptés par IMCO et CULT et, deuxièmement, il sera toujours plus facile, une fois le texte adopté, de faire sauter les exceptions pour revenir au projet d’origine de la Commission. Comme nous le soulignons depuis septembre, seul le rejet du texte en son entier permettra de sauvegarder nos libertés et de conserver un Internet libre et décentralisé.
Il reste maintenant à savoir quelle sera la teneur du rapport de Daniel Dalton pour la Commission LIBE. Ses positions habituelles n’ont rien pour nous rassurer. L’autre question tient à savoir si le Parlement européen parviendra à se prononcer en séance plénière sur ce texte avant les élections européennes à venir en mai 2019.
S’il semble que, plus le temps avance, moins cela semble certain, le commissaire européen responsable de ce texte, Julian King, paraît, de son côté, toujours y croire, :
« Après un certain retard, le Parlement européen vient de confirmer la semaine dernière les commissions compétentes sur le texte. Nous devons donc désormais concentrer tous les efforts pour obtenir un accord avant les élections européennes.
C’est la première de nos trois priorités pour cette année, et la plus urgente à court terme»
En conclusion, si nous avions pu espérer en fin d’année dernière un ralentissement des débats sur ce sujet, ni la Commission ni les gouvernements ne semblent prêts à lâcher l’affaire et continuent d’imposer aux institutions européennes un rythme étranger à tout débat démocratique.
Notons que parmi les différences entre les deux projets d’avis, Julia Reda ne propose pas seulement de supprimer l’article 6 sur les mesures proactives mais également l’article 5 qui laissait au fournisseur de services l’opportunité de supprimer ou non un contenu signalé par les autorités – ce qui n’est pas proposé dans le projet d’avis de Julie Ward.
";s:7:"dateiso";s:15:"20190123_153320";}s:15:"20190121_171322";a:7:{s:5:"title";s:66:"Première sanction contre Google suite à nos plaintes collectives";s:4:"link";s:105:"https://www.laquadrature.net/2019/01/21/premiere-sanction-contre-google-suite-a-nos-plaintes-collectives/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=13249";s:7:"pubDate";s:31:"Mon, 21 Jan 2019 16:13:22 +0000";s:11:"description";s:216:"Le 28 mai dernier, La Quadrature du Net déposait devant la CNIL, au nom de 12 000 personnes, cinq plaintes contre Google, Apple, Facebook, Amazon et Microsoft. Depuis, la CNIL a décidé de traiter elle-même…";s:7:"content";s:6381:"
Le 28 mai dernier, La Quadrature du Net déposait devant la CNIL, au nom de 12 000 personnes, cinq plaintes contre Google, Apple, Facebook, Amazon et Microsoft. Depuis, la CNIL a décidé de traiter elle-même la plainte contre Google, alors que les autres sont parties devant les autorités irlandaise et luxembourgeoise (lire notre explication). À cela s’ajoutait une autre plainte déposée elle aussi devant la CNIL par nos amis de l’association autrichienne NOYB contre Android.
Aujourd’hui, la CNIL vient de sanctionner Google à hauteur de 50 millions d’euros, considérant que le ciblage publicitaire qu’il réalise sur son système d’exploitation Android n’est pas conforme au règlement général pour la protection des données (RGPD), la nouvelle loi européenne entrée en application le 25 mai 2018. Cependant, cette sanction n’est qu’une toute première partie de la réponse à notre plainte contre Google, qui dénonçait surtout le ciblage publicitaire imposé sur Youtube, Gmail et Google Search en violation de notre consentement.
Ainsi, la CNIL explique notamment le montant de sa sanction, très faible en comparaison du chiffre d’affaire annuel de près de 110 milliards de dollars de Google, du fait que le périmètre de son contrôle s’est limité aux « traitements couverts par la politique de confidentialité présentée à l’utilisateur lors de la création de son compte à l’occasion de la configuration de son téléphone mobile sous Android » (par. 78). Nous attendons donc de la CNIL qu’elle réponde rapidement au reste de notre plainte, au sujet de Youtube, Gmail et Google Search, en imposant cette fois-ci une sanction d’un montant proportionné à cette entreprise ainsi qu’à l’ampleur et à la durée de la violation de nos droits (le montant maximal possible, que nous espérons, est de plus de 4 milliards d’euros, 4% du chiffre d’affaire mondial).
Par ailleurs, sur le fond, la CNIL a aujourd’hui sanctionné Android sur des arguments dont l’enjeu est assez faible : elle considère, à juste titre, que les informations que nous donne Google au moment de créer un compte ne sont pas clairement accessibles et que notre consentement n’est pas recueilli de façon explicite (par un acte positif de notre part) mais notamment au moyen de cases pré-cochées, ce que le RGPD interdit explicitement.
Certes, ce dernier argument était bien un de ceux que nous avions soulevés dans nos plaintes, mais nos plaintes visaient avant tout à trancher un autre débat, bien plus fondamental : que la CNIL reconnaisse que notre consentement n’est valide que s’il est librement donné. Que la CNIL explique clairement que Google ne peut pas nous obliger à accepter son ciblage publicitaire afin de pouvoir utiliser ses services.
Contrairement aux décisions rendues récemment par la CNIL au sujet d’entreprises françaises, la CNIL est aujourd’hui parfaitement muette à ce sujet, et nous le déplorons. Nous attendons donc d’elle qu’elle aborde frontalement ce sujet dans les décisions qu’elle doit rendre prochainement au sujet de Youtube, Gmail et Google Search.
Au passage, toutefois, notons que Google, au cours de la procédure, a prétendu qu’il exigeait systématiquement notre consentement pour nous cibler à des fins publicitaires, et ne se reposait pas sur une autre base légale (tel que « l’intérêt légitime » – voir notre plainte, p.10). Ces prétentions sont intéressantes, premièrement parce qu’elles contredisent le contenu même de la politique de confidentialité de Google (qui prétend pouvoir nous cibler sans notre consentement), mais aussi parce qu’elles laissent envisager un repli stratégique de la part de Google qui, dos au mur, pourrait enfin cesser de feindre d’ignorer entièrement le droit européen.
Un risque majeur demeure toutefois : pour échapper à des sanctions, Google a récemment modifié ses conditions d’utilisation. Celles-ci prétendent, à partir du 22 janvier, établir l’entreprise comme étant située en Irlande dans l’espoir d’empêcher la CNIL française de rendre des décisions telle que celle d’aujourd’hui (l’autorité irlandaise étant en sous-effectif et débordée de plaintes, Google peut espérer y faire traîner sa procédure pendant des années). Nous attendons de la CNIL qu’elle ignore cette pirouette éhontée et décide de rester compétente pour prononcer les autres sanctions contre Youtube, Gmail et Google Search, notre plainte ayant été déposée bien avant ce changement unilatéral des conditions d’utilisation imposées par l’entreprise.
En conclusion, même si nous nous réjouissons d’une première sanction sur le fondement de nos plaintes collectives, notamment car la décision d’aujourd’hui vient couper court à la tentative de fuite en Irlande de Google, nous attendons surtout de la CNIL qu’elle prononce très prochainement la suite des décisions auxquelles notre plainte appelle. Ces décisions devront aborder frontalement la question du « consentement libre » et prévoir une sanction d’un montant proportionné à la situation, bien au delà de 50 millions d’euros.
Surtout, un grand merci au 12 000 personnes avec qui nous avons engagé ces plaintes contre les GAFAM et leur monde <3
";s:7:"dateiso";s:15:"20190121_171322";}s:15:"20181219_163331";a:7:{s:5:"title";s:48:"La Quadrature du Net a encore besoin de vos dons";s:4:"link";s:89:"https://www.laquadrature.net/2018/12/19/la-quadrature-du-net-a-encore-besoin-de-vos-dons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12835";s:7:"pubDate";s:31:"Wed, 19 Dec 2018 15:33:31 +0000";s:11:"description";s:225:"Nous voici à la fin de la campagne de dons annuelle de La Quadrature du Net : cinq semaines que nous avons vécues au rythme des évènements thématiques organisés et des belles rencontres qu’ils nous ont…";s:7:"content";s:8787:"
Nous voici à la fin de la campagne de dons annuelle de La Quadrature du Net : cinq semaines que nous avons vécues au rythme des évènements thématiques organisés et des belles rencontres qu’ils nous ont permis de faire.
Nous y avons parlé des sujets qui sont au cœur de nos actions : la lutte contre la censure et la surveillance mais aussi contre l’emprise des GAFAM et de l’économie de l’attention sur nos vies.
Nous avons enfin beaucoup parlé d’un sujet crucial tant il menace l’Internet que nous aimons : la censure sécuritaire au prétexte de la lutte anti-terroriste.
Si la série d’évènements que nous avons organisés s’est achevée hier avec une inspirante soirée littéraire,2Pour retrouver les captations de plusieurs de ces soirées : « Quel avenir juridique pour les hébergeurs ? » « Capitalisme de surveillance » « Soirée littéraire « le futur d’Internet » les attaques contre nos libertés fondamentales se multiplient.
La lutte ne s’arrête donc pas là : ce dossier « censure sécuritaire » mais aussi les projets de « smart cities » technopolicières qui fleurissent partout dans le monde, et notamment en France, dessineront ce que seront les combats de La Quadrature du Net pour l’année à venir.
C’est pourquoi La Quadrature du Net a besoin de vous encore une fois. Notre objectif de campagne est loin d’être atteint : nous en sommes aujourd’hui à 45%, et la vie de l’association est assurée jusqu’en juin 2019. Ensuite, c’est flou. Les années précédentes, des événements d’actualité très forts, comme l’état d’urgence contre lequel nous étions très impliqués ou comme notre action collective contre les GAFAM ont relancé les dons en cours d’année, ce qui nous avait permis de boucler le budget. En 2019, nous partons en campagne contre la volonté de la France et de l’Union européenne d’augmenter la censure du Web sous prétexte de lutter contre le terrorisme. L’année sera difficile. Et sans votre aide nous ne pourrons pas mener à bien ce pour quoi nous sommes là : défendre au quotidien les libertés de chacune et chacun !
";s:7:"dateiso";s:15:"20181219_163331";}s:15:"20181219_144414";a:7:{s:5:"title";s:82:"Reconnaissance faciale au lycée : l’expérimentation avant la généralisation";s:4:"link";s:113:"https://www.laquadrature.net/2018/12/19/reconnaissance-faciale-au-lycee-lexperimentation-avant-la-generalisation/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12816";s:7:"pubDate";s:31:"Wed, 19 Dec 2018 13:44:14 +0000";s:11:"description";s:216:"Le 14 décembre dernier, le Conseil Régional de PACA a voté une mesure visant à faire installer, à partir de 2019, des dispositifs de reconnaissance faciale à l’entrée de deux lycées de Nice et de…";s:7:"content";s:20520:"
Le 14 décembre dernier, le Conseil Régional de PACA a voté une mesure visant à faire installer, à partir de 2019, des dispositifs de reconnaissance faciale à l’entrée de deux lycées de Nice et de Marseille. Dès le mois d’octobre, La Quadrature du Net avait demandé à la CNIL la communication des documents en sa possession sur ce dossier, cette dernière ayant été consultée par la région pour la mise en place de ces dispositifs. L’analyse de ces documents, ainsi que les précisions apportées par Christian Estrosi, confirment l’impuissance de la CNIL à enrayer la banalisation d’une technologie particulièrement liberticide et qui vise ici à s’étendre à l’ensemble des établissements scolaires de la région.
Mise à jour (20 décembre 2018) – nous publions les documents suivants :
La demande de renseignements complémentaires par la CNIL à la région et la réponse de cette dernière
De quoi s’agit-il ? En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale, seuls à même d’après nos premières investigations, d’apporter une solution fiable et rapide dans un contexte de contrôle d’accès portant sur un nombre potentiellement élevé de personnes ». Cette nouvelle étape est la suite logique de sa politique sécuritaire ayant conduit, entre 2016 et 2017, à ce que plus de 1 300 caméras de vidéosurveillance soient installées dans l’ensemble des lycées de la région. La technologisation à outrance est également présentée par la région comme une réponse au contexte d’austérité budgétaire :
Ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique.
La région PACA présente ainsi à la CNIL son projet visant à « sanctuariser » les entrées et les sorties dans les établissements secondaires. Il s’agit non seulement de reconnaissance faciale mais également d’un dispositif de « suivi de trajectoire » de certains des visiteurs : un logiciel installé couplé à une caméra permet de détecter des points de comparaison faciale déterminés par un algorithme et de le comparer avec ceux stockés dans une base de données. Un écran mis à la disposition des agents de contrôle permet alors de visualiser trois types de profils : « vert » pour les personnes autorisées à pénétrer dans l’enceinte du lycée, « jaune » pour les personnes non identifiées et invitées à se présenter à l’accueil et « rouge » pour les personnes non identifiées et qui ne se sont pas dirigées dès leur entrée vers l’accueil.
Il est par ailleurs précisé qu’il s’agit pour l’instant d’une « expérimentation limitée dans le temps » et fondée sur le consentement explicite de volontaires au sein des établissements visés.
La CNIL impuissante face au développement de la reconnaissance faciale
Alors qu’elle avait appelé en septembre 2018 à un débat urgent sur ces nouveaux usages des caméras vidéo et qu’elle souligne elle-même les risques considérables d’atteinte aux libertés individuelles que cette technologie entraîne, la CNIL n’a opéré ici qu’un suivi très souple – voire accommodant – du projet.
Soulignons d’abord que, depuis l’entrée en vigueur du RGPD en mai 2018, les responsables de traitement de données personnelles n’ont en principe plus à réaliser de formalités auprès de la CNIL avant la mise en œuvre du traitement, tel qu’obtenir son autorisation dans certains cas. Le contrôle de l’autorité ne se fait qu’a posteriori, conformément au principe de responsabilisation des acteurs prévu dans le règlement. Tout au plus certains traitements, et c’est le cas pour la reconnaissance faciale, doivent-ils faire l’objet d’une analyse d’impact. Le consentement des utilisateurs est désormais censé fournir une base légale suffisante pour le déploiement de ces systèmes qui font pourtant entrer la surveillance dans une nouvelle ère. En supprimant le pouvoir d’autorisation de la CNIL s’agissant de ce type de dispositifs, le RGPD marque donc un recul pour les libertés.
Selon les documents qui nous ont été communiqués, la CNIL s’est donc contentée de demander des précisions complémentaires à la Région sur le dispositif envisagé et, sur certains points, de fournir des recommandations. C’est d’ailleurs suite à l’une de ces recommandations que la Région a décidé que le stockage des données biométriques ne se ferait pas sur une base de données mais sur un support individuel, sous le contrôle exclusif de la personne (en l’espèce, un badge) (comme c’est le cas pour ce qui existe déjà dans plusieurs aéroports où la photographie n’est stockée que dans le microprocesseur du passeport biométrique).
Ainsi, et contrairement à ce qui a été annoncé par une partie de la presse et par Christian Estrosi lui-même, la CNIL n’a pas donné son « feu vert » à ce dispositif mais a simplement accompagné la région dans sa mise en place.
Pourtant, en laissant se développer ce type de technologies à des buts sécuritaires, sans qu’il ne soit apporté à un seul moment la preuve de la pertinence d’un tel dispositif par rapport au système existant,1Il est ainsi seulement précisé dans les documents produits par la région, et cela sans aucune preuve ou réelle analyse, que « les nombreux incidents et agressions constatés aussi bien dans l’enceinte du lycée qu’à ses abords, ainsi que le contexte sécuritaire existant depuis les attentats terroristes de 2016, conduisent également à tenter de limiter les temps d’attente et les attroupements à l’extérieur des établissements aux moments de forte affluence (rentrées matinales notamment) » ou que « ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs de la fonction publique. Il apporte une assistance aux personnels du lycée, qui peuvent ainsi mieux se concentrer sur les cas nécessitant une intervention humaine, et reporter leur vigilance sur les multiples situations menaçant la sécurité, en augmentant la présence humaine dans les lieux de vie de l’établissement. » sans même une réelle réflexion sur la nature du consentement que peuvent donner des mineurs à l’égard d’une expérimentation au sein de leur lycée,2Le courrier de la région précise à ce titre que « Les personnes volontaires (ou leur représentant légal pour les mineurs) doivent signer préalablement un formulaire de recueil de consentement expliquant la finalité de l’expérimentation, la durée de conservation des donnée ainsi que la manière d’exercer les droits Informatique et Libertés » la CNIL participe à la banalisation de ces technologies. Elle devient l’alibi au développement d’une surveillance généralisée qui sera au cœur des « Safe City » qui commencent à essaimer sur le territoire.
Un dispositif qui a vocation à s’étendre à toute la région
Car, sous le qualificatif faussement tranquillisant d’ « expérimentation » mis en exergue par Renaud Muselier et Christian Estrosi, ces derniers souhaitent en réalité, comme ils l’ont eux-mêmes énoncé lors de l’assemblée plénière du Conseil Régional, étendre ce dispositif de reconnaissance faciale à l’ensemble des lycées de la région :
Avec ces deux expériences, une fois que nous l’aurons démontré, nous irons très vite sur la généralisation, à partir du réseau de vidéosurveillance déjà existant, sur lequel il ne nous restera plus qu’à mettre le logiciel qui correspond à l’usage de la reconnaissance faciale par rapport aux caméras déjà installées dans nos établissements scolaires.
L’expérimentation des lycées de Nice et de Marseille s’inscrit donc en réalité parfaitement dans les divers projets que La Quadrature du Net dénonce depuis près d’un an, et qui sont d’ailleurs particulièrement avancés dans ces deux villes : « Observatoire Big Data de la tranquillité publique » à Marseille, « Safe City » à Nice… Cette actualité apparaît alors comme une nouvelle briqueau développement, toujours plus rapide et incontrôlable, de ces nouvelles technologies de surveillance (« Big Data », caméras « intelligentes », reconnaissance faciale…) au profit des municipalités et de leurs polices.
Un tel projet profitera par ailleurs pleinement à son maître d’œuvre, la société CISCO, qui finance entièrement cette expérimentation et qui s’occupera « dans un premier temps » de former les professeurs des lycées à ces nouvelles technologies. Cisco, acteur américain central de la « Safe City », et avec qui le gouvernement français avait déjà signé un partenariat important pour mener un projet de « Smart City » dans une ville française, se positionne dans un marché en plein essor. Il pourra pleinement tirer parti de cette occasion que lui donne la région de tester ses nouvelles technologies de surveillance dans nos établissements scolaires pour mieux la revendre plus tard, dans le cadre de marchés publics à vocation sécuritaire.
Alors qu’il y a plus d’un mois, nous appelions déjà la CNIL à imposer un moratoire sur le développement de ces technologies, cette dernière semble s’en tenir à une posture attentiste. Nous appelons les syndicats de lycéens et d’enseignants ainsi que les parents d’élèves et toutes celles et ceux révulsés par ces évolutions à s’organiser pour les tenir en échec.
Il est ainsi seulement précisé dans les documents produits par la région, et cela sans aucune preuve ou réelle analyse, que « les nombreux incidents et agressions constatés aussi bien dans l’enceinte du lycée qu’à ses abords, ainsi que le contexte sécuritaire existant depuis les attentats terroristes de 2016, conduisent également à tenter de limiter les temps d’attente et les attroupements à l’extérieur des établissements aux moments de forte affluence (rentrées matinales notamment) » ou que « ce dispositif constitue une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs de la fonction publique. Il apporte une assistance aux personnels du lycée, qui peuvent ainsi mieux se concentrer sur les cas nécessitant une intervention humaine, et reporter leur vigilance sur les multiples situations menaçant la sécurité, en augmentant la présence humaine dans les lieux de vie de l’établissement. »
2.
↑
Le courrier de la région précise à ce titre que « Les personnes volontaires (ou leur représentant légal pour les mineurs) doivent signer préalablement un formulaire de recueil de consentement expliquant la finalité de l’expérimentation, la durée de conservation des donnée ainsi que la manière d’exercer les droits Informatique et Libertés »
";s:7:"dateiso";s:15:"20181219_144414";}s:15:"20181213_140532";a:7:{s:5:"title";s:87:"Résumé de nos arguments contre la surveillance française devant les juges européens";s:4:"link";s:120:"https://www.laquadrature.net/2018/12/13/cour-de-justice-de-lue-resume-de-nos-arguments-contre-la-surveillance-francaise/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12738";s:7:"pubDate";s:31:"Thu, 13 Dec 2018 13:05:32 +0000";s:11:"description";s:269:"La semaine dernière, nous avons déposé devant la Cour de justice de l’Union européenne nos dossiers contre le régime de surveillance français. Cet événement marque l’aboutissement de trois années d’analyses, de débats et de rédaction…";s:7:"content";s:18716:"
La semaine dernière, nous avons déposé devant la Cour de justice de l’Union européenne nos dossiers contre le régime de surveillance français. Cet événement marque l’aboutissement de trois années d’analyses, de débats et de rédaction menés par La Quadrature du Net, FFDN et FDN, principalement au travers des Exégètes amateurs (un groupe de bénévoles qui, depuis quelques mois, ont intégré ces différentes associations pour y poursuivre leurs activités).
Depuis quatre ans que nous menons ce genre d’action, ce dossier contentieux est clairement celui qui aura mobilisé le plus d’énergie de notre part. Dans l’attente de la plaidoirie qui se tiendra dans plusieurs mois, et d’une décision qui pourrait bouleverser le droit français l’année prochaine ou la suivante, faisons le bilan de nos arguments.
En juillet dernier, nous vous faisions le récit de nos trois années de procédure devant les juges français. Depuis, tel que nous l’espérions, le Conseil d’État a accepté de poser à la Cour de justice de l’Union européenne cinq questions portant sur la conformité du régime français de surveillance au regard du droit de l’Union européenne (ces cinq questions ont été transmises par deux décisions rendues le 26 juillet 2018, une première portant sur la loi renseignement et une seconde sur la conservation généralisée des données de connexion).
Pour aider la CJUE à répondre à ces cinq questions, nous avons préparé deux dossiers avec FFDN et igwan.net. Il y a 15 jours, nous vous invitions à venir les relire pour les améliorer. Vous avez été des dizaines à le faire, rendant nos écritures plus claires et plus précises. Nous vous en remercions infiniment. Sincèrement !
Vous pouvez lire ces deux dossiers, ici (PDF, 20 pages) et ici (PDF, 17 pages). Ils ne sont pas très longs, mais leur prose reste assez technique. Nous en faisons donc ici un résumé que nous espérons plus accessible.
Contre la loi renseignement
Notre premier dossier, déposé par La Quadrature du Net, souhaite démontrer que la loi renseignement, adoptée en 2015, est largement contraire au droit de l’Union européenne et devrait donc être drastiquement modifiée pour ne plus permettre les abus qu’elle permet aujourd’hui.
Avant de rentrer dans le détail de nos arguments, rappelons brièvement ce à quoi nous nous attaquons.
Concrètement, la loi renseignement (codifiée au livre VIII du code de la sécurité intérieure) permet aux services de renseignement de réaliser les mesures suivantes :
intercepter des communications électroniques (téléphones, mails, etc.) ;
collecter des données de connexion (adresse IP, date et heure de communication, etc.) et de localisation auprès des opérateurs de télécommunication et des hébergeurs Web ;
exiger des opérateurs de leur transmettre en temps réel des données de localisation ;
dévoyer un réseau pour intercepter des données de connexion, typiquement à l’aide de dispositifs de type « IMSI-catcher » ;
pirater un terminal informatique (à distance ou en s’immisçant dans un lieu privé) pour accéder aux données qui y sont entrées, affichées ou enregistrées ;
capter des images et des conversations privées, à distance ou en posant micros et caméras dans des lieux privés ;
poser des dispositifs (type « sondes ») permettant de suivre la localisation de personnes et d’objets, notamment en entrant dans des lieux privés ;
intercepter sur un réseau l’ensemble des « communications internationales » – dont l’émetteur et/ou le récepteur est situé en dehors du territoire français.
Toutes ces mesures peuvent être réalisées sur simple autorisation du Premier ministre, sans autorisation préalable d’un juge ou d’une autorité indépendante. Pour être autorisées, il suffit qu’elles soient utiles à la défense de l’un des très nombreux « intérêts fondamentaux de la Nation » dont la loi dresse la liste (et qui ne se résument pas du tout à la seule lutte contre le terrorisme) – nous y reviendrons plus tard. De plus, ces mesures peuvent être prises contre n’importe quelle personne (suspectée ou non) du moment que sa surveillance est susceptible de révéler des informations utiles pour défendre ces « intérêts fondamentaux ».
Enfin, et cette fois-ci pour la seule finalité de lutte contre le terrorisme, l’administration peut aussi recueillir en temps réel des données de connexion et placer sur les réseaux des dispositifs (les fameuses « boites noires », détaillées ci-dessous) interceptant et traitant automatiquement les données acheminées afin de « détecter des connexions susceptibles de révéler une menace terroriste ».
Voilà pour ce que nous attaquons.
Quant à nos arguments, pour aller au plus simple, nous les résumerons à 5 idées : les « intérêts fondamentaux » pouvant justifier une mesure sont trop larges (1) ; les données collectées sont excessives comparées aux objectifs poursuivis (2) ; la loi n’encadre que la collecte des données, mais pas leur utilisation (3) ; les mesures de renseignement ne sont pas soumises à un contrôle indépendant efficace (4) ; nous ne pouvons pas vraiment agir en justice pour contester une mesure illicite (5).
1. Des « intérêt fondamentaux » trop larges
Les services de renseignement peuvent réaliser les mesures listées ci-dessus pour de nombreux « intérêts fondamentaux », que la loi définit comme comprenant la lutte contre le terrorisme mais aussi :
– la défense des « intérêts majeurs de la politique étrangère », ces intérêts étant discrétionnairement définis par le Gouvernement ;
– « l’exécution des engagement européens et internationaux de la France », notamment l’application des normes de l’Union européenne sur l’agriculture, la pêche, les transports, l’emploi, la culture ou le tourisme ainsi que les accords internationaux tels que l’accord de Paris de 2015 sur le climat ou la Convention de Genève de 1931 sur le droit de timbre en matière de chèque (pourquoi pas, après tout !) ;
– la défense des « intérêts économiques, industriels et scientifiques de la France », qui permet l’espionnage industriel et scientifique ;
– la prévention des « violences collectives de nature à porter gravement atteinte à la paix publique », couvrant notamment la lutte contre les manifestations, même non violentes, n’ayant pas été déclarées ou ayant fait l’objet d’une déclaration incomplète ;
– « la prévention de la criminalité et de la délinquance organisée », notamment la lutte contre l’acquisition illicite de stupéfiants, même par un individu seul qui n’agit pas en groupe.
Surveiller la population pour ces finalités est contraire au droit de l’Union européenne. D’abord, le contour de certaines de ces finalités peut être arbitrairement défini par le gouvernement (politique étrangère, engagements internationaux, intérêts économiques…), sans limite prévue dans la loi. De plus, le gouvernement se permet de surveiller la population pour des infractions mineures (par exemple des manifestations non déclarées ou achat à titre individuel de stupéfiants) alors que le droit de l’Union prévoit que, en matière de lutte contre les infractions, la surveillance n’est autorisée que pour lutter contre des crimes graves.
2. Des données excessives
Le droit de l’Union pose comme principe que seules les personnes présentant un lien avec une menace peuvent être surveillées. De plus, il interdit radicalement toute forme de surveillance de masse.
En droit français, comme vu plus haut, la règle est de surveiller n’importe qui pouvant fournir des informations utiles, peu importe que les personnes soient ou non en lien avec une menace. Surtout, la loi renseignement a autorisé deux mesures de surveillance de masse.
Premièrement, les services peuvent intercepter l’ensemble des « communications internationales » – il s’agit de communications dont l’émetteur et/ou le récepteur est situé en dehors du territoire français. Une fois les communications interceptées, toutes les données de connexion y afférentes (qui parle à qui, quand, etc.) peuvent être analysées au moyen de « traitements automatisés », et cela de façon « non individualisée » (donc en masse). De plus, le Premier ministre peut aussi autoriser l’analyse du contenu des communications internationales pour les « zones géographiques » ou les « groupes de personnes » qu’il désigne. Rien ne l’empêche de désigner un ou plusieurs pays comme « zones géographiques » ciblées.
Secondement, les « boites noires » peuvent intercepter et analyser des données (dont certaines sont particulièrement intimes – telle que l’adresse des sites visités) sur l’ensemble des populations utilisant les réseaux de télécommunication où elles sont déployées. Par exemple, rien n’empêche techniquement que le gouvernement pose des boites noires en divers points du réseau d’une grande ville pour analyser automatiquement qui parle avec qui, quand, qui consulte quoi, etc. Le but de ces dispositifs est de « détecter des connexions susceptibles de révéler une menace terroriste » : il s’agit donc d’une surveillance « exploratoire » qui, par nature, vise des personnes sur qui ne pèse aucun soupçon (le but étant de révéler des soupçons). Ces dispositifs sont couramment appelés « boites noires » car ce sont des machines fonctionnant de façon autonome, selon des critères et des méthodes informatiques gardées secrètes.
3. Des renseignements en libre-service
Le droit de l’Union européenne n’encadre pas que la collecte des données. Il exige aussi que l’utilisation ultérieure des données ne puisse être réalisée que pour des finalités légitimes, de façon proportionnée et selon une procédure adaptée.
En France, la loi renseignement ne s’est pas encombrée de telles règles, qui sont donc entièrement absentes, tout simplement ! Une fois que les renseignements ont été mis en fiches et en dossiers, plus aucune règle n’encadre leur utilisation. Ces informations peuvent même être transmises librement à des puissances étrangères qui, elles même, peuvent fournir à la France d’autres renseignements, sans aucune limite ou procédure prévues par la loi.
4. Un contrôle indépendant sans effet
La loi renseignement a prétendu confier à la Commission nationale de contrôle des techniques de renseignement (CNCTR) le soin de veiller à ce que les services de renseignement respectent la loi – ce que le droit de l’Union exige.
Pourtant, dès qu’on regarde un peu en détail, la CNCTR manque de tout pouvoir pour nous protéger effectivement contre des abus politiques. Elle n’est jamais que « avertie » pour pouvoir émettre des « avis non contraignants » sur les mesures prises contre la population. Si ses avis ne sont pas suivis – le gouvernement étant parfaitement libre de passer outre -, la CNCTR peut seulement saisir le Conseil d’État qui, plusieurs semaines ou plusieurs mois après qu’une personne ait été surveillée illégalement, pourra ordonner que la surveillance prenne fin – trop tard, donc.
De plus, symbole parfait de son manque de pouvoir, la CNCTR n’est pas autorisée à accéder aux renseignements fournis à la France par des puissances étrangères. Le gouvernement peut ainsi organiser tous les échanges imaginables avec ses alliés (du type « je surveille ton pays et tu surveilles le mien ») pour échapper à tout semblant de contrôle indépendant.
5. Une défense impossible
Le droit de l’Union prévoit que, pour pouvoir se défendre en justice contre une surveillance illégale, les personnes soient au moins prévenues des mesures qu’elles ont subies lorsque cela ne peut plus nuire aux enquêtes. Encore une fois, le droit français nous refuse parfaitement ce droit, pourtant indispensable au droit fondamental de contester en justice les actes du gouvernement pris contre nous.
Ce droit fondamental exige aussi, toujours d’après le droit de l’Union, que nous disposions des informations nécessaires pour contester la légalité d’une surveillance (pour quel motif avons-nous été surveillé, quand, pendant combien de temps, comment ?). Là, le gouvernement français a les pleins pouvoir pour classer les informations de son choix comme étant « secret-défense », nous empêcher d’y accéder pour nous défendre, et ce sans que le juge ne puisse les déclassifier – ce qui viole encore le droit de l’Union.
Enfin, et c’est sans doute la pire des atteintes à nos droits, nous ne disposons tout simplement d’aucune possibilité de contester en justice la légalité des mesures de surveillance internationale (la surveillance de masse des communications émises vers ou reçues depuis l’étranger).
Bref, sans pouvoir prédire lesquels de nos arguments seront retenus par la Cour de justice de l’Union européenne, il nous semblerait aberrant que des parties importantes de la loi renseignement ne soient pas déclarées comme violant le droit européen.
Contre la conservation généralisée des données de connexion
Notre second dossier (moins dense juridiquement), a été déposé par FFDN et igwan.net, représentant chacun des fournisseurs d’accès à Internet soumis à l’obligation de conserver pendant un an les données de connexion de l’ensemble de la population. Cette obligation s’impose aussi aux opérateurs téléphoniques et aux hébergeurs Web (pour savoir qui a publié quel contenu en ligne, à quelle heure, etc.).
L’argumentation juridique est ici plus simple : le régime français de conservation est frontalement contraire aux exigences européennes qui, tel que précisé par la Cour de justice depuis 2014, interdisent clairement aux États membre d’imposer aux acteurs du numérique de conserver des données de connexion sur l’ensemble de leurs utilisateurs, quelque soit la durée de cette conservation. D’autres États (Suède et Royaume-Uni) ont déjà été explicitement dénoncés par la Cour de justice comme ne respectant par le droit de l’Union sur ce point, en 2016. Mais la France et le Conseil d’État ont cru utile de reposer la question…
Leur argument principal est que la menace terroriste (qui justifierait la conservation généralisée des données de connexion) aurait augmenté depuis 2016. Sauf que, entre la période de 2015-2016 et celle de 2017-2018, le nombre de victimes du terrorisme en Europe a presque été divisé par quatre. De plus, les usages du numérique, ainsi que la loi, ont largement évolués, rendant encore moins utile l’obligation de conserver des données pendant un an.
Si la France veux amadouer la Cour de justice de l’UE afin que ses pouvoirs de surveillance soient épargnés, elle aurait mieux fait de commencer par réformer son droit qui, depuis quatre ans, viole frontalement celui de l’Union européenne.
Ce combat est celui qu’a initié la formation des Exégètes amateurs. Il a aussi marqué le début des actions de La Quadrature du Net devant les juges. Nous espérons connaître le même succès que celui obtenu par nos amis Digital Rights Ireland et Maximilian Schrems qui ont respectivement obtenu en 2014 et 2015 des décisions fondamentales de la Cour de justice de l’Union européenne en faveur de nos libertés et contre la surveillance de masse.
";s:7:"dateiso";s:15:"20181213_140532";}s:15:"20181212_190044";a:7:{s:5:"title";s:58:"[EN DIRECT] ! Soirée littéraire Sciences Fiction, Paris";s:4:"link";s:45:"https://www.laquadrature.net/2018/12/12/live/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12106";s:7:"pubDate";s:31:"Wed, 12 Dec 2018 18:00:44 +0000";s:11:"description";s:213:"Suivez en direct La soirée littéraire sur la Sciences Fiction, à la maison du libre et des communs, rue St Denis, Paris
if(Hls.isSupported()) {
var video = document.getElementById('video');
…";s:7:"content";s:1257:"
Suivez en direct La soirée littéraire sur la Sciences Fiction, à la maison du libre et des communs, rue St Denis, Paris
Si vous n’avez pas de navigateur compatible HTML5, vous pouvez aussi voir directement le flux live en faisant pointer votre player habituel (tel VLC ou MPlayer) à l’adresse suivante :
";s:7:"dateiso";s:15:"20181212_190044";}s:15:"20181212_170418";a:7:{s:5:"title";s:105:"Le Parlement européen appelle à la censure automatisée et privatisée du Web à des fins sécuritaires";s:4:"link";s:140:"https://www.laquadrature.net/2018/12/12/le-parlement-europeen-appelle-a-la-censure-automatisee-et-privatisee-du-web-a-des-fins-securitaires/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12721";s:7:"pubDate";s:31:"Wed, 12 Dec 2018 16:04:18 +0000";s:11:"description";s:242:"Comme nous le redoutions lundi dernier, le Parlement européen vient d’adopter un rapport proposant, au prétexte de la lutte contre le terrorisme, de déléguer la censure du Web européen à Facebook et Google.
Pour rappel, ce…";s:7:"content";s:12248:"
Comme nous le redoutions lundi dernier, le Parlement européen vient d’adopter un rapport proposant, au prétexte de la lutte contre le terrorisme, de déléguer la censure du Web européen à Facebook et Google.
Pour rappel, ce rapport indique, parmi de nombreuses recommandations, qu’il serait nécessaire « de parvenir à la détection automatique et à la suppression systématique, rapide, permanente et complète des contenus terroristes en ligne » et d’empêcher « le rechargement de contenus déjà supprimés ». Le texte précise à ce titre qu’il se « félicite de la proposition législative de la Commission visant à empêcher la diffusion de contenus terroristes en ligne », « invite les co-législateurs à engager rapidement les travaux sur cette proposition » et « invite les États membres à mettre en place des mesures nationales si l’adoption de la législation en la matière est retardée » (§ 47).
Trois amendements auraient permis au Parlement européen de se démarquer de la volonté d’Emmanuel Macron et de la Commission européenne de soumettre l’ensemble du Web aux outils de censure automatisée développés par Google et Facebook, tel que nous le dénoncions avec 58 autres organisations.
Un premier amendement proposait que la censure des « contenus terroristes » ne se fasse pas de façon « automatique » ; cet amendement a été rejeté à 311 voix contre 269 (77 abstentions). Un deuxième amendement proposait que cette censure n’implique pas une activité de « détection » active des contenus, ni une suppression « systématique et rapide » ; il a été rejeté à 533 voix contre 119 (4 abstentions). Un troisième amendement proposait de ne pas imposer aux plateformes une obligation de « supprimer complètement » les contenus ; il a été rejeté à 534 voix contre 105 (14 abstentions).
La majorité des députés européens rejoint donc la volonté exprimée la semaine dernière par les gouvernements européens d’imposer une censure généralisée, privée et automatisée de l’Internet (lire notre article).
Le rapport adopté aujourd’hui ne prévoit que de simples « recommandations » : ce n’est qu’une sorte de déclaration de principe sans effet juridique. Toutefois, il laisse craindre que le Parlement ait déjà abandonné toute ambition de défendre nos libertés face aux arguments sécuritaires qui ont motivé la Commission européenne à proposer son règlement de censure anti-terroriste, que le Parlement européen examinera dans les semaines à venir.
Le vote d’aujourd’hui est d’autant plus inquiétant qu’il intervient à la suite d’une fusillade survenue hier à Strasbourg, dans la ville où siégeait le Parlement. Plutôt que de reporter ce vote1Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte., les députés ont préféré adopter immédiatement le texte. Certains ont même évoqué l’attaque d’hier pour justifier leur volonté sécuritaire2Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. », invoquant un « risque de terrorisme islamiste » alors que l’auteur des violences n’a pas encore été arrêté et que l’enquête en est à peine à ses débuts.
Comme d’habitude, malheureusement, le temps de l’apaisement et de la réflexion, et même du deuil, a été écarté pour avancer à marche forcée sur les voies sécuritaires et destructrices que nos dirigeants poursuivent depuis des années en prétendant défendre la démocratie contre le totalitarisme. Tout en faisant l’inverse.
Désormais, les débats au Parlement européen concerneront directement le règlement de censure antiterroriste. Vous pouvez lire notre dernière analyse plus complète sur ce texte, qui sera notre dossier principal dans les mois à venir.
Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte.
2.
↑
Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. »
";s:7:"dateiso";s:15:"20181212_170418";}s:15:"20181210_152601";a:7:{s:5:"title";s:70:"Le Parlement européen s’opposera-t-il à la censure sécuritaire ?";s:4:"link";s:102:"https://www.laquadrature.net/2018/12/10/le-parlement-europeen-sopposera-t-il-a-la-censure-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12709";s:7:"pubDate";s:31:"Mon, 10 Dec 2018 14:26:01 +0000";s:11:"description";s:279:"Le 12 décembre, le Parlement européen votera le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ». S’il est adopté, ce texte, sans avoir l’effet d’une loi, recommandera l’adoption de…";s:7:"content";s:5545:"
Le 12 décembre, le Parlement européen votera le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ». S’il est adopté, ce texte, sans avoir l’effet d’une loi, recommandera l’adoption de mesures prévues dans le règlement de censure antiterroriste : la sous-traitance de la censure aux géants de l’Internet et le contournement des juges nationaux (lire notre dernière analyse).
La Quadrature du Net envoie aux députés du Parlement européen le message suivant, leur demandant de voter le rejet de ce rapport :
Chers députés du Parlement européen,
Le mercredi 12 décembre prochain, vous voterez le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ».
Ces recommandations prônent des mesures sécuritaires absurdes qui porteraient atteinte aux libertés fondamentales. De manière plus précise, ce rapport prône l’adoption des mêmes mesures que celles prévues dans le règlement de censure antiterroriste, qui sera débattu dans quelques semaines au Parlement : la remise en cause du chiffrement de bout en bout, la délégation de la censure aux géants de l’Internet et le pouvoir donné aux polices européennes de contourner les juges nationaux (points BD, BH, 47, 113 et 125). Pour l’ensemble de ces raisons, nous vous demandons de voter le rejet de ce rapport.
Utilisant le prétexte de la lutte contre la radicalisation en ligne, ces mesures suggérées par le rapport et inscrites dans le règlement de censure antiterroriste imposeront de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et les gouvernements européens ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à but non lucratif, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie (lire notre dernière analyse).
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information.
Pour l’ensemble de ces raisons, La Quadrature du Net, avec 58 autres acteurs de cet écosystème et défenseurs des libertés fondamentales, avons déjà demandé à Emmanuel Macron de renoncer à son projet de règlement de censure antiterroriste.
Nous vous demandons donc de rejeter ce rapport pour mettre dès maintenant un frein à cette volonté absurde de déléguer la censure de l’Internet aux géants du Web et de permettre à toutes les polices de l’Union européenne de contourner les juges nationaux.
Les parlementaires qui refuseront de protéger les libertés fondamentales et l’écosystème numérique européen seront affichés publiquement.
";s:7:"dateiso";s:15:"20181210_152601";}s:15:"20181210_133207";a:7:{s:5:"title";s:22:"Not Safe For (sex)Work";s:4:"link";s:61:"https://www.laquadrature.net/2018/12/10/not-safe-for-sexwork/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12592";s:7:"pubDate";s:31:"Mon, 10 Dec 2018 12:32:07 +0000";s:11:"description";s:261:"Tribune de okhin
Les dirigeants de Tumblr ont publié le 3 Décembre 2018 un communiqué de presse annonçant une mise à jour de leurs conditions générales d’utilisation, signifiant qu’ils retirent tout contenu classifié comme adulte. Ils…";s:7:"content";s:14735:"
Tribune de okhin
Les dirigeants de Tumblr ont publié le 3 Décembre 2018 un communiqué de presse annonçant une mise à jour de leurs conditions générales d’utilisation, signifiant qu’ils retirent tout contenu classifié comme adulte. Ils justifient leur décision par la décision unilatérale et sans appel d’Apple de supprimer l’application de leur AppStore. Décision motivée par le fait que Tumblr n’ait pas réussi à détecter des images de pédopornographie, en dépit des filtres automatisés déjà existant.
J’ai voulu rédiger quelque chose de construit, essayant de donner le contexte dans lequel cette suppression de contenu s’opère, hors de tout cadre légal (autre que celui des conditions générales d’utilisation d’Apple). J’ai voulu essayer de donner des arguments, de faire les liens entre sexualité, pornographie et identité de genre, mais au final ce n’est pas ce qui est important. Et énormément de monde — y compris sur Tumblr — a déjà écrit à ce sujet, et bien mieux que je ne pourrais le faire ici. Je vous invite d’ailleurs à aller lire ce que les premières concernées en disent comme, par exemple, cette Lettre d’amour à Tumblr écrite par Vex ou ce coup de gueule par Romy Alizée.
Voilà Tumblr qui supprime le contenu qui a fait son intérêt, sa spécificité, détruisant le travail fait par de nombreuses personnes minorisées, que ce soit par racisme, homophobie, misogynie, transphobie et/ou un mélange de tout cela. Ce travail permet à ces communautés d’exister, de vivre, de s’éduquer et d’échanger dans un cadre dans lequel elles ne sont pas mises en danger (notamment grâce au pseudonymat et au multi compte). Il permet aussi à de nombreuses personnes de travailler, qu’il s’agisse d’acteurs ou d’actrices cherchant à faire ce qu’elles ont envie hors des gros studios de porno hétéronormés, d’escort ou d’autres formes de travail sexuel. Il permet enfin de parler de sexualité, de permettre aux personnes en questionnement de se poser ces questions, d’essayer de comprendre comment se positionner dans ce monde, d’explorer leur corps, leur sexualité ou de poser des questions pratiques. Ou juste de se faire des amies qui partagent un bout de leurs galères quotidiennes… face à tout ce que Tumblr s’apprête à détruire, je me suis naïvement dit que cela ferait réagir, que le débat irait plus loin que la seule question du porno.
Mais la plupart des sites d’informations, quand ils en parlent, ne parlent pas de sexualité. Ou de travail sexuel. Le porno y est indiqué comme étant scanné pour lutter contre la pédopornographie. Reprenant donc les arguments de Christine Albanel en 2005, lors des débats HADOPI, ou ceux des associations familiales catholiques voulant défendre et protéger les enfants du grand méchant pornographe, celui-ci étant de toutes façons lié au puissant lobby LGBT d’après elles.
Pas de remise en contexte. Pas de liens effectués avec des actions similaires menées par Alphabet, Patreon, Kickstarter ou la plupart des plateformes de financement participatif qui, sous couvert de lutter contre la pornographie, empêchent des actrices de financer des soins dont elles ont besoin et qui n’ont aucun rapport avec leur travail, les mettant ainsi délibérément en danger.
Et quand, avec La Quadrature, on essaye de dire que l’on ne peut pas traiter les plateformes géantes telles que Tumblr de la même manière que les initiatives libres et distribuées, parce qu’elles effectuent de fait une sélection éditoriale et suppriment de l’espace public toute forme d’expression ne correspondant pas à leurs cibles commerciales ou à leur vision puritaine du monde — les deux étant apparemment compatibles, nous ne sommes pas à un paradoxe près — on nous dit que l’on veut abandonner les utilisateur·rice·s de ces plateformes.
Pourtant ce sont ces plateformes qui, non seulement invisibilisent et suppriment de l’espace public ces utilisateur·rice·s que nous « abandonnons », utilisant des systèmes arbitraires et ayant de nombreux faux positifs, tout en empêchant tout recours effectif contre la suppression de contenus, ou en coupant une source de revenus pour certaines activistes queer, féministe ou afroféministes. Ce sont ces plateformes qui nous imposent leur ordre moral hétérosexuel, patriarcal, blanc.
À en lire la presse, c’est juste un problème de filtrage d’Internet.
Et j’en ai marre. Je suis énervé. Je suis énervé de devoir justifier que j’existe, que mes ami·e·s existent, que nous avons le droit d’exister dans l’espace public. Je suis fatigué de devoir encore et toujours expliquer l’effet de réseau rendant socialement impossible la migration vers d’autres plateformes et donc l’importance de pouvoir socialiser sur ces plateformes pour des personnes souvent isolé·e·s dans un milieu hostile. Je suis fatigué que l’obligation de s’identifier, avec une seule identité, correspondant à votre état civil, ne soit pas débattue et que l’on se contente de vouloir distribuer. Je suis fatigué de lire « t’as qu’à aller sur mastodon » ou que c’est juste un effet de bord pour lutter contre la pédophilie, assimilant éducation sexuelle et pédophilie.
Après tout si, pour protéger les enfants, il est acceptable de taper un peu large et de supprimer toute forme de contenu parlant de sexualité, il devrait être acceptable de supprimer tout le contenu d’incitation à la haine raciale, au génocide, à l’appel aux meurtres de femmes et de queers, quitte à ce que tout contenu politique disparaisse ? Au delà du fait qu’il reste à prouver que la suppression de contenu est effectivement une méthode efficace de lutte contre la pédocriminalité organisée, ou du fait qu’on ne parle que des enfants victimes de ces crimes, et non de n’importe quelle personne victimes de violence sexuelle, s’il est acceptable de supprimer automatiquement tout contenu adulte pour lutter contre la pédophilie, alors il est acceptable de supprimer tout contenu politique pour lutter contre la haine de l’autre, non ?
C’est d’ailleurs ce qui se produit sur de nombreuses plateformes. Les comptes de personnes minorisées et militantes sont régulièrement fermés alors qu’elles sont victimes de harcèlement, les auteurs de ces harcèlement profitant d’une impunité de fait fournie par ces plateformes. Ces plateformes qui s’excusent régulièrement, promis, la prochaine fois, elles feront tout pour que leur communauté puisse s’exprimer sereinement. Quitte à récupérer sans aucune gène les luttes de ces personnes afin de se donner une image cool, respectable. Alphabet qui empêche les queers de monétiser leur contenu mais qui, dans le même temps, lors des marches des fiertés, affiche son soutien à la communauté LGBT en est l’exemple parfait.
Suppressions justifiées, une fois encore, non pas par des décisions de justice, mais par un principe de précaution. Suppressions effectuées en amont, par des filtres à l’upload, donnant à ces plateformes un rôle éditorial. Suppressions effectuées par des machines, entraînées à distinguer les tétons d’apparence féminine des autres. Suppressions qui, inévitablement, amènent à la disparition du corps des femmes de l’espace public. Suppressions qui, à cause des biais sexistes et racistes, se fera en utilisant une référence définissant ce qu’est une femme, ce qui est une représentation acceptable d’une femme en ligne, effaçant encore et toujours les femmes non blanches, ou ne correspondant pas au canon établi par ces filtres pseudo-intelligents.
On entend beaucoup de gens dire qu’il est inacceptable de supprimer du contenu incitant à la haine, du contenu posté par des personnes se définissant elles-mêmes comme des nazis. Je suis d’accord, parce que supprimer ce contenu est une tâche complexe, nécessitant entre autre des mises en contexte rigoureuses de propos tenus. C’est un travail nécessitant aussi une part d’archivage, et encore une fois, il n’est pas prouvé que la suppression du contenu seul ait un effet quelconque sur la diffusion des idées.
Les néo nazis, les réacs, les pro-BREXIT ou la Manif Pour Tous ont le droit aussi d’exister en ligne. Oui. Absolument. Notamment parce que cela facilite le travail de la police et de la justice. Mais ce que font les GAFAMs et les principaux sites de médias en ligne, n’est pas assimilable au simple fait d’exister. Ce que font les GAFAMs, c’est choisir quels contenus sont mis en avant, permettant même à chaque personne de les sponsoriser pour les diffuser vers un plus grand nombre de personnes. Ce que font les GAFAMs, ce n’est pas vivre et laisser vivre. C’est s’assurer que certains contenus soient vus par le plus grand nombre. C’est s’assurer que certains contenus ne soient jamais vus par personne. Ces entreprises, qui récupèrent petit à petit le contrôle sur l’ensemble des infrastructures, des contenus, des standards de communication, qui n’ont aucune légitimité pour décider du contenu qui a le droit d’exister, n’ont pas un simple rôle passif d’hébergement, mais un rôle actif d’éditorialisation du contenu.
Ces décisions de supprimer tel ou tel contenu, de classifier, d’empêcher certaines personnes de financer leurs projets ou de gagner un peu mieux leur vie, ces décisions sont politiques. Elles définissent le discours acceptable, elles définissent la seule culture devant exister, leur positions hégémonique empêchant toute existence hors de leur sphère d’influence. Ces décisions politiques doivent être considérées comme telles, et ces entreprises doivent etre responsables de leurs décisions, de même qu’un journal, et non ses auteurs individuels, est responsable du contenu qu’il publie.
Donc je suis énervé. Pas tellement contre Tumblr ou Apple au final, ils ne sont que le reflet de notre société. J’entends des « Apple protège ma vie privée ». Mais uniquement si vous ne parlez pas de cul, de sexualité, que vous ne travaillez pas autour de le sexualité, que vous n’êtes pas queer. Parce qu’à ce moment-là, vous n’existez plus.
Je vais donc le dire, encore une fois : le problème ce n’est pas le filtrage automatisé. Le problème ce n’est pas qu’aucun juge ne prenne plus de décisions, permettant au moins de contextualiser le contenu. Le problème c’est de considérer l’invisibilisation des minorités sexuelles, des femmes, des noirs, des musulmans, etc … du simple point de vue du filtrage et de la responsabilité des plateformes sans remettre tout cela dans un contexte politique.
Du coup, que faire ? est-ce qu’on a des choses à proposer ? En l’état des choses, pas vraiment. La solution de la distribution est un premier pas, mais ne résout pas le problème sous-jacent de la gestion d’un espace public commun. Au lieu de déléguer le pouvoir à une entreprise multinationale, on le délègue à une communauté de personnes. Effectivement, n’importe qui peut monter un service ActivityPub, mais tout le monde ne le fait pas. Et est-ce que vous pouvez vraiment faire confiance à des « amis » sur le fait qu’ils résisteront à toute forme de pression policière ? La réponse est non, même si ils sont les mieux intentionnés. Au mieux, ils suspendront le service, vous forçant à trouver une autre plateforme et recommençant encore une fois le même cycle.
D’autant qu’avoir un nom de domaine identifié, public, connoté, associé à une activité peut poser plus de problèmes qu’aller sur facebook et peut, dans malheureusement trop d’endroits, avoir des conséquences très concrètes sur notre sécurité. Et la plupart des alternatives nécessitent en plus une identification forte. Prenons le cas de Signal par exemple. Si je ne veux pas que quelqu’un puisse me joindre au-delà d’une conversation, je suis obligé de changer de numéro de téléphone. Et donc de devoir prévenir tous mes contacts avec qui je veux maintenir un contact que j’ai changé de numéro de téléphone.
Il n’y a pas, à ce jour, de plateformes logicielles et grand public permettant à des enfants, adolescents, jeunes adultes et adultes de se questionner sur leur orientation sexuelle sans être immédiatement détectés soit par leur FAI, soit par l’hébergeur de l’application — et donc Amazon, étant donné qu’une part de plus en plus grande d’applications et de systèmes de communications est hébergée chez eux. Il n’existe aucune plateforme ne nécessitant pas de compte ou d’informations pouvant identifier l’utilisateur·ice, aucune plateforme permettant d’effectuer des transactions bancaires entre deux personnes sans intermédiaire technique ou sans révéler l’identité des deux parties, il n’existe pas non plus d’applications sur lesquelles on peut envoyer des photos de nus et garantir que l’image ne soit pas facilement republiable en ligne.
Il y a du travail dans cette direction, mais on en est au stade de la recherche, encore loin d’avoir quelque chose de fonctionnel. Des applications telles que Briar, ou Cwtch, vont dans la bonne direction à mon sens, mais j’aimerais que les personnes qui développent les futures infrastructures de communications qui remplaceront les GAFAMs quand on aura fini par les mettre à terre, se posent la question de pouvoir répondre aux problèmes auxquels nous, membres de minorités, faisont face quotidiennement pour avoir simplement eu l’outrecuidance d’exister.
";s:7:"dateiso";s:15:"20181210_133207";}s:15:"20181207_143832";a:7:{s:5:"title";s:72:"Une loi européenne pour censurer les mouvements sociaux sur Internet ?";s:4:"link";s:109:"https://www.laquadrature.net/2018/12/07/une-loi-europeenne-pour-censurer-les-mouvements-sociaux-sur-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12674";s:7:"pubDate";s:31:"Fri, 07 Dec 2018 13:38:32 +0000";s:11:"description";s:165:"Alors que la contestation nourrie par les gilets jaunes grandit, demandons-nous comment la future loi de censure antiterroriste s'appliquerait aux mouvement sociaux.";s:7:"content";s:24991:"
Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook1Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique., livrons-nous à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?
C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».
L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).
Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record de une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Comme nous l’avons déjà expliqué (lire notre analyse plus complète), le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.)2Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.. Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».
Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?
L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.
La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.
Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.
Maintenant que le cadre est posé, commençons la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :
un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
un communiqué justifiant le fait d’avoir détruit un véhicule de police ;
etc.
En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.
Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certain·es au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.
Censure privée, censure totale
Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).
Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.
Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce que nous ont clairement expliqué des gens du gouvernement (revoir notre compte-rendu) et de ce qui apparaît dès 2017 dans les publications de la Commission européenne3Dès juin 2017, la Commission européenne
se félicite publiquement d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse., l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.
Soyons clairs : notre analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. Notre question est de savoir si nous acceptons de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger nos actes et nos opinions, et de modeler le débat public en conséquence. Nous répondons résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.
C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.
Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter hier leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.
Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.
2.
↑
Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
3.
↑
Dès juin 2017, la Commission européenne
se félicite publiquement d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
";s:7:"dateiso";s:15:"20181207_143832";}s:15:"20181207_110000";a:7:{s:5:"title";s:113:"[Libération] Lionel Maurel : « On doit pouvoir quitter Facebook sans perdre les liens qu’on y a créés »";s:4:"link";s:135:"https://www.laquadrature.net/2018/12/07/liberation-lionel-maurel-on-doit-pouvoir-quitter-facebook-sans-perdre-les-liens-quon-y-a-crees/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12548";s:7:"pubDate";s:31:"Fri, 07 Dec 2018 10:00:00 +0000";s:11:"description";s:252:"Pour le juriste Lionel Maurel, l’approche individualiste de la protection des données personnelles ne permet pas d’appréhender la dimension sociale qu’exploitent les grandes plateformes du Net. Il appelle à la mise en place d’un droit…";s:7:"content";s:1943:"
Pour le juriste Lionel Maurel, l’approche individualiste de la protection des données personnelles ne permet pas d’appréhender la dimension sociale qu’exploitent les grandes plateformes du Net. Il appelle à la mise en place d’un droit à la migration collective.
En 1978, la loi informatique et libertés introduisait dans le droit français la notion de « donnée à caractère personnel ». Quarante ans plus tard, l’entrée en application, en mai dernier, du règlement général sur la protection des données (RGPD) a marqué un renforcement des droits des citoyens européens en la matière. Mais nos données dites « personnelles » le sont-elles vraiment, surtout à l’ère du numérique ubiquitaire, des réseaux sociaux, de la puissance d’une poignée de grandes plateformes centralisées qui structurent largement nos vies en ligne ? A tout le moins, il est grand temps de les envisager aussi comme des données « sociales » et de trouver les instruments pour les défendre en tant que telles, répond le juriste Lionel Maurel, membre de l’association de défense des libertés la Quadrature du Net et du comité de prospective de la Commission nationale de l’informatique et des libertés (Cnil). Il intervient ce vendredi à 20 heures [NDLRP, le vendredi 30/11/2018], à la Gaîté lyrique à Paris, lors d’une table ronde au festival Persona non data, dont Libération est partenaire. […]
";s:7:"dateiso";s:15:"20181207_110000";}s:15:"20181206_163655";a:7:{s:5:"title";s:55:"Soutenons notre Internet contre la censure sécuritaire";s:4:"link";s:95:"https://www.laquadrature.net/2018/12/06/soutenons-notre-internet-contre-la-censure-securitaire/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12648";s:7:"pubDate";s:31:"Thu, 06 Dec 2018 15:36:55 +0000";s:11:"description";s:233:"Il y a une semaine, nous faisions un point sur les dons récoltés depuis le lancement de notre campagne de soutien.
Pour rappel, pour continuer notre activité l'an prochain, nous avons besoin de 320.000€.
Aujourd'hui nous…";s:7:"content";s:1348:"
Il y a une semaine, nous faisions un point sur les dons récoltés depuis le lancement de notre campagne de soutien.
Pour rappel, pour continuer notre activité l’an prochain, nous avons besoin de 320.000€.
Aujourd’hui nous avons atteint 41% de cette somme, ce qui signifie que nous avons encore besoin de vous. Il est essentiel que toutes celles et ceux qui nous suivent parlent de La Quadrature autour d’eux.
Nous avions placé cette campagne de dons sous le signe des constellations, pour évoquer notre Internet, celui qui est libre, partagé et décentralisé. Nous voulions être positifs et faire rêver. Ironiquement, c’est maintenant qu’un règlement de censure sécuritaire s’abat sur l’Europe et menace notre Internet. Macron et les dirigeants des États de l’Union européenne veulent un Internet bien cadré, facile à surveiller et comptent confier cet encadrement à Google et Facebook, qui ne se priveront pas de confirmer ainsi leur position de monopole.
Se battre pour notre Internet, c’est se battre contre ce règlement liberticide. Pour que La Quadrature continue son combat, faites un don sur laquadrature.net/donner.
";s:7:"dateiso";s:15:"20181206_163655";}s:15:"20181206_124300";a:7:{s:5:"title";s:95:"Les gouvernements européens s’accordent pour confier la censure du Web à Google et Facebook";s:4:"link";s:130:"https://www.laquadrature.net/2018/12/06/les-gouvernement-europeens-saccordent-pour-confier-la-censure-du-web-a-google-et-facebook/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12625";s:7:"pubDate";s:31:"Thu, 06 Dec 2018 11:43:00 +0000";s:11:"description";s:292:"Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens. Les élections européennes approchant, Macron les a convaincu d'agiter l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée…";s:7:"content";s:15556:"
Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens (en moins de 3 mois !), et ce malgré les inquiétudes exprimées par divers États1Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark. Macron les a manifestement convaincu que, les élections européennes approchant, ils pourraient maintenir leur pouvoir en agitant l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée de l’Internet.
Le Conseil de l’Union européenne vient donc d’acter, à l’instant et sans le moindre débat sérieux, un projet de loi qui obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google2Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais)., tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle jugera « terroriste », sans l’autorisation d’un juge.
Deux mesures aussi délirantes qu’inédites, qui conduiront à soumettre tout l’écosystème numérique européen à une poignée de géants que l’Union prétend cyniquement vouloir combattre (lire notre analyse), tout en risquant de remettre en cause la confidentialité de nos correspondances3Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.… Et tout ça alors que ni la Commission européenne ni les gouvernements n’ont jamais réussi à démontrer en quoi cette loi serait utile pour lutter contre le terrorisme4En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais)..
Le débat sur ce texte se poursuivra maintenant devant le Parlement européen. Celui-ci votera mercredi prochain, le 12 décembre, un premier « rapport sur la lutte anti-terroriste » qui, sans avoir l’effet d’une loi, promeut peu ou prou les mêmes mesures absurdes que celles prévues dans le « règlement de censure anti-terroriste », que le Parlement examinera dans les semaines suivantes.
Ce premier vote de mercredi sera l’occasion pour chaque député européen de révéler sa position face au projet totalitaire d’Emmanuel Macron, et ils devront en rendre compte alors que s’amorce la campagne électorale pour les élections européennes de 2019.
Se sont notamment opposés à la version actuelle du texte la Finlande, la Slovaquie, la République Tchèque, la Pologne, le Danemark
2.
↑
Dès juin 2017, la Commission européenne se félicite publiquement « avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais).
3.
↑
Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée aujourd’hui par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
4.
↑
En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Le rapport conclut que « l’état actuel des preuves sur le lien entre Internet, les médias sociaux et la radicalisation violente est très limité et toujours pas conclusif » et qu’il n’y a « pas de preuves suffisantes pour conclure qu’il existe un lien de causalité entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour empêcher la radicalisation des jeunes sur les aspects Internet n’ont pas prouvé leur efficacité mais, d’autre part, peuvent clairement nuire aux libertés en ligne, particulièrement la liberté d’expression » (notre traduction de l’anglais).
";s:7:"dateiso";s:15:"20181206_124300";}s:15:"20181206_110000";a:7:{s:5:"title";s:107:"[Numerama] Géolocalisation : 7 associations se dressent contre Google et ses « pratiques déloyales »";s:4:"link";s:133:"https://www.laquadrature.net/2018/12/06/numerama-geolocalisation-7-associations-se-dressent-contre-google-et-ses-pratiques-deloyales/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12549";s:7:"pubDate";s:31:"Thu, 06 Dec 2018 10:00:00 +0000";s:11:"description";s:273:"Sept associations ont saisi les autorités de protection des données pour dénoncer les pratiques de Google en matière de géolocalisation. Elles se basent sur une enquête norvégienne pointant les stratagèmes de l’entreprise pour forcer l’activation…";s:7:"content";s:1586:"
Sept associations ont saisi les autorités de protection des données pour dénoncer les pratiques de Google en matière de géolocalisation. Elles se basent sur une enquête norvégienne pointant les stratagèmes de l’entreprise pour forcer l’activation de cette option.
Google s’attendait-il à ce que le Règlement général sur la protection des données personnelles entraîne une telle activité contre lui ? Depuis le 25 mai, de nombreux fronts ont été ouverts : on compte deux actions collectives (l’une de La Quadrature du Net, l’autre de NOYB), mais aussi une initiative de l’UFC-Que Choisir dénonçant les stratagèmes de manipulation de l’internaute.
À cette liste, non-exhaustive, il faut ajouter une action coordonnée de sept associations de consommateurs du Vieux Continent qui, chacune dans leur pays, alertent leur autorité de protection des données. Ces signalements ont lieu en Grèce, en Norvège, aux Pays-Bas, en Pologne, en République tchèque, en Slovénie et en Suède. Elles dénoncent les pratiques de Google en matière de localisation des utilisateurs. […]
";s:7:"dateiso";s:15:"20181206_110000";}s:15:"20181205_110000";a:7:{s:5:"title";s:54:"[FranceCulture] Faut-il avoir peur des GAFA chinois ?";s:4:"link";s:90:"https://www.laquadrature.net/2018/12/05/franceculture-faut-il-avoir-peur-des-gafa-chinois/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12550";s:7:"pubDate";s:31:"Wed, 05 Dec 2018 10:00:00 +0000";s:11:"description";s:296:"Méconnus en France, les géants du web chinois, Baidu, Alibaba, Tencent, Xiaomu (les « BATX ») inquiètent. Comment appréhender l’arrivée de tels mastodontes numériques en Europe ? Leurs pratiques sont-elles plus problématiques que celles de Google, Apple, Facebook…";s:7:"content";s:1619:"
Méconnus en France, les géants du web chinois, Baidu, Alibaba, Tencent, Xiaomu (les « BATX ») inquiètent. Comment appréhender l’arrivée de tels mastodontes numériques en Europe ? Leurs pratiques sont-elles plus problématiques que celles de Google, Apple, Facebook et Amazon (les « GAFA ») ? […]
Les Baidu, Tencent, Alibaba et autres Xiaomi restent encore peu connus en dehors de leur pays d’origine. Mais que se passera-t-il quand les géants chinois de l’internet s’éveilleront ? Leur proximité (c’est un euphémisme) avec le pouvoir politique a de quoi inquiéter, du point de vue des libertés publiques. Car derrière leur puissance économique, c’est un modèle politique qui est véhiculé par ces entreprises. […]
Intervenants :
Julien Nocetti : Chercheur à l’Institut français des relations internationales (IFRI) où il est membre du Centre Russie/NEI et responsable des recherches sur les sujets numériques internationaux
Stéphanie Balme : Professeure de la faculté permanent de Sciences Po
Benjamin Bayart : Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN)
";s:7:"dateiso";s:15:"20181205_110000";}s:15:"20181204_110000";a:7:{s:5:"title";s:83:"[Planet] Surveillance du fisc sur les réseaux sociaux : est-ce vraiment légal ?";s:4:"link";s:114:"https://www.laquadrature.net/2018/12/04/planet-surveillance-du-fisc-sur-les-reseaux-sociaux-est-ce-vraiment-legal/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12551";s:7:"pubDate";s:31:"Tue, 04 Dec 2018 10:00:00 +0000";s:11:"description";s:218:"Police fiscale, surveillance sur la toile… Le trésor public a annoncé la mise en place de nouveaux outils jugés plutôt intrusifs pour en finir avec la fraude et vérifier que vous déclarez bien ce qu’il…";s:7:"content";s:2089:"
Police fiscale, surveillance sur la toile… Le trésor public a annoncé la mise en place de nouveaux outils jugés plutôt intrusifs pour en finir avec la fraude et vérifier que vous déclarez bien ce qu’il faut […]
Contactée par la rédaction de Planet, la CNIL a fait parvenir plusieurs éléments de réponse relatifs à ce projet. Elle assure, dans un premier temps, ne pas avoir été saisie. Elle explique aussi que le « fait que les données soient accessibles publiquement ne leur ôte pas leur caractère de données personnelles et l’exigence de protection de la vie privée qui s’applique« . Dans un deuxième temps, la commission s’inquiète : « La lutte contre la fraude constitue en soi un objectif légitime, mais un projet de ce type soulève, par nature, d’importantes questions de proportionnalité compte tenu de son caractère intrusif dans la vie privée des personnes et du caractère potentiellement massif de la collecte.«
Car la surveillance généralisée, c’est bien ce qui inquiète plusieurs spécialistes du web et des libertés individuelles, à l’instar d’Alexis Fitzjean, avocat spécialisé du numérique et membre de l’association La Quadrature du Net. « En 2015, lorsque la loi sur le renseignement a été votée, on nous a agité le spectre du terrorisme et de la pédopornographie pour justifier la surveillance de masse. Aujourd’hui, avec cette future expérimentation, l’Etat semble glisser de l’excuse de la menace terroriste à celle du problème de la fraude fiscale. La question se pose en terme de légitimité« , confie-t-il. […]
";s:7:"dateiso";s:15:"20181204_110000";}s:15:"20181203_111412";a:7:{s:5:"title";s:89:"58 organisations demandent à Macron de renoncer à son projet de censure anti-terroriste";s:4:"link";s:128:"https://www.laquadrature.net/2018/12/03/44-organisations-demandent-a-macron-de-renoncer-a-son-projet-de-censure-anti-terroriste/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12524";s:7:"pubDate";s:31:"Mon, 03 Dec 2018 10:14:12 +0000";s:11:"description";s:269:"58 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se…";s:7:"content";s:8278:"
58 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).
Mise à jour (4 décembre) : notre lettre commune est toujours ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre censure » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Signataires :
Mise à jour du 6 décembre, passant les signataires de 44 à 58
";s:7:"dateiso";s:15:"20181203_111412";}s:15:"20181203_110000";a:7:{s:5:"title";s:86:"[LeMonde] Comment Linux est devenu un enjeu stratégique majeur pour la Silicon Valley";s:4:"link";s:124:"https://www.laquadrature.net/2018/12/03/lemonde-comment-linux-est-devenu-un-enjeu-strategique-majeur-pour-la-silicon-valley/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12552";s:7:"pubDate";s:31:"Mon, 03 Dec 2018 10:00:00 +0000";s:11:"description";s:264:"L’emblématique système d’exploitation libre est devenu un outil-clé de tous les grands groupes du Web, comme l’illustre le rachat de Red Hat. […]
Au-delà des considérations stratégiques, le rachat de Red Hat « montre la viabilité du…";s:7:"content";s:1683:"
L’emblématique système d’exploitation libre est devenu un outil-clé de tous les grands groupes du Web, comme l’illustre le rachat de Red Hat. […]
Au-delà des considérations stratégiques, le rachat de Red Hat « montre la viabilité du modèle économique » du logiciel libre, juge Lionel Maurel, juriste et membre du bureau de l’association La Quadrature du Net. « Tout le monde a répété cette phrase : “Le logiciel libre a déjà gagné, mais personne ne le sait.” Le modèle est déjà dominant dans les serveurs ; IBM va pouvoir utiliser ce rachat pour développer des solutions de cloud [informatique dématérialisée], un domaine très concurrentiel. » Car si Linux reste très minoritaire sur les ordinateurs individuels, loin derrière Windows de Microsoft et Mac OS d’Apple, le système d’exploitation libre est le leader dans les serveurs qui font tourner les grands services du Web. D’Amazon à Facebook en passant par Google, dont une version modifiée du noyau Linux est au cœur d’Android, tous les géants du Web ont recours à Linux pour leurs gigantesques infrastructures. […]
";s:7:"dateiso";s:15:"20181203_110000";}s:15:"20181129_110000";a:7:{s:5:"title";s:95:"[LeMagIT] Projet de règlement anti-terroriste : une énième attaque contre le chiffrement ?";s:4:"link";s:125:"https://www.laquadrature.net/2018/11/29/lemagit-projet-de-reglement-anti-terroriste-une-enieme-attaque-contre-le-chiffrement/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12515";s:7:"pubDate";s:31:"Thu, 29 Nov 2018 10:00:00 +0000";s:11:"description";s:219:"La Quadrature du Net s’alarme de la manière dont est formulé le texte, définissant des obligations pour les contenus mis à disposition de tiers et pas uniquement du public. De quoi, selon elle, attaquer les…";s:7:"content";s:1879:"
La Quadrature du Net s’alarme de la manière dont est formulé le texte, définissant des obligations pour les contenus mis à disposition de tiers et pas uniquement du public. De quoi, selon elle, attaquer les communications privées. […]
« De tiers ». Pour la Quadrature du Net, toute la subtilité tient à l’utilisation de ce terme, qui décrit quelque chose de distinct « du public ». Car « tiers » ne décrit pas forcément un destinataire public ; il peut être privé. Alors pour l’association, le texte recouvre les contenus « qui sont transmis à tout tiers, cela signifie qu’il peut s’appliquer à des services de courriers électroniques, comme les mails et les messageries instantanées […] Ces derniers, au moins jusqu’à la consultation du message, stockent en effet un contenu fourni par un utilisateur afin de le mettre à disposition d’un ou plusieurs tiers ».
Pour la Quadrature du Net, les services de communications personnelles « seront alors, comme les autres acteurs de l’Internet (forums, réseaux sociaux, blogs…), soumis aux obligations de retrait et de censure automatisée prévues par le règlement ». Une approche difficilement conciliable avec le chiffrement de bout en bout de ces échanges, tel que beaucoup le pratiquent aujourd’hui. […]
";s:7:"dateiso";s:15:"20181129_110000";}s:15:"20181128_152927";a:7:{s:5:"title";s:42:"Campagne de dons, premier point d’étape";s:4:"link";s:53:"https://www.laquadrature.net/2018/11/28/lqdon_etape1/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12501";s:7:"pubDate";s:31:"Wed, 28 Nov 2018 14:29:27 +0000";s:11:"description";s:204:"À la mi-novembre, nous avons lancé notre campagne de dons annuelle, avec un objectif de 320 000 € de collecte, comme l’an dernier. À ce jour nous en avons réuni environ 35% (en comptant les…";s:7:"content";s:4360:"
À la mi-novembre, nous avons lancé notre campagne de dons annuelle, avec un objectif de 320 000 € de collecte, comme l’an dernier. À ce jour nous en avons réuni environ 35% (en comptant les dons récurrents pré-existants à cette campagne et qui se poursuivent actuellement). Nous avons donc besoin de votre aide pour pouvoir continuer nos actions l’an prochain.
D’autant que l’actualité est chargée pour La Quadrature : entre les suites de notre action de groupe contre les GAFAM, le passage de notre procédure à propos de la surveillance française devant la Cour de Justice de l’Union Européenne et la lutte contre le futur règlement européen sur la prévention des contenus à caractère anti-terroriste en ligne, notre équipe (salariée comme bénévole) ne chôme pas pour protéger nos droits fondamentaux !
Et pendant ce temps, notre campagne autour de l’Internet de nos rêves poursuit son chemin. Nous avons déjà publié les deux premières vidéos :
Nous avons aussi organisé plusieurs évènements en lien avec divers sujets d’actualité pour nous. Le premier de ces évènements a été un riche débat sur le statut juridique des hébergeurs :
Et retrouvez le programme complet de notre campagne ici.
Pour mieux défendre cet Internet qu’on aime face aux lois liberticides qui se multiplient, La Quadrature du Net a plus que jamais besoin de vous !
N’hésitez pas à mettre en place un don récurrent, ce sont ceux qui nous offrent une meilleure visibilité sur le long terme, et vous pouvez les arrêter très facilement sur demande.
";s:7:"dateiso";s:15:"20181128_152927";}s:15:"20181127_140848";a:7:{s:5:"title";s:101:"Procédure contre le renseignement français devant les juges de l’UE : aidez-nous à finaliser !";s:4:"link";s:130:"https://www.laquadrature.net/2018/11/27/procedure-contre-le-renseignement-francais-devant-les-juges-de-lue-aidez-nous-a-finaliser/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12483";s:7:"pubDate";s:31:"Tue, 27 Nov 2018 13:08:48 +0000";s:11:"description";s:230:"Grace aux procédures engagées par La Quadrature du Net, FFDN, Igwan et FDN, la Cour de justice de l’Union européenne doit évaluer la validité du régime de surveillance français. Il nous reste encore une semaine…";s:7:"content";s:4161:"
Grace aux procédures engagées par La Quadrature du Net, FFDN, Igwan et FDN, la Cour de justice de l’Union européenne doit évaluer la validité du régime de surveillance français. Il nous reste encore une semaine pour lui envoyer nos arguments : aidez-nous à finaliser notre dossier !
Le 26 juillet dernier, après trois ans de procédure (en lire notre résumé), le Conseil d’État avait enfin accepté de poser à la Cour de justice de l’Union européenne cinq questions susceptibles de remettre en cause la compatibilité du droit français au droit de l’Union. Ces questions concernent deux pans majeurs de la surveillance française :
les activités de renseignement réalisées par l’État (voir la décision du Conseil d’État, qui pose trois questions à ce sujet) ;
l’obligation pour les acteurs de l’Internet de conserver pendant un an les données de connexion concernant l’ensemble de la population (voir la seconde décision du Conseil d’État, qui pose deux questions).
Le 26 septembre dernier, la Cour de justice nous a indiqué qu’elle répondrait à l’ensemble de ces questions au sein d’une même procédure, nous laissant jusqu’au 6 décembre pour présenter nos arguments sur la façon dont elle devrait y répondre. Nous avons rédigé ces arguments au cours des deux derniers mois et nous vous invitons aujourd’hui à y participer à votre tour, avant de les envoyer la semaine prochaine. Nous avons divisé notre dossier en deux parties :
Chaque paragraphe de ces documents est numéroté : si une phrase vous semble peu claire ou pas assez incisive, ou qu’un mot est mal orthographié, indiquez le numéro du paragraphe que vous souhaitez modifier sur ce document collaboratif en ligne, prévu à cet effet. Vous pouvez aussi nous faire vos retours par email à contact@laquadrature.net (même si c’est plus sympa de travailler à plusieurs !).
Vous nous aviez déjà grandement aidé à finaliser notre dossier contre la loi renseignement devant le Conseil constitutionnel il y a trois ans, notre procédure contre le fichier TES il y a deux ans, ainsi que nos plaintes contre les GAFAM en mai dernier. Donc merci encore pour l’aide que vous apporterez aujourd’hui ! Nous reviendrons la semaine prochaine plus en détail sur les arguments que nous aurons envoyés.
";s:7:"dateiso";s:15:"20181127_140848";}s:15:"20181127_120000";a:7:{s:5:"title";s:78:"[Zdnet.Fr] 10 ans au compteur mais la Quadrature a toujours besoin de vos dons";s:4:"link";s:117:"https://www.laquadrature.net/2018/11/27/zdnet-fr-10-ans-au-compteur-mais-la-quadrature-a-toujours-besoin-de-vos-dons/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12476";s:7:"pubDate";s:31:"Tue, 27 Nov 2018 11:00:00 +0000";s:11:"description";s:245:"La Quadrature a donné jeudi 15 novembre le coup d’envoi à sa campagne annuelle de collecte de dons. L’association entend revenir à une organisation plus horizontale et entame « un nouveau chapitre » pour marquer les dix…";s:7:"content";s:1957:"
La Quadrature a donné jeudi 15 novembre le coup d’envoi à sa campagne annuelle de collecte de dons. L’association entend revenir à une organisation plus horizontale et entame « un nouveau chapitre » pour marquer les dix ans de son existence.
La Quadrature du net a 10 ans et entend bien poursuivre sur sa lancée. L’association donnait jeudi dernier le coup d’envoi de sa collecte de dons annuels à la maison du libre et des communs, située à Strasbourg Saint-Denis, et en profitait pour faire le point sur l’évolution de l’association de défense des libertés numériques qui avait émergé à l’époque des combats autour de la loi Hadopi. Depuis ces premiers pas remarqués, la Quadrature s’est illustrée à travers de nombreux combats sur des sujets variés touchant aux libertés à l’heure du numérique et à la protection des données personnelles. […]
« L’assemblée générale a été l’occasion de revoir notre organisation et d’adopter une structure plus horizontale et moins hiérarchique » explique Arthur Messaud, membre de la Quadrature, qui se défend d’être porte-parole de l’association, mais qui a tout de même accepté de répondre à nos questions. Si jusqu’alors, l’organisation avait choisi de réserver certains postes spécifiques à ses membres, les sujets abordés par la Quadrature sont aujourd’hui plus vastes et l’association espère que cette nouvelle organisation lui permettra d’être plus en phase avec ces sujets. […]
";s:7:"dateiso";s:15:"20181127_120000";}s:15:"20181126_124056";a:7:{s:5:"title";s:77:"Le règlement antiterroriste détruira-t-il Signal, Telegram et ProtonMail ?";s:4:"link";s:112:"https://www.laquadrature.net/2018/11/26/le-reglement-antiterroriste-detruira-t-il-signal-telegram-et-protonmail/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12457";s:7:"pubDate";s:31:"Mon, 26 Nov 2018 11:40:56 +0000";s:11:"description";s:258:"L'analyse du futur règlement européen laisse craindre qu'il imposera une surveillance et une censure automatisée aux services de messagerie. Les services qui proposent du chiffrement bout-en-bout seraient forcés d'y renoncer, ou alors de fermer boutique.";s:7:"content";s:10314:"
Il y a deux semaines, nous faisions le point sur le projet de règlement européen de censure antiterroriste. Pour rappel, ce texte imposera à l’ensemble des acteurs de l’Internet des obligations de censure irréalistes : retrait en une heure des contenus signalés par la police, surveillance de tous les contenus conduisant à une censure automatisée…
Aujourd’hui, nous revenons sur un autre danger de ce texte : en visant non seulement les contenus diffusés au public, mais également ceux échangés dans un cadre privé (comme les mails et les messageries instantanées), ce texte risque de mettre fin à la possibilité de protéger nos échanges par le chiffrement de bout en bout.
Une lecture attentive des dispositions du règlement révèle en effet que ce dernier ne se limite pas aux contenus diffusés au public.
L’article 2 précise que les acteurs soumis aux obligations de censure sont les « fournisseur de services de la société de l’information qui consistent à stocker des informations fournies par le fournisseur de contenus à la demande de celui-ci et à mettre ces informations à la disposition de tiers ». Le considérant 10 du même texte donne comme exemple, outre les réseaux sociaux, « les services de partage de fichiers vidéo, audio et images, les services de partage de fichiers et autres services en nuage, dans la mesure où ils mettent ces informations à la disposition de tiers […] ».
Cette notion de « mise à disposition de tiers » est bien différente de la notion plus habituelle de « mise à disposition du public » qui apparait, par exemple, dans la LCEN de 2004 où les hébergeurs sont définis comme ceux « qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature » (article 6, 2). Les contenus hébergés sur les « services en nuage » (qu’on comprend renvoyer à des services comme Nextcloud ou Dropbox) ne sont généralement pas « mis à disposition du public » mais uniquement accessibles par un nombre restreint d’utilisateurs. Le nouveau règlement européen les vise pourtant.
Or, si le texte du règlement ne se limite pas aux contenus diffusés au public, mais englobe ceux qui sont transmis à tout tiers, cela signifie qu’il peut s’appliquer à des services de courriers électroniques, comme les mails et les messageries instantanées (Whatsapp, Signal, Telegram…). Ces derniers, au moins jusqu’à la consultation du message, stockent en effet un contenu fourni par un utilisateur afin de le mettre à disposition d’un ou plusieurs tiers1Voir par exemple les conditions d’utilisation de Signal, qui indiquent bien conserver les messages le temps de leur réception..
Ils seront alors, comme les autres acteurs de l’Internet (forums, réseaux sociaux, blogs…), soumis aux obligations de retrait et de censure automatisée prévues par le règlement.
Des obligations incompatibles avec le chiffrement de bout en bout
Pourtant, certains de ces services protègent nos échanges privés grâce à des technologies de chiffrement de bout en bout, c’est-à-dire des systèmes de communications « où seules les personnes qui communiquent peuvent lire les messages échangés », l’objectif étant de « résister à toute tentative de surveillance ou de falsification ».
Comme nous l’expliquions dans nos positions communes avec l’Observatoire de Libertés et du Numérique (OLN), cette capacité de chiffrement « est une condition indispensable à la préservation des droits et libertés fondamentales, et l’un des derniers remparts, individuels et collectifs, aux intrusions arbitraires et illégales de nombreux acteurs, étatiques, privés, ou criminels ».
Comment alors les services de messageries et de mails qui prévoient ce type de protection (Signal, ProtonMail…) pourront respecter les obligations de surveillance et de censure prévues dans le texte si l’ensemble des messages stockés sont chiffrés et leur sont donc indisponibles ?
Le silence du règlement laisse entrevoir le pire : le chiffrement de bout en bout, c’est-à-dire la protection de nos échanges privés, serait contraire aux obligations prévues par ce texte et ne pourrait donc que disparaitre.
En effet, il est difficile d’imaginer comment ces services, comme tous les autres acteurs de l’Internet, pourront survivre à ces nouvelles obligations : il est peu probable qu’ils acceptent d’abandonner ce chiffrement de bout en bout et de sous-traiter la surveillance de leurs services à un géant du Web – ce qui est la solution que le gouvernement français semble espérer déjà au moins en matière d’hébergement de contenus publics.
Quant à Facebook lui-même, il est étonnant qu’il ait laissé passer ce texte sans voir ni comprendre le danger qu’il pourrait comporter pour son service de messagerie Whatsapp, lui aussi protégé par le chiffrement. La pire des situations serait que Facebook soit en train de renoncer à cette technologie pour s’allier, avec les gouvernements, à la surveillance de l’ensemble de nos échanges, qu’ils soient privés et publics. Il y a quelques semaines, Mark Zuckerberg expliquait d’ailleurs que le chiffrement compliquait l’automatisation de la censure.
Par ce texte, le gouvernement pourrait trouver une manière détournée de gagner un combat qu’il mène depuis longtemps et qui le frustre particulièrement : celui de la lutte contre le chiffrement de nos conversations.
Le règlement, en cours d’examen devant le Parlement européen, remettrait ainsi en cause un droit pourtant essentiel pour garantir nos libertés fondamentales face aux possibilités d’arbitraire de l’État et de la surveillance généralisée d’acteurs privés.
De nouveau, nous en demandons le rejet.
Rappelons que les délais pour agir sont extrêmement brefs : les gouvernements européens (en tête, la France) veulent faire adopter le texte le plus rapidement possible, au détriment de tout débat démocratique. Le Conseil de l’Union européenne se réunit ainsi à Bruxelles dès les 6 et 7 décembre en vue de parvenir à une position commune.
Voir par exemple les conditions d’utilisation de Signal, qui indiquent bien conserver les messages le temps de leur réception.
";s:7:"dateiso";s:15:"20181126_124056";}s:15:"20181121_190044";a:7:{s:5:"title";s:73:"[EN DIRECT] ! Débat sur le statut des hébergeurs, La Paillasse, Paris.";s:4:"link";s:45:"https://www.laquadrature.net/2018/11/21/live/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12106";s:7:"pubDate";s:31:"Wed, 21 Nov 2018 18:00:44 +0000";s:11:"description";s:196:"Suivez en direct Le débat sur le statut des hébergeurs, à la Paillasse, Paris
if(Hls.isSupported()) {
var video = document.getElementById('video');
var hls = new Hls();
…";s:7:"content";s:1212:"
Suivez en direct Le débat sur le statut des hébergeurs, à la Paillasse, Paris
Si vous n’avez pas de navigateur compatible HTML5, vous pouvez aussi voir directement le flux live en faisant pointer votre player habituel (tel VLC ou MPlayer) à l’adresse suivante :
";s:7:"dateiso";s:15:"20181121_190044";}s:15:"20181116_185953";a:7:{s:5:"title";s:85:"[RFI] Les GAFAM, géants du Net, sont-ils en règle sur la protection des données ?";s:4:"link";s:116:"https://www.laquadrature.net/2018/11/16/rfi-les-gafam-geants-du-net-sont-ils-en-regle-sur-la-protection-des-donnees/";s:4:"guid";s:116:"https://www.laquadrature.net/2018/11/16/rfi-les-gafam-geants-du-net-sont-ils-en-regle-sur-la-protection-des-donnees/";s:7:"pubDate";s:31:"Fri, 16 Nov 2018 17:59:53 +0000";s:11:"description";s:271:"
Après avoir été reçu à l’Elysée par Emmanuel Macron, le PDG d’Apple s’exprime ce mercredi au Parlement européen lors d’une conférence sur la confidentialité. L’occasion pour Tim Cook d’évoquer le nouveau RGPD, le règlement général…";s:7:"content";s:2215:"
Après avoir été reçu à l’Elysée par Emmanuel Macron, le PDG d’Apple s’exprime ce mercredi au Parlement européen lors d’une conférence sur la confidentialité. L’occasion pour Tim Cook d’évoquer le nouveau RGPD, le règlement général sur la protection des données. Présenté comme une révolution en matière de droits numériques, il contraint les entreprises à obtenir le consentement des internautes européens pour utiliser leurs données personnelles mais les géants du Net sont accusés de ne pas le respecter.
Entré en vigueur le 25 mai dernier, le RGPD n’a pas tardé à produire ses premiers effets. La CNIL, la Commission nationale de l’informatique et des libertés, a publié un premier bilan sur les quatre premiers mois d’application du texte. Sur cette période, le gendarme français des données personnelles a reçu 3767 plaintes soit une hausse de 64%, signe d’une prise de conscience du grand public sur cette question. Par ailleurs, la CNIL a été saisie de plusieurs plaintes collectives. Ce type de procédure est l’une des grandes nouveautés introduites par le RGPD.
En France, l’association de défense des libertés sur la toile, la Quadrature du Net, a ainsi déposé cinq plaintes collectives regroupant 12 000 personnes contre Google, Amazon, Apple, Facebook et Microsoft. Principal reproche fait à ces entreprises américaines : la tactique du « à prendre ou à laisser ». Soit l’utilisateur accepte les conditions d’utilisation et donc cède ses données personnelles, soit il n’a plus accès au service, ce qui est interdit par le RGPD. […]
";s:7:"dateiso";s:15:"20181116_185953";}s:15:"20181115_170410";a:7:{s:5:"title";s:27:"Soutenons notre Internet !";s:4:"link";s:65:"https://www.laquadrature.net/2018/11/15/soutenons-notre-internet/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=12174";s:7:"pubDate";s:31:"Thu, 15 Nov 2018 16:04:10 +0000";s:11:"description";s:232:"Depuis 10 ans, vos dons nous permettent de défendre notre vision d’un Internet idéal — un idéal que nous espérons avoir en commun avec vous. Nous lançons aujourd’hui notre campagne de dons annuelle, avec un…";s:7:"content";s:3857:"
Depuis 10 ans, vos dons nous permettent de défendre notre vision d’un Internet idéal — un idéal que nous espérons avoir en commun avec vous. Nous lançons aujourd’hui notre campagne de dons annuelle, avec un objectif de 320 000 € de collecte, comme l’an dernier.
Nous voulons surtout profiter de ce moment pour aborder un sujet qui nous tient à cœur, mais dont nous parlons peu tant nous croulons chaque jour sous de nouvelles menaces contre nos libertés. C’est pourtant ce sujet qui nous anime au quotidien, qui nous fait veiller tard le soir et inspire chacune des phrases que nous écrivons aux juges ou aux parlementaires, ou à vous, pour partager nos inquiétudes et proposer des façons de se défendre.
Cette année, nous prendrons donc l’occasion de notre campagne de dons pour vous parler de l’internet de nos rêves, de « notre Internet ». Certes il y a les GAFAM, Macron, la Technopolice galopante, mais l’espace d’un instant au moins, ayons la sagesse de rêver — de nous rappeler que nous ne luttons pas seulement contre un futur terrible mais, surtout, pour un monde idéal.
Notre Internet idéal est dans les mains de toutes les personnes qui l’utilisent. Il n’a pas de centre ni de maître mais se construit et s’invente collectivement. Pour nous, la meilleure façon d’en parler a donc été de donner la parole à celles et à ceux qui le construisent au quotidien : qui posent des câbles et maintiennent une infrastructure collective face aux FAI géants ; qui développent des logiciels permettant une répartition plus juste des pouvoirs de modérations sur Internet ; qui font tout pour permettre à chaque personne de construire son petit bout d’Internet autogéré ; qui se battent devant les juges pour que les lois ne nous empêchent pas de façonner Internet à notre façon, en nous imposant censure et surveillance.
Au cours de l’année dernière, nous avons eu l’honneur d’accueillir nombre de ces personnes en tant que membres de notre association. Nous espérons que cette campagne de dons reflétera la nouvelle diversité de tons, d’expériences et d’idéaux offerte par cette ouverture, si propre à l’Internet de nos rêves.
Nous avons aussi donné la parole au-delà, à nos alliés de longue date, pour réunir au final une quinzaine de personnes sur quatre vidéos. Une pour chaque facette de notre idéal : un Web où nos règles sont décidées collectivement, sans censure imposée par l’État ou des entreprises ; une infrastructure physique gérée par la population ; un monde libre de toute surveillance généralisée ; le développement de services ne reposant pas sur l’exploitation commerciale de notre identité.
Nous diffuserons ces vidéos au cours des semaines à venir, après la publication dès ce soir, lors de notre soirée de lancement de campagne, d’une première vidéo plus poétique, reprenant en dessins l’histoire de l’Internet telle que nous la voyons aujourd’hui. La diffusion de ces vidéos s’accompagnera d’un ou deux événements publics par semaine (voir le programme).
Exprimer nos rêves apparaît aussi comme une forme de bilan : l’occasion appropriée pour saluer notre bon vieux site Internet, qui nous aura longtemps accompagné·es malgré son âge vieillissant, et d’en accueillir un tout nouveau, tel que vous le voyez !
Merci à toutes les personnes qui partagent ces rêves, que nous espérons encore défendre une année de plus, grâce à vous.
";s:7:"dateiso";s:15:"20181115_170410";}s:15:"20181114_161459";a:7:{s:5:"title";s:108:"Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer une surveillance généralisée";s:4:"link";s:142:"https://www.laquadrature.net/2018/11/14/censure-antiterroriste-macron-se-soumet-aux-geants-du-web-pour-instaurer-une-surveillance-generalisee/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=11968";s:7:"pubDate";s:31:"Wed, 14 Nov 2018 15:14:59 +0000";s:11:"description";s:263:"Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l’ensemble du Web décentralisé. Depuis, nous avons…";s:7:"content";s:11052:"
Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l’ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées.
La France, avec le soutien de l’Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n’en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel.
Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l’ensemble du Web à ces derniers, à qui l’État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l’État et Facebook n’en est que le prémice, aussi sournois que révélateur.
Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes :
retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité) ;
la mise en place d’un « point de contact » disponible 24h/24 et 7j/7 ;
l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement ; si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.
Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
Ces dernières semaines, nous avons fait le tour des ministères chargés de la rédaction et de la négociation de ce texte au niveau européen. Il en résulte que le gouvernement français, chef de file sur ce dossier, veut convaincre les autres États membres et les institutions de l’Union européenne d’adopter le texte tel qu’il est écrit aujourd’hui, et dans un calendrier très serré (adoption avant les élections européennes de mai 2019) afin d’empêcher tout débat démocratique sur le sujet.
Tout montre que le Parlement européen est prêt à collaborer avec les États membres pour faire adopter ce règlement sans débat. Helga Stevens (Belgique, ECR – conservateurs), rapporteure principale sur ce texte, a déjà publié en juin, et de sa propre initiative, un rapport qui présente les mêmes idées reprises dans ce règlement.
Les « rapporteurs fictifs » (les députés désignés par leur parti politique pour négocier le texte) sont en majorité tout aussi alignés sur ces positions, à l’image de Rachida Dati (France, PPE – droite européenne) et de Maite Pagazaurtundua (Espagne, ALDE – libéraux) qui défendent depuis longtemps l’idée d’une telle censure. Eva Joly (France, Verts) avait pour sa part accepté sans souci la censure privée dans la directive terroriste, finalement adoptée début 2017. Il semblerait que, cette fois, le texte aille trop loin pour elle et nous espérons qu’elle saura se battre contre.
Toutefois, dans la perspective des élections européennes, aucun parti politique du Parlement européen ne semble prêt à combattre la stratégie sécuritaire du gouvernement français, en lien avec l’Allemagne et d’autres États membres. Alors que ce texte semble directement inspiré par les politiques autoritaires mises en place par le gouvernement chinois pour contrôler Internet, Emmanuel Macron et Angela Merkel démontrent que leur « axe humaniste » mis en exergue dans le cadre de la campagne des européennes n’est que pure posture politicienne. Ce projet de règlement est une véritable insulte au projet démocratique européen.
Remplacer l’État par les géants du Web
Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but.
Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.
Que ce soit clair : les arguments de Google et de Facebook visent simplement à détruire leurs concurrents. De fait, ce texte vise à faire disparaître les petites et moyennes plateformes, et à sous-traiter aux géants une censure massive et automatisée.
Emmanuel Macron s’est laissé enfumer de bon cœur par les géants, ravi à l’idée que l’Internet « dé-civilisé » qu’il s’entête à fantasmer soit enfin administré par une poignée d’entreprises, dont la puissance s’est bâtie sur l’exploitation illégale de nos données personnelles.
C’est ce qu’il a clairement réaffirmé lors de son discours au Forum de la Gouvernance sur Internet.
Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.
Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.
Exigeons le rejet de ce texte ! Il en va des conditions d’existence de l’Internet libre et décentralisé.
";s:7:"dateiso";s:15:"20181114_161459";}s:15:"20181114_113041";a:7:{s:5:"title";s:107:"Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer une surveillance généralisée";s:4:"link";s:58:"https://www.laquadrature.net/fr/reglement_terro_gafamacron";s:4:"guid";s:37:"10661 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 14 Nov 2018 10:30:41 +0000";s:11:"description";s:10562:"
14 novembre 2018 - Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées.
La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel.
Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur.
Pour rappel, le texte, poussé par la France et l'Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l'ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes :
retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l'OCLCTIC, le service de la police chargé de la cybercriminalité) ;
la mise en place d'un « point de contact » disponible 24h/24 et 7j/7 ;
l'instauration de « mesures proactives » pour censurer les contenus avant même leur signalement ; si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
D'un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu'elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n'auront d'autres choix que de cesser leur activité d'hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l'exécution de leurs obligations.
Ce texte consacre l'abandon de pouvoirs régaliens (surveillance et censure) à une poignée d'acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d'analyse d'impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
Ces dernières semaines, nous avons fait le tour des ministères chargés de la rédaction et de la négociation de ce texte au niveau européen. Il en résulte que le gouvernement français, chef de file sur ce dossier, veut convaincre les autres États membres et les institutions de l'Union européenne d'adopter le texte tel qu'il est écrit aujourd'hui, et dans un calendrier très serré (adoption avant les élections européennes de mai 2019) afin d'empêcher tout débat démocratique sur le sujet.
Tout montre que le Parlement européen est prêt à collaborer avec les États membres pour faire adopter ce règlement sans débat. Helga Stevens (Belgique, ECR - conservateurs), rapporteure principale sur ce texte, a déjà publié en juin, et de sa propre initiative, un rapport qui présente les mêmes idées reprises dans ce règlement.
Les « rapporteurs fictifs » (les députés désignés par leur parti politique pour négocier le texte) sont en majorité tout aussi alignés sur ces positions, à l'image de Rachida Dati (France, PPE - droite européenne) et de Maite Pagazaurtundua (Espagne, ALDE - libéraux) qui défendent depuis longtemps l'idée d'une telle censure. Eva Joly (France, Verts) avait pour sa part accepté sans souci la censure privée dans la directive terroriste, finalement adoptée début 2017. Il semblerait que, cette fois, le texte aille trop loin pour elle et nous espérons qu'elle saura se battre contre.
Toutefois, dans la perspective des élections européennes, aucun parti politique du Parlement européen ne semble prêt à combattre la stratégie sécuritaire du gouvernement français, en lien avec l'Allemagne et d'autres États membres. Alors que ce texte semble directement inspiré par les politiques autoritaires mises en place par le gouvernement chinois pour contrôler Internet, Emmanuel Macron et Angela Merkel démontrent que leur « axe humaniste » mis en exergue dans le cadre de la campagne des européennes n'est que pure posture politicienne. Ce projet de règlement est une véritable insulte au projet démocratique européen.
Remplacer l'État par les géants du Web
Quand nous avons dit aux ministères que leur texte détruirait l'ensemble du Web décentralisé, ne laissant qu'une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c'était bien le but.
Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d'autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu'il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s'est même permis de sortir l'argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C'est comme ça : Google l'a dit, ne discutez pas.
Que ce soit clair : les arguments de Google et de Facebook visent simplement à détruire leurs concurrents. De fait, ce texte vise à faire disparaître les petites et moyennes plateformes, et à sous-traiter aux géants une censure massive et automatisée.
Emmanuel Macron s'est laissé enfumer de bon cœur par les géants, ravi à l'idée que l'Internet « dé-civilisé » qu'il s'entête à fantasmer soit enfin administré par une poignée d'entreprises, dont la puissance s'est bâtie sur l'exploitation illégale de nos données personnelles.
C'est ce qu'il a clairement réaffirmé lors de son discours au Forum de la Gouvernance sur Internet.
Macron se moque de détruire tout espoir d'une économie numérique européenne. Il veut simplement un texte sécuritaire qu'il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu'il s'imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n'a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l'extrême droite, l'aura élu.
Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l'État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l'économie de l'attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L'urgence législative est de combattre ces dérives : de limiter l'économie de l'attention tout en favorisant le développement de modèles respectueux de nos libertés. C'est ce que nous proposons.
Exigeons le rejet de ce texte ! Il en va des conditions d'existence de l'Internet libre et décentralisé.
";s:7:"content";s:10565:"
14 novembre 2018 - Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées.
La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel.
Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur.
Pour rappel, le texte, poussé par la France et l'Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l'ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes :
retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l'OCLCTIC, le service de la police chargé de la cybercriminalité) ;
la mise en place d'un « point de contact » disponible 24h/24 et 7j/7 ;
l'instauration de « mesures proactives » pour censurer les contenus avant même leur signalement ; si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
D'un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu'elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n'auront d'autres choix que de cesser leur activité d'hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l'exécution de leurs obligations.
Ce texte consacre l'abandon de pouvoirs régaliens (surveillance et censure) à une poignée d'acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d'analyse d'impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
Ces dernières semaines, nous avons fait le tour des ministères chargés de la rédaction et de la négociation de ce texte au niveau européen. Il en résulte que le gouvernement français, chef de file sur ce dossier, veut convaincre les autres États membres et les institutions de l'Union européenne d'adopter le texte tel qu'il est écrit aujourd'hui, et dans un calendrier très serré (adoption avant les élections européennes de mai 2019) afin d'empêcher tout débat démocratique sur le sujet.
Tout montre que le Parlement européen est prêt à collaborer avec les États membres pour faire adopter ce règlement sans débat. Helga Stevens (Belgique, ECR - conservateurs), rapporteure principale sur ce texte, a déjà publié en juin, et de sa propre initiative, un rapport qui présente les mêmes idées reprises dans ce règlement.
Les « rapporteurs fictifs » (les députés désignés par leur parti politique pour négocier le texte) sont en majorité tout aussi alignés sur ces positions, à l'image de Rachida Dati (France, PPE - droite européenne) et de Maite Pagazaurtundua (Espagne, ALDE - libéraux) qui défendent depuis longtemps l'idée d'une telle censure. Eva Joly (France, Verts) avait pour sa part accepté sans souci la censure privée dans la directive terroriste, finalement adoptée début 2017. Il semblerait que, cette fois, le texte aille trop loin pour elle et nous espérons qu'elle saura se battre contre.
Toutefois, dans la perspective des élections européennes, aucun parti politique du Parlement européen ne semble prêt à combattre la stratégie sécuritaire du gouvernement français, en lien avec l'Allemagne et d'autres États membres. Alors que ce texte semble directement inspiré par les politiques autoritaires mises en place par le gouvernement chinois pour contrôler Internet, Emmanuel Macron et Angela Merkel démontrent que leur « axe humaniste » mis en exergue dans le cadre de la campagne des européennes n'est que pure posture politicienne. Ce projet de règlement est une véritable insulte au projet démocratique européen.
Remplacer l'État par les géants du Web
Quand nous avons dit aux ministères que leur texte détruirait l'ensemble du Web décentralisé, ne laissant qu'une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c'était bien le but.
Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d'autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu'il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s'est même permis de sortir l'argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C'est comme ça : Google l'a dit, ne discutez pas.
Que ce soit clair : les arguments de Google et de Facebook visent simplement à détruire leurs concurrents. De fait, ce texte vise à faire disparaître les petites et moyennes plateformes, et à sous-traiter aux géants une censure massive et automatisée.
Emmanuel Macron s'est laissé enfumer de bon cœur par les géants, ravi à l'idée que l'Internet « dé-civilisé » qu'il s'entête à fantasmer soit enfin administré par une poignée d'entreprises, dont la puissance s'est bâtie sur l'exploitation illégale de nos données personnelles.
C'est ce qu'il a clairement réaffirmé lors de son discours au Forum de la Gouvernance sur Internet.
Macron se moque de détruire tout espoir d'une économie numérique européenne. Il veut simplement un texte sécuritaire qu'il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu'il s'imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n'a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l'extrême droite, l'aura élu.
Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l'État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l'économie de l'attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L'urgence législative est de combattre ces dérives : de limiter l'économie de l'attention tout en favorisant le développement de modèles respectueux de nos libertés. C'est ce que nous proposons.
Exigeons le rejet de ce texte ! Il en va des conditions d'existence de l'Internet libre et décentralisé.
";s:7:"dateiso";s:15:"20181114_113041";}s:15:"20181106_122531";a:7:{s:5:"title";s:46:"Smart Cities sécuritaires : la CNIL forfait ?";s:4:"link";s:49:"https://www.laquadrature.net/fr/technopolice_cnil";s:4:"guid";s:37:"10659 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 06 Nov 2018 11:25:31 +0000";s:11:"description";s:22933:"
Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.
En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.
À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s'allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l'analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l'Union européenne ou la Banque publique d'investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l'INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.
L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C'est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :
Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.
Pour ce qui est de la vie privée, les rédacteurs se contentent d'une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux...
On a rencontré la CNIL (et c’est triste)
Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L'échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.
Aucune analyse juridique détaillée
Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd'hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.
Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver...) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).
Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.
Dans le silence de la loi, tout et n'importe quoi
Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu'à l'inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu'elles veulent2.
Nous répondons que, justement, c'est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3. C'est justement pour cela qu'ils mériteraient l'opposition ferme et résolue de la CNIL.
Silence gêné. On en déduit, que sous couvert d'expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s'affranchir de la loi pour expérimenter les usages de l'IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d'« expérimentation » et d'« innovation smart », de méthodes « lean » en lien avec « l'écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n'importe quoi.
La CNIL résignée face au discours sécuritaire
Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».
Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d'autant plus qu'ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d'utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).
Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d'euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L'un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?
Un appel au débat qui ne mange pas de pain
Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d'être condamnée à l'impuissance.
À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d'ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.
Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L'attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.
Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.
Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu'elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :
Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4.
Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l'intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d'usages potentiels qu'on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l'art de pourrir le débat sur ces questions, ils accueillent sans doute l'appel de la CNIL avec sérénité.
Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu'elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.
Conseil de l'Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-se...
Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+...
2. Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
3. C'est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.
En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.
À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s'allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l'analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l'Union européenne ou la Banque publique d'investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l'INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.
L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C'est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :
Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.
Pour ce qui est de la vie privée, les rédacteurs se contentent d'une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux...
On a rencontré la CNIL (et c’est triste)
Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L'échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.
Aucune analyse juridique détaillée
Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd'hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.
Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver...) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).
Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.
Dans le silence de la loi, tout et n'importe quoi
Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu'à l'inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu'elles veulent2.
Nous répondons que, justement, c'est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3. C'est justement pour cela qu'ils mériteraient l'opposition ferme et résolue de la CNIL.
Silence gêné. On en déduit, que sous couvert d'expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s'affranchir de la loi pour expérimenter les usages de l'IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d'« expérimentation » et d'« innovation smart », de méthodes « lean » en lien avec « l'écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n'importe quoi.
La CNIL résignée face au discours sécuritaire
Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».
Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d'autant plus qu'ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d'utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).
Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d'euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L'un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?
Un appel au débat qui ne mange pas de pain
Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d'être condamnée à l'impuissance.
À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d'ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.
Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L'attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.
Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.
Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu'elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :
Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4.
Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l'intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d'usages potentiels qu'on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l'art de pourrir le débat sur ces questions, ils accueillent sans doute l'appel de la CNIL avec sérénité.
Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu'elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.
Conseil de l'Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-se...
Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+...
2. Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
3. C'est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
";s:7:"dateiso";s:15:"20181106_122531";}s:15:"20181106_122527";a:7:{s:5:"title";s:48:"Smart Cities sécuritaires : la CNIL forfait ?";s:4:"link";s:82:"https://www.laquadrature.net/2018/11/06/smart-cities-securitaires-la-cnil-forfait/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=11957";s:7:"pubDate";s:31:"Tue, 06 Nov 2018 11:25:27 +0000";s:11:"description";s:251:"Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big…";s:7:"content";s:26653:"
Depuis plusieurs mois, La Quadrature a commencé à se pencher sur les enjeux liés aux Smart City, alors que plusieurs villes françaises invoquent ce terme pour « déguiser » leurs projets de surveillance policière dopée aux Big Data. Il y a quelques semaines, nous rencontrions la CNIL pour discuter de ces enjeux. Résumé des épisodes précédents, et de cette rencontre pas franchement enthousiasmante.
En France, lorsqu’on évoque la police prédictive et les usages policier du Big Data, il est souvent question de l’entreprise américaine Palantir. Celle-ci agit comme une sorte de chiffon rouge : les usages policiers de ses plateformes logicielles aux États-Unis ont en effet de quoi faire froid dans le dos, et le contrat passé fin 2016 entre la firme et les services de renseignement intérieur français, la DGSI, suscite des inquiétudes légitimes. Mais à trop se focaliser sur Palantir – qui endosse à merveille le rôle de la « méchante boîte américaine » –, on risque d’oublier un peu vite qu’en France aussi, plusieurs multinationales comme Thalès, Atos Bull ou Engie se positionnent sur ces marchés sécuritaires en plein essor.
À Marseille puis à Nice, nous avons commencé à documenter les premiers partenariats public-privé en la matière, qui pullulent actuellement sur le territoire. Au travers de ces marchés publics, on voit des multinationales françaises s’allier avec des élus municipaux peu scrupuleux pour mettre la puissance du Big Data et de l’intelligence artificielle au service de leurs polices municipales (dans les applications envisagées : analyses prédictives, repérage des comportements suspects à travers l’analyse automatique de la vidéosurveillance, surveillance des réseaux sociaux, etc). Ces partenariats soutenus par l’Union européenne ou la Banque publique d’investissement permettent à ces consortiums mêlant grands industriels, « start-ups » et instituts de recherche (comme l’INRIA) de faire financer leur recherche et développement de solutions sécuritaires par le contribuable.
L’une des choses qui frappe lorsqu’on regarde les documents relatifs à ces expérimentations, c’est la créativité dont font preuve les rédacteurs pour minimiser les enjeux en termes de libertés publiques, sans jamais vraiment réussir à convaincre. Surtout, ne pas appeler un chat un chat, et caser les mots à la mode du moment qui permettront de rassurer et de « faire moderne ». C’est ce que relevait récemment la section locale de Ligue des droits de l’Homme à Nice :
Le marketing de la sécurité (de la peur ?), utilise volontiers quelques mots clés qui reviennent constamment en boucle : #intelligent, #temps réel ; on y rencontre aussi des #infaillible aux allures jupitériennes, destinés à clouer le bec de tout contradicteur.
Pour ce qui est de la vie privée, les rédacteurs se contentent d’une vague mention du « RGPD » ou de la « Loi informatique et libertés ». Inutile de vraiment plancher sur une analyse juridique qui démonterait que ces projets sont tout simplement illégaux…
On a rencontré la CNIL (et c’est triste)
Il y a quelques semaines, après la réponse que nous a faite la présidente de la CNIL à un courrier de janvier 2018, nous avons rencontré ses services pour en savoir plus sur la manière dont ils suivaient (ou pas) ces dossiers. Côté Quadrature, nous étions trois. En face de nous, il y avait Jean Lessi, conseiller d’État et secrétaire général de la CNIL, et trois autres personnes travaillant de loin sur ces sujets de « Safe City » au titre de leurs attributions. L’échange a été cordial. Nous avons rencontré des gens aimables, prenant au sérieux nos inquiétudes. Et pourtant, notre discussion a débouché sur un constat particulièrement amer quant à la capacité de la CNIL à être à la hauteur des enjeux.
Aucune analyse juridique détaillée
Le premier constat, c’est que la CNIL n’a en réalité pas de politique détaillée sur les Safe Cities. En 2014 déjà, elle échangeait avec le ministère de l’Intérieur sur des expérimentation locales de dispositifs statistiques à visée de police prédictive (sans même le Big Data à l’époque). L’an dernier, la CNIL publiait une étude prospective tout-à-fait lucide sur les enjeux de la Smart City pour les libertés publiques. Mais aujourd’hui, celle-ci ne dispose encore d’aucune analyse juridique qui puisse faire autorité sur la légalité des expérimentations projetées.
Comme le montrait le courrier envoyé par la présidente de la CNIL au maire de Marseille, la CNIL se borne pour l’heure à appeler au respect de garanties procédurales, avec notamment la nécessaire étude d’impact (la mairie en aurait promis une pour cet hiver…) et un « accompagnement obligatoire » à l’issue des expérimentations (prévu pour les « nouvelles technologies » par l’article 70-4 de la loi informatique et liberté modifiée).
Les analyses juridiques qui fleurissent au Conseil de l’Europe ou ailleurs1
Conseil de l’Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-sector/1680789a74
Conseil de l’Europe. (2018). Algorithms and Human Rights: Study on the human rights dimensions of automated data processing techniques and possible regulatory implications. Strasbourg. https://www.coe.int/en/web/human-rights-rule-of-law/-/algorithms-and-human-rights-a-new-study-has-been-published
Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0044+0+DOC+XML+V0//FR
, et qui tentent de construire une réflexion pratique sur les liens entre Big Data, Intelligence Artificielle et droits de l’Homme, semblent la laisser de marbre.
Dans le silence de la loi, tout et n’importe quoi
Lorsqu’on demande à nos interlocuteurs pourquoi ils ne demandent tout simplement pas l’arrêt de ces expérimentations, comme il fut fait au printemps s’agissant de l’application Reporty à Nice (décision dont nous avons eu communication : la voici), on nous explique qu’à l’inverse de Reporty, la loi ne dit rien de spécifique sur la Safe City, et que les mairies peuvent donc faire peu ou prou ce qu’elles veulent2Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut »..
Nous répondons que, justement, c’est parce que la loi ne dit rien non plus de l’utilisation du Big Data à des fins policières, de la surveillance des réseaux sociaux et de toutes ces choses évoquées dans les projets d’expérimentation « Safe City », que ces derniers sont clairement illégaux3C’est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.. C’est justement pour cela qu’ils mériteraient l’opposition ferme et résolue de la CNIL.
Silence gêné. On en déduit, que sous couvert d’expérimentations, tout ou presque est permis. La CNIL semble ici adhérer au rapport du député Cédric Villani sur l’intelligence artificielle, qui revendiquait de s’affranchir de la loi pour expérimenter les usages de l’IA à des fins de surveillance (visant sans le nommer le partenariat Palantir-DGSI). Dans la Startuffe Nation, il te suffit de parler d’« expérimentation » et d’« innovation smart », de méthodes « lean » en lien avec « l’écosystème startup », et ça te vaut un sauf-conduit pour faire tout et n’importe quoi.
La CNIL résignée face au discours sécuritaire
Bref. On continue donc la discussion, et nos interlocuteurs de la CNIL continuent de se défiler en nous disant en substance ceci : « Même si les projets d’expérimentation font peur sur le papier, il faut bien faire la différence entre le discours marketing des projets d’expérimentation (qui surenchérit dans la dystopie orwelienne) et l’étape de la mise en œuvre (qui s’avérera décevante et bien plus limitée que ce qui est projeté au départ) ».
Alors oui, on peut être d’accord sur le fait que ces expérimentations ne tiendront pas leurs promesses dans les délais impartis. Pour autant, cette position de la CNIL qui tend à minimiser la portée de ces projets oublie deux choses. La première, c’est que les discours marketing participent déjà de la banalisation des systèmes de surveillance. Et ce d’autant plus qu’ils sont repris par les élus qui, tout en masquant les dangers de la Safe City, tentent d’en faire un atout électoral. Le marketing de la surveillance impose partout la société de surveillance, et ce devrait être le rôle de la CNIL que d’utiliser les moyens à sa disposition pour aider à déconstruire ces discours (et tant pis si cela suscite l’ire des élus locaux).
Surtout, vu le rythme auquel croît l’informatique de contrôle (Big Data, IA & co), il est clair que ces systèmes de surveillance verront le jour. À force de balancer des millions d’euros pour les financer, la technocratie nous enfoncera encore un peu plus dans la dystopie orwellienne. De fait, ces outils existent déjà en Chine et, dans une moindre mesure, aux États-Unis et au Royaume-Uni. L’un des buts de ces expérimentations n’est-il pas justement de permettre aux industriels français de rattraper au plus vite leur retard sur la concurrence étrangère ?
Un appel au débat qui ne mange pas de pain
Au fond, si la CNIL botte en touche sur ces sujets ô combien importants, c’est qu’elle accepte d’être condamnée à l’impuissance.
À l’image d’autres autorités de contrôle dévolues à la protection des libertés publiques, ses moyens financiers et humains sont structurellement dérisoires par rapport à l’ampleur de ses missions. Il faut dire que la conjoncture n’est guère favorable : la CNIL doit faire face à l’entrée en vigueur du RGPD en mai dernier, qui la met en première ligne. Nos interlocuteurs ont d’ailleurs commencé la discussion en pointant leur manque de moyens, comme pour s’excuser par avance de leur relative inaction. On nous a fait comprendre que les personnes que nous avions en face sont en réalité les seules parmi un staff d’environ 200 personnes à plancher sur ces sujets de Safe City. Et encore, seulement de loin, en plus de leurs autres missions touchant aux fichiers régaliens… Le projet de budget 2019 envisage bien une augmentation de ses ressources de +4,8 % (+ 860 000 euros), mais cela est largement insuffisant pour palier aux besoins.
Il y a une seconde explication plus générale à l’impuissance de la CNIL : celle-ci est sciemment organisée par les pouvoirs exécutifs et législatifs. L’attentisme actuel apparaît en effet comme le point d’orgue d’une tendance à l’œuvre depuis les années 1980, qui a vu les pouvoirs de la commission progressivement rognés s’agissant de la surveillance d’État. Alors que ses responsables aiment à rappeler le « mythe fondateur » du scandale SAFARI – provoqué en 1974 par le projet d’une interconnexion des fichiers informatiques de la police, des service fiscaux et sociaux –, la CNIL n’a cesse depuis de perdre du terrain sur ces questions.
Ainsi, en 1991, l’État choisit de créer une nouvelle autorité (la CNCIS) plutôt que de lui permettre de contrôler la surveillance des communications par les services de renseignement. En 2004, on lui ôte le pouvoir de s’opposer à la création de fichiers policiers, en rendant son avis sur les projets de décrets afférents purement consultatif. Enfin, depuis presque vingt ans, on met à sa tête des gens proches des hautes sphères administratives ou politiques, comme une manière de garantir sa relative docilité vis-à-vis de l’État dans des dossiers clés.
Dans ce contexte délétère, la CNIL en est réduite à appeler à un grand « débat démocratique », tout en reconnaissant les graves menaces que font peser ces systèmes pour les droits et libertés. Ce qu’elle a fait le 19 septembre dernier. On lit dans son communiqué publié ce jour-là :
Ces dispositifs, qui s’articulent parfois avec des technologies de big data, soulèvent des enjeux importants pour les droits et libertés individuelles des citoyens. Le sentiment de surveillance renforcée, l’exploitation accrue et potentiellement à grande échelle de données personnelles, pour certaines sensibles (données biométriques), la restriction de la liberté d’aller et de venir anonymement, sont autant de problématiques essentielles pour le bon fonctionnement de notre société démocratique.
Il est aujourd’hui impératif que des garde-fous soient prévus afin d’encadrer les finalités pour lesquelles ces dispositifs peuvent être déployés et prévenir tout mésusage des données traitées par leur biais (…).
Aussi, la CNIL appelle d’urgence à un débat démocratique sur cette problématique, et à ce que le législateur puis le pouvoir réglementaire se saisissent de ces questions afin que soient définis les encadrements appropriés, en recherchant le juste équilibre entre les impératifs de sécurisation, notamment des espaces publics, et la préservation des droits et libertés de chacun4https://www.cnil.fr/fr/la-cnil-appelle-la-tenue-dun-debat-democratique-sur-les-nouveaux-usages-des-cameras-video.
Un appel de pure forme, qui finira sans aucun doute par être entendu par les ministères de l’intérieur et de la justice. Le gouvernement a en effet affirmé au printemps vouloir réviser la loi renseignement en 2020. Il lui faudra de toute façon légaliser tout un tas d’usages sécuritaires de l’informatique expérimentés ces derniers temps dans la plus grande illégalité (coucou Palantir à la DGSI, coucou le fichier TES et sa myriade d’usages potentiels qu’on voudra bientôt légaliser, etc.). Au train où vont les lois sécuritaires, et vu que les marchands de peur sont récemment passés ceinture marron dans l’art de pourrir le débat sur ces questions, ils accueillent sans doute l’appel de la CNIL avec sérénité.
Au minimum, la CNIL devrait imposer un moratoire sur les expérimentations en cours : exiger leur arrêt tant qu’elles ne sont pas précisément autorisées et encadrées par la loi. Sa position attentiste la rend complice.
Conseil de l’Europe. (2018). Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data (Consultative committee of the Convention for the protection of individuals with regard to automatic processing of personal data No. T-PD(2018)01). https://rm.coe.int/practical-guide-use-of-personal-data-in-the-police-sector/1680789a74
Conseil de l’Europe. (2018). Algorithms and Human Rights: Study on the human rights dimensions of automated data processing techniques and possible regulatory implications. Strasbourg. https://www.coe.int/en/web/human-rights-rule-of-law/-/algorithms-and-human-rights-a-new-study-has-been-published
Commission des libertés civiles, de la justice et des affaires intérieures, Parlement européen. (2017). Rapport sur les incidences des mégadonnées pour les droits fondamentaux: respect de la vie privée, protection des données, non-discrimination, sécurité et application de la loi (No. A8- 0044/2017). Retrieved from http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0044+0+DOC+XML+V0//FR
2.
↑
Le raisonnement juridique de la CNIL, détaillé dans un document dont nous avons eu communication, est en gros le suivant : « Reporty s’analysait en droit comme l’extension du système de vidéosurveillance de la ville (à travers les ordiphones des gens) ; or, la vidéosurveillance fait l’objet d’un encadrement dans le code de la sécurité intérieure ; comme pour les caméras piéton des policiers, faut donc que la loi autorise expressément le recours par les collectivités aux ordiphones des gens pour surveiller la population ; or cette autorisation législative qui fait pour l’heure défaut ».
3.
↑
C’est la conséquence logique de la jurisprudence de base de de CEDH en la matière : toute forme de surveillance qui ne fait pas l’objet d’une règle juridique claire et intelligible associée à des garde-fous est illégale.
";s:7:"dateiso";s:15:"20181106_122527";}s:15:"20181029_124110";a:7:{s:5:"title";s:87:"En Espagne, les réseaux télécoms citoyens entravés par des pratiques clientélistes";s:4:"link";s:122:"https://www.laquadrature.net/2018/10/29/en-espagne-les-reseaux-telecoms-citoyens-entraves-par-des-pratiques-clientelistes/";s:4:"guid";s:37:"https://www.laquadrature.net/?p=11955";s:7:"pubDate";s:31:"Mon, 29 Oct 2018 11:41:10 +0000";s:11:"description";s:279:"En 2014, la Commission européenne publiait un rapport présentant les résultats d’une consultation d’entreprises, dans 28 pays de l’Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le…";s:7:"content";s:5336:"
En 2014, la Commission européenne publiait un rapport présentant les résultats d’une consultation d’entreprises, dans 28 pays de l’Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.
Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l’expérience de ce qui s’apparente à des pratiques quasi-mafieuses.
C’est pour dénoncer cette situation qu’en Espagne, la fondation Guifi.net – qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales – vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d’entreprises ou d’autorités publiques qui refusent de donner droit à ses demandes d’accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.
Ces pratiques d’obstruction – contraires au droit européen et pourtant impunies – provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d’Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l’Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.
Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications
Barcelone, le vendredi 26 octobre
La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.
Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l’entrée qui s’exercent à tous les niveaux en Espagne.
La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d’accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.
Les mauvaises actions, ainsi que l’absence d’action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu’à tous les niveaux de l’administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net — à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.
La fondation guifi.net est un organisme à but non lucratif et d’intérêt général qui défend l’accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d’un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d’un bien commun.
";s:7:"dateiso";s:15:"20181029_124110";}s:15:"20181029_114148";a:7:{s:5:"title";s:87:"En Espagne, les réseaux télécoms citoyens entravés par des pratiques clientélistes";s:4:"link";s:45:"https://www.laquadrature.net/fr/guifi_plainte";s:4:"guid";s:37:"10657 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 29 Oct 2018 10:41:48 +0000";s:11:"description";s:5214:"
29 octobre 2018
En 2014, la Commission européenne publiait un rapport présentant les résultats d'une consultation d'entreprises, dans 28 pays de l'Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.
Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l'expérience de ce qui s'apparente à des pratiques quasi-mafieuses.
C'est pour dénoncer cette situation qu'en Espagne, la fondation Guifi.net - qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales - vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d'entreprises ou d'autorités publiques qui refusent de donner droit à ses demandes d'accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.
Ces pratiques d'obstruction - contraires au droit européen et pourtant impunies - provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d'Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l'Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.
Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications
Barcelone, le vendredi 26 octobre
La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.
Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l'entrée qui s'exercent à tous les niveaux en Espagne.
La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d'accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.
Les mauvaises actions, ainsi que l'absence d'action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu'à tous les niveaux de l'administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net -- à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.
La fondation guifi.net est un organisme à but non lucratif et d'intérêt général qui défend l'accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d'un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d'un bien commun.
";s:7:"content";s:5214:"
29 octobre 2018
En 2014, la Commission européenne publiait un rapport présentant les résultats d'une consultation d'entreprises, dans 28 pays de l'Union Européenne (UE-28), de différents secteurs où celui des télécoms est affirmé comme le secteur économique le plus corrompu après celui du BTP.
Alors que les télécoms sont dominés par des oligopoles au niveau national, les formes et les effets de cette corruption sont multiples. Sur le terrain, les initiatives citoyennes qui cherchent à se réapproprier les infrastructures télécom font en tous cas fréquemment l'expérience de ce qui s'apparente à des pratiques quasi-mafieuses.
C'est pour dénoncer cette situation qu'en Espagne, la fondation Guifi.net - qui travaille à la construction de réseaux télécoms gérés comme biens communs, par et pour des communautés locales - vient de déposer une plainte auprès de la Médiatrice européenne. Depuis des années, Guifi.net constate que le déploiement de ses réseaux libres est entravé par la non-coopération d'entreprises ou d'autorités publiques qui refusent de donner droit à ses demandes d'accès aux infrastructures existantes (réseaux télécoms, ferroviaires, électriques), grâce auxquelles elle entend déployer ses fourreaux de fibre optique et ainsi étendre son réseau. Ses recours en justice ou ses saisine du régulateur des télécoms, la CNMC, sont restés sans véritables effets.
Ces pratiques d'obstruction - contraires au droit européen et pourtant impunies - provoquent des retards, des surcoûts, et des formes de concurrence déloyales. Leur caractère systémique montrent à quel point les politiques publiques font obstacle à la maîtrise citoyenne des réseaux télécoms et, in fine, à la décentralisation d'Internet. Par solidarité avec Guifi.net et parce que, partout en Europe, les réseaux télécoms libres et citoyens font face à des problématiques similaires (voir en France le récent appel de la Fédération FDN à l'Arcep), nous republions ci-dessous le communiqué de Guifi.net, et leur exprimons notre soutien.
Guifi.net dénonce les manquements au droit européen de la concurrence et des télécommunications
Barcelone, le vendredi 26 octobre
La fondation guifi.net dépose une plainte au Médiateur Européen, appelant la Commission Européenne à agir contre les mauvaises pratiques dans les États membres et à garantir le respect des textes européens en matière de télécommunications et de droit de la concurrence.
Ce vendredi 26 octobre, la fondation guifi.net a déposé sa plainte au siège de la Commission européenne à Barcelone. Elle décrit les situations de conflit d’intérêts économiques, les mauvaises pratiques ainsi que les barrières à l'entrée qui s'exercent à tous les niveaux en Espagne.
La décision de déposer cette plainte est motivée par la violation continue et systématique du droit européen des télécommunications et du droit de la concurrence, et plus précisément du décret espagnol RD 330/2016 du 9 septembre relatif à la réduction du coût du déploiement des réseaux de télécommunications électroniques à haut débit, qui transpose la directive 2014/61/UE du Parlement européen. Ce décret permet aux opérateurs de réseaux de communications ouverts au public d'accéder aux infrastructures physiques existantes, et ce peu importe leur localisation.
Les mauvaises actions, ainsi que l'absence d'action dans certains cas, sont commises à la fois par des entreprises privées ainsi qu'à tous les niveaux de l'administration et dans différents territoires de compétence. Cela mène à une impasse (blocus mutuel) rendant irréalisables les projets de réseaux en commun de guifi.net -- à travers une infrastructure dont le principal objectif est d’atteindre l’ensemble du territoire pour relier tous les ménages, mettant ainsi fin à la fracture numérique.
La fondation guifi.net est un organisme à but non lucratif et d'intérêt général qui défend l'accès à Internet en tant que droit humain (reconnu par les Nations Unies en 2011) et qui travaille à la promotion d'un réseau de télécommunication en coopération, ouvert, libre et neutre, sur le modèle d'un bien commun.
";s:7:"dateiso";s:15:"20181029_114148";}s:15:"20181025_160000";a:7:{s:5:"title";s:96:"[LeMonde] Le contrôle des données numériques personnelles est un enjeu de liberté collective";s:4:"link";s:123:"https://www.laquadrature.net/2018/10/25/le-controle-des-donnees-numeriques-personnelles-est-un-enjeu-de-liberte-collective/";s:4:"guid";s:0:"";s:7:"pubDate";s:31:"Thu, 25 Oct 2018 14:00:00 +0000";s:11:"description";s:180:"
Les révélations des failles de sécurité touchant des services en ligne s’accumulent. Et la collecte de nos données fait peser un risque collectif d’envergure. [...]";s:7:"content";s:1597:"
Les révélations des failles de sécurité touchant des services en ligne s’accumulent. Et la collecte de nos données fait peser un risque collectif d’envergure. […]
Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective. […]
Les algorithmes enserrent nos vies : ils nous disent quoi acheter, où partir en vacances, qui rencontrer, quel article de presse lire, comment nous déplacer, décident ce que nous pouvons écrire. Cette trame nouée autour de nos vies est tissée de nos données personnelles. Pas seulement des nôtres, individu connecté, mais de toutes les autres : les algorithmes ne fonctionnent qu’assis sur des masses de données. C’est la somme, l’agrégat et la combinaison des données à l’échelle de milliers, voire de millions d’êtres humains, qui font leur puissance. […]
";s:7:"dateiso";s:15:"20181025_160000";}s:15:"20181025_150000";a:7:{s:5:"title";s:93:"[Mediapart] La régulation des Gafam, un chantier débattu des deux côtés de l’Atlantique";s:4:"link";s:84:"https://www.laquadrature.net/2018/10/25/la-regulation-des-gafam-un-chantier-debattu/";s:4:"guid";s:0:"";s:7:"pubDate";s:31:"Thu, 25 Oct 2018 13:00:00 +0000";s:11:"description";s:2:"
";s:7:"content";s:2464:"
[…] Si le RGPD promet la portabilité des données, c’est-à-dire le transfert de vos données d’un opérateur vers un autre (imaginez que vous vouliez changer de réseau social et réinstaller toute votre activité Facebook… ailleurs !), l’étape suivante pourrait être celle de l’interopérabilité. Des données stockées de telle sorte qu’elles puissent être utilisées où bon vous semble, quand bon vous semble : par exemple, écouter sa playlist sur n’importe quel service de streaming, ou utiliser ses adresses préférées dans n’importe quel GPS.
Un tel changement de paradigme pourrait permettre de casser ce que les économistes appellent “l’effet de réseau” – selon lequel la croissance d’un réseau s’auto-alimente, le réseau devenant de plus en plus intéressant au fur et à mesure que plus de monde s’y retrouve – et l’effet de “silo” ou d’écosystème – un possesseur d’iPhone achetant ses applis sur l’Apple Store et sauvegardant ses photos dans le cloud d’Apple. Un effet dont risque par exemple de souffrir le fabricant de GPS TomTom, après l’annonce par Renault-Nissan-Mitsubishi d’un partenariat avec la filiale d’Alphabet, qui leur permettra de proposer dans leurs systèmes de divertissement embarqué la navigation par Google Maps, l’accès aux applications automobiles de Google Play Store et la commande vocale via Google Assistant.
Pour Sébastien Soriano, interrogé par Alternatives économiques, casser les effets de réseau permettrait de « favoriser l’émergence de nouveaux entrants et de limiter les stratégies de silos des acteurs en place au profit de services plus interopérables et de données plus partagées. Ainsi les effets de réseaux ne seraient plus accaparés par quelques acteurs mais redistribués aux utilisateurs par le truchement de la concurrence » […].
";s:7:"dateiso";s:15:"20181025_150000";}s:15:"20181024_150000";a:7:{s:5:"title";s:105:"[01net] Fibre optique : les opérateurs associatifs interpellent Orange et le gendarme des télécoms";s:4:"link";s:135:"https://www.laquadrature.net/2018/10/24/01net-fibre-optique-les-operateurs-associatifs-interpellent-orange-et-le-gendarme-des-telecoms/";s:4:"guid";s:134:"https://beta.grange.lqdn.fr/2018/10/24/01net-fibre-optique-les-operateurs-associatifs-interpellent-orange-et-le-gendarme-des-telecoms/";s:7:"pubDate";s:31:"Wed, 24 Oct 2018 13:00:00 +0000";s:11:"description";s:269:"
Ces petites structures souhaiteraient proposer de la fibre optique à leurs adhérents. Mais pour cela, il faudrait qu’elles puissent louer les offres activées d’un opérateur comme c’est le cas pour l’ADSL.
Coincés. D’un côté, les opérateurs…";s:7:"content";s:1804:"
Ces petites structures souhaiteraient proposer de la fibre optique à leurs adhérents. Mais pour cela, il faudrait qu’elles puissent louer les offres activées d’un opérateur comme c’est le cas pour l’ADSL.
Coincés. D’un côté, les opérateurs associatifs grands publics n’ont pas les moyens de déployer leur propre réseau FttH. Et de l’autre, il n’existe pas d’offre leur permettant de louer la fibre optique activée à un autre opérateur. C’est pourtant déjà le cas pour l’ADSL avec Orange, on appelle cela une offre « activée » ou « bitstream ».
Ces acteurs prennent aujourd’hui la plume pour exprimer leur mécontentement dans une lettre adressée au président de l’Arcep Sébastien Soriano et au patron d’Orange Stéphane Richard. Elle est signée par la Fédération FDN, la Fédération des fournisseurs d’accès Internet associatifs qui regroupe une trentaine d’associations sur tout le territoire comme FDN, Aquilenet ou Rézine. […]
";s:7:"dateiso";s:15:"20181024_150000";}s:15:"20181016_144552";a:7:{s:5:"title";s:18:"Un tiers médiaire";s:4:"link";s:49:"https://www.laquadrature.net/fr/un_tiers_mediaire";s:4:"guid";s:37:"10646 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 16 Oct 2018 12:45:52 +0000";s:11:"description";s:18203:"
17 octobre 2018 - Pour avancer encore dans nos discussions sur le statut des hébergeurs et la régulation d'Internet, nous partageons aujourd'hui une tribune de Laurent Chemla, membre de La Quadrature du Net.
Avec les communiqués de La Quadrature du Net autour de la Directive Droit d'Auteur et les différentes réactions et tribunes qu'ils ont suscité, pas mal de choses ont été dites, critiquées, expliquées et décortiquées.
Quelques points pourtant sont restés à mon sens trop peu développés.
Mais, first thing first, je voudrais d'abord expliquer ma propre position sur le sujet du fameux « statut intermédiaire » entre éditeur et hébergeur, que La Quadrature a très finement choisi de nommer « afficheur ». Et pour ça je vais devoir vous raconter ma vie (comme d'habitude, oui).
Je te préviens c'est long et chiant. Tu peux retourner sur Twitter tout de suite.
C'était en 1997, je crois, que ce thème a été abordé pour la première fois. J'étais à l'époque vice-président d'un des ancêtres de LQDN : l'Association des Utilisateurs d'Internet (AUI). L'AUI avait, assez naïvement, déjà classé les intermédiaires techniques en trois catégories : FAI, FSI et FHI. Respectivement : fournisseur d'accès, de services, et d'hébergement. Le FAI a des obligations (couverture du territoire, neutralité), le FSI a des contrats (c'est un simple commerçant), et le FHI est transparent (il n'a aucun rôle éditorial et en contrepartie aucune responsabilité équivalente à ce que la loi de 1881 sur la Presse impose aux divers intermédiaires de la chaîne de responsabilité éditoriale).
La case « fournisseur de services » (puisque c'est surtout d'elle qu'il s'agit) était, à l'époque, pensée comme regroupant votre serveur de mail, votre vendeur de nom de domaine, ce genre de bidules techniques qui ne relève clairement ni de l'accès ni de l'hébergement proprement dit. Tout ce qui n'est ni fournisseur d'accès ni totalement transparent tombait dans ce statut.
Une autre façon de présenter les choses serait de définir l'accès comme la fourniture des droits fondamentaux à l'expression et à l'information, et l'hébergement comme le moyen de ces mêmes droits fondamentaux. Un peu comme un parallèle à l'enseignement de la lecture et à la Presse. Et ce qui ne relève ni de l'accès ni du moyen tombe dans le simple commerce.
Il peut sembler évident que, de ce point de vue, un intermédiaire qui - de facto - choisit ce qu'il diffuse ou non (parce qu'il hiérarchise les contenus de ses utilisateurs au point d'en faire disparaître certains, par exemple), n'étant pas « transparent », tombe dans cette case. En tous cas, à l'époque, ça semblait suffisamment évident à certains pour me démissionner de l'AUI au prétexte que je ne considérais pas que les choses étaient aussi simples.
Ma position (qui n'a que peu varié depuis) était que, d'une part, la totale déresponsabilisation des hébergeurs conduirait inévitablement à des services spécialisés dans la diffusion de la haine (« Mais oh la la c'est pas ma faute si tous les haineux m'ont choisi comme hébergeur M. le juge : je suis totalement transparent moi », toute ressemblance avec le 18-25 d'une certaine période étant fortuite), et que d'autre part en tant que petit hébergeur (j'étais petit hébergeur à cette époque) j'aurais bien du mal à dormir en sachant que mes machines servaient à diffuser de la haine sans que je n'y puisse rien (« transparence » oblige).
Forcément, ce type d'idée ne facilite pas les convictions tranchées, bien binaires comme il faut.
Pour me sortir de ce qui ressemblait à une contradiction (défendre la liberté d'expression mais rester quand même un citoyen « non transparent »), j'ai fini par développer une position, sinon intermédiaire, au moins un peu plus complexe que le « tout ou rien » : dans ma vision l'hébergeur était un « fournisseur de liberté d'expression », un statut spécial, une sorte de « reconnaissance d'utilité publique » si vous voulez.
En tant que tel il devenait irresponsable des contenus hébergés, MAIS il s'engageait à ne pas intervenir sur ces contenus SAUF à en répondre SYSTÉMATIQUEMENT devant la justice.
Si jamais je tombais sur un site négationniste parmi ceux que j'hébergeais, et que j'en coupais l'accès, je risquais d'être condamné pour ça, et ça m'allait très bien : de la même manière que j'engage ma responsabilité pénale si je cogne sur le type qui essaie de voler le sac d'une vieille dame dans la rue, je laissais à la justice - saisie automatiquement - la décision de dire si j'avais agi à raison ou non.
Pour résumer, j'avais développé un cadre contractuel en parallèle, que l'hébergeur se devait de respecter pour bénéficier de ce statut (mais je préfère rester hahaha bref).
C'est là que nos chers juristes m'ont expliqué que « c'est pas con mais c'est pas possible : y'a pas de qualification pénale pour censure abusive dans notre droit ».
What ?
Eh bah oui : si c'est l'État qui censure la Presse ou les Syndicats, il existe un article de loi pour porter plainte. Mais si c'est un commerçant qui censure un particulier, y'a pas. Et c'est logique, puisqu'à l'époque où ces textes ont été écrits, personne ne pensait qu'un jour le simple citoyen aurait accès à l'expression publique. Oui, ok, c'est un droit constitutionnel, carrément un « Droit de l'Homme » même, mais celui-là n'est pas protégé par la loi. Voilà.
Et il ne l'est toujours pas, 20 ans plus tard.
Bon j'avoue qu'à ce stade des débats les choses se sont un peu compliquées et que - je résume, je t'ai dit ! - je me suis fait démissionner de l'association pour cause d'hérésie. Et j'ai un peu lâché l'affaire.
Pendant 20 ans, ouais.
Retour au temps présent. Il ne t'aura pas échappé que ma vision du passé n'est pas exactement celle qui est aujourd'hui défendue par La Quadrature. Déjà parce que c'est pas moi qui décide de la position de La Quadrature. Mais surtout parce qu'Internet n'est pas TOUT À FAIT le même qu'il y a 20 ans : l'avènement du « Web 2.0 » a changé la nature de l'hébergement, en créant des services réunissant sur la même « page » les publications d'une foule de différents acteurs. Benjamin l'explique très bien dans sa tribune.
Mais ce qui compte, pour moi, et mon histoire passée l'explique sans doute, c'est qu'on débatte ENFIN de ça : oui, ok, bien sûr, il ne faut pas qu'un hébergeur soit responsable des contenus publiés par ses utilisateurs. Parce que s'il l'est, il sera obligé de sélectionner ces contenus. Et que donc - toutes choses étant égales par ailleurs - toute opinion un peu divergente de celle de ceux qui font la loi sera petit à petit supprimée de l'espace public. C'est comme ça.
MAIS - et c'est un PUTAIN DE GROS MAIS - il doit avoir, en contrepartie, un devoir de neutralité. Parce que s'il n'est pas responsable, alors en échange IL NE DOIT PAS CENSURER. Rien. Jamais. Sauf à en assumer la responsabilité. Et oui, je considère que trier les documents, si ça conduit à toujours rendre invisibles les mêmes, c'est encore de la censure.
Ça se discute ? Discutons-en.
Et oui, la Quadrature défend l'idée que - s'il fait le choix de censurer - alors il ne passe pas devant un tribunal pour ça (rappel : y'a pas de loi qui le permette) mais il perd sa qualité d'hébergeur et [re]devient un simple intermédiaire, qualifié d'afficheur pourquoi pas. Un FSI au sens antique de l'AUI. C'est son contrat qui prévaut dans ses rapports avec ses utilisateurs MAIS il perd - au moins en partie - son irresponsabilité totale.
Ça se discute ? Discutons-en.
Et oui, la Quadrature propose que ce statut intermédiaire « d'afficheur » ne s'applique qu'à certaines conditions (de taille, de position hégémonique, de pouvoir...) et DONC que certains puissent conserver le statut d'hébergeur tout en choisissant des règles de modération autres que strictement neutres.
Ça se discute ? Discutons-en.
Par exemple, je suis personnellement favorable à ce qu'une des conditions pour passer du statut d'hébergeur à celui d'afficheur soit le choix du modèle économique : le tien est basé sur l'exploitation commerciale des données personnelles de tes utilisateurs ? Ok, t'es afficheur, pas hébergeur.
Parce que oui, le modèle économique, ça compte aussi ! Parce que quand ton revenu dépend de la publicité, alors FORCÉMENT tu as intérêt à ne pas fâcher tes clients (les publicitaires, donc), et FORCÉMENT tu vas avoir envie de privilégier certains contenus à même de retenir l'attention de leurs cibles, et FORCÉMENT tu vas être poussé à ne pas mélanger leurs publicités à des contenus, disons, discutables.
Et donc, FORCÉMENT, tu n'es plus neutre (et si tu essaies quand même de l'être, ce qui est le cas de mes amis de Qwant par exemple, tu te retrouves à lutter contre la puissance économique de ceux qui - n'ayant pas plus d'obligations que toi tout en n'ayant pas la même éthique que toi - ont mille fois plus de clients potentiels que toi. Bon courage).
Accessoirement, je préfère aussi le rappeler, le modèle « publicité contre gratuité » nous conduit aussi irrémédiablement dans le mur de la minitelisation du Web que le modèle capitaliste nous conduit dans le mur de la disparition du vivant (je résume, je te l'ai déjà dit). Parce que pour vendre plus de pub - ou pour la vendre plus cher - tu vas devoir avoir plus d'utilisateurs, tout simplement. Ce qui conduit très logiquement à voir apparaître des géants hégémoniques et à la disparition, par asphyxie économique, des plus petits. Et donc à un pouvoir démesuré sur la liberté d'expression pour ceux qui restent. C'est le modèle qui veut ça.
Bref. Tout ça se discute. Alors discutons-en.
Sans anathème, de préférence : j'ai déjà vécu ça et ça ne m'a pas plu des masses.
On peut discuter. On doit discuter. J'ai mes limites, bien sûr : pour moi il n'existe pas de liberté sans responsabilité donc, pour moi, celui qui prend la liberté de censurer ce qui lui déplaît prend en partie la responsabilité de ce qu'il diffuse. C'est un principe, mais il se discute, il s'amende, il prend en compte la réalité. Sans insultes et sans parti-pris : si je n'entends pas d'arguments pour me faire changer d'avis, la discussion va vite s'arrêter là.
Bref.
J'ai pas fini.
Ne t'y trompes pas, ami lecteur masochiste qui a tenu jusque-là : même s'ils semblent aller dans mon sens, quand les pouvoirs en place votent l'article 13 de la directive Copyright, ou même le RGPD, ils ne sont pas mes amis. Du tout. Parce qu'ils favorisent ceux qu'ils disent combattre.
L'obligation de filtrage automatisé imposée par l'article 13 ne dérange EN RIEN les GAFAM : elle ne fait qu'avaliser une pratique déjà en place et VOULUE par ces mêmes GAFAM, puisque c'est à la base même de leur modèle économique (filtrer pour mieux attirer la cible des publicitaires et garantir un environnement « sain »). Son seul aspect positif (et encore : mon petit doigt m'a dit qu'on risquait gros pendant le trilogue en cours), c'est qu'il introduit une distinction entre hébergeur et intermédiaire pratiquant « l'optimisation des contenus », ce qui permet l'excellente chose (selon moi) que nous ayons ENFIN ce débat là.
C'est d'ailleurs ce que disent @Calimaq et La Quadrature quand ils rappellent qu'il est PLUTÔT BON que ces mastodontes ne bénéficient plus de l'exception totale de responsabilité des contenus. Et j'en suis bien d'accord. Mais ça s'arrête là !
Je me doute bien que ça ne fait pas très plaisir aux GAFAM de se retrouver avec une responsabilité potentielle, mais ne nous leurrons pas : tout ça n'est rien d'autre que la mise en place d'un rapport de forces entre l'UE et Google/Facebook et al. pour que la première puisse mieux négocier ensuite avec les seconds le type de filtrage qu'il faudra mettre en place.
L'UE a intériorisé le fait que presque rien n'existe qui ne passe par la poignée de « géants du Net » et que c'est donc là, et nulle part ailleurs, que le pouvoir peut s'exercer. L'Internet décentralisé, tel que « nous » le souhaitons, n'est pas contrôlable. L'Internet des GAFAM l'est, et c'est exactement ce que souhaitent les États, ne soyons pas naïfs. Google, selon cette étude est le plus grand bénéficiaire du RGPD. Probablement pas par hasard.
Pour prendre l'exemple français : imposer l'exception culturelle telle que voulue par nos très chers ayant-tous-les-droits nécessite que les contenus soient « optimisés » pour afficher un certain pourcentage « d’œuvres » françaises. Permettre à une nouvelle HADOPI d'empêcher efficacement le streaming illicite des évènements sportifs suppose que le nombre de services de streaming soit limité à quelques géants. Montrer ses muscles avant les prochaines élections européennes - pour tenter d'éviter qu'une certaine droite ne remporte trop de sièges - nécessite qu'on impose (très bientôt) la censure « en moins d'une heure » des contenus terroristes. Ce que seuls quelques géants ont la capacité de faire.
Les autres, non seulement « les petits » mais aussi tous ceux qui n'ont pas la censure pour modèle économique, risquent de se retrouver de facto hors la loi et de disparaître ? Oui, et c'est pas pire, pour un pouvoir qui souhaite le retour à un réseau hypercentralisé qu'il pourra mieux contrôler.
Notre pays a l'habitude des réseaux très centralisés dans lesquels l'État dispose du pouvoir d'imposer ses volontés et d'empêcher tout ou partie de l'expression publique citoyenne. C'est nous qui avons inventé le Minitel. Cocorico.
Allez, encore un mot sur le RGPD et la centralisation et je te laisse retourner faire la sieste.
Le RGPD (et la loi Lemaire avant lui) a inventé un « droit à la portabilité des données ». Haha.
Tu sais : le truc qui va te permettre d'exporter tes données personnelles depuis Facebook vers... euh. Ah. Merde.
Ah si : tu vas pouvoir exporter tes contacts et ta mailbox Gmail chez un autre fournisseur d'email. Oui, tu pouvais déjà, mais maintenant c'est un droit ! Donc c'est cool. Wait.
Il y a plus d'un milliard d'utilisateurs de Gmail, largement contraints souvent parce qu'il faut une adresse Gmail pour activer un téléphone Android. Google s'en fiche bien si quelques dizaines de millions vont voir ailleurs : ceux-là continueront forcément à échanger avec la très grande majorité qui sera restée. Et donc à fournir des données à Google. Or c'est de données que se nourrit Google, pas d'utilisateurs. Google s'en cogne, que tu « portes tes données » ailleurs, soyons sérieux.
Les GAFAM s'en cognent même tellement qu'ils sont en train de finaliser un joli logiciel libre qui va permettre à tout le monde de porter ses données personnelles chez un autre géant que le géant précédent.
TROP BIEN.
Pendant ce temps Facebook empêche les clients tiers d’accéder à tes messages persos et Twitter change son API pour limiter la possibilité d'afficher des flux sans publicité. Tu peux porter des données ailleurs, ça ils s'en foutent (et d'ailleurs, où ?), mais tu dois garder ton attention sur ce qui compte vraiment : la pub. Et la pub ne s'affiche que si tu restes dans l'écosystème hégémonique qu'elle impose au Web et qui arrange bien nos gouvernements.
C'est pour ça que la position de la Quadrature sur la décentralisation est FONDAMENTALE. C'est pour ça qu'en affirmant qu'on peut s'appuyer sur l'article 13 pour développer des services décentralisés, la Quadrature est bien dans son rôle de protection des libertés.
C'est pour ça qu'il faut DÉFONCER cette notion de « droit à la portabilité des données » et la remplacer dans tous nos combats par un « droit à l'accessibilité des données ». Imposer que NOS données puissent être lues par NOUS avec l'outil qu'on choisit, quel qu'il soit, où que ces données soient stockées. Même si c'est chez Facebook.
Ça ne changera rien, ou pas grand chose, au modèle économique dominant, mais ça permettra à tous ceux qui souhaitent en sortir de le faire sans laisser leurs amis derrière eux. C'est, peu ou prou, le modèle d'ActivityPub, par exemple, mais nous devons étendre ce modèle à TOUTES nos données personnelles, y compris passées, pour que puisse se développer une autre économie du Web qui prenne en compte l'existant.
Je ne crois pas aux ruptures. Les humains sont beaucoup trop flemmards pour ça.
Imposer l'accès aux données personnelles c'est la garantie qu'un Internet décentralisé continuera à exister, même si c'est en parallèle de l'autre. Et tant pis. Et tant mieux, même : c'est justement parce que cette idée ne détruit pas le modèle économique des GAFAM qu'il a une (toute petite) chance d'être soutenu par le politique. Restons pragmatiques. On démolira l'existant seulement quand on aura construit le remplaçant.
Et je ne dis pas ça parce que j'en ai besoin pour Caliopen.
En tous cas pas que.
";s:7:"content";s:18203:"
17 octobre 2018 - Pour avancer encore dans nos discussions sur le statut des hébergeurs et la régulation d'Internet, nous partageons aujourd'hui une tribune de Laurent Chemla, membre de La Quadrature du Net.
Avec les communiqués de La Quadrature du Net autour de la Directive Droit d'Auteur et les différentes réactions et tribunes qu'ils ont suscité, pas mal de choses ont été dites, critiquées, expliquées et décortiquées.
Quelques points pourtant sont restés à mon sens trop peu développés.
Mais, first thing first, je voudrais d'abord expliquer ma propre position sur le sujet du fameux « statut intermédiaire » entre éditeur et hébergeur, que La Quadrature a très finement choisi de nommer « afficheur ». Et pour ça je vais devoir vous raconter ma vie (comme d'habitude, oui).
Je te préviens c'est long et chiant. Tu peux retourner sur Twitter tout de suite.
C'était en 1997, je crois, que ce thème a été abordé pour la première fois. J'étais à l'époque vice-président d'un des ancêtres de LQDN : l'Association des Utilisateurs d'Internet (AUI). L'AUI avait, assez naïvement, déjà classé les intermédiaires techniques en trois catégories : FAI, FSI et FHI. Respectivement : fournisseur d'accès, de services, et d'hébergement. Le FAI a des obligations (couverture du territoire, neutralité), le FSI a des contrats (c'est un simple commerçant), et le FHI est transparent (il n'a aucun rôle éditorial et en contrepartie aucune responsabilité équivalente à ce que la loi de 1881 sur la Presse impose aux divers intermédiaires de la chaîne de responsabilité éditoriale).
La case « fournisseur de services » (puisque c'est surtout d'elle qu'il s'agit) était, à l'époque, pensée comme regroupant votre serveur de mail, votre vendeur de nom de domaine, ce genre de bidules techniques qui ne relève clairement ni de l'accès ni de l'hébergement proprement dit. Tout ce qui n'est ni fournisseur d'accès ni totalement transparent tombait dans ce statut.
Une autre façon de présenter les choses serait de définir l'accès comme la fourniture des droits fondamentaux à l'expression et à l'information, et l'hébergement comme le moyen de ces mêmes droits fondamentaux. Un peu comme un parallèle à l'enseignement de la lecture et à la Presse. Et ce qui ne relève ni de l'accès ni du moyen tombe dans le simple commerce.
Il peut sembler évident que, de ce point de vue, un intermédiaire qui - de facto - choisit ce qu'il diffuse ou non (parce qu'il hiérarchise les contenus de ses utilisateurs au point d'en faire disparaître certains, par exemple), n'étant pas « transparent », tombe dans cette case. En tous cas, à l'époque, ça semblait suffisamment évident à certains pour me démissionner de l'AUI au prétexte que je ne considérais pas que les choses étaient aussi simples.
Ma position (qui n'a que peu varié depuis) était que, d'une part, la totale déresponsabilisation des hébergeurs conduirait inévitablement à des services spécialisés dans la diffusion de la haine (« Mais oh la la c'est pas ma faute si tous les haineux m'ont choisi comme hébergeur M. le juge : je suis totalement transparent moi », toute ressemblance avec le 18-25 d'une certaine période étant fortuite), et que d'autre part en tant que petit hébergeur (j'étais petit hébergeur à cette époque) j'aurais bien du mal à dormir en sachant que mes machines servaient à diffuser de la haine sans que je n'y puisse rien (« transparence » oblige).
Forcément, ce type d'idée ne facilite pas les convictions tranchées, bien binaires comme il faut.
Pour me sortir de ce qui ressemblait à une contradiction (défendre la liberté d'expression mais rester quand même un citoyen « non transparent »), j'ai fini par développer une position, sinon intermédiaire, au moins un peu plus complexe que le « tout ou rien » : dans ma vision l'hébergeur était un « fournisseur de liberté d'expression », un statut spécial, une sorte de « reconnaissance d'utilité publique » si vous voulez.
En tant que tel il devenait irresponsable des contenus hébergés, MAIS il s'engageait à ne pas intervenir sur ces contenus SAUF à en répondre SYSTÉMATIQUEMENT devant la justice.
Si jamais je tombais sur un site négationniste parmi ceux que j'hébergeais, et que j'en coupais l'accès, je risquais d'être condamné pour ça, et ça m'allait très bien : de la même manière que j'engage ma responsabilité pénale si je cogne sur le type qui essaie de voler le sac d'une vieille dame dans la rue, je laissais à la justice - saisie automatiquement - la décision de dire si j'avais agi à raison ou non.
Pour résumer, j'avais développé un cadre contractuel en parallèle, que l'hébergeur se devait de respecter pour bénéficier de ce statut (mais je préfère rester hahaha bref).
C'est là que nos chers juristes m'ont expliqué que « c'est pas con mais c'est pas possible : y'a pas de qualification pénale pour censure abusive dans notre droit ».
What ?
Eh bah oui : si c'est l'État qui censure la Presse ou les Syndicats, il existe un article de loi pour porter plainte. Mais si c'est un commerçant qui censure un particulier, y'a pas. Et c'est logique, puisqu'à l'époque où ces textes ont été écrits, personne ne pensait qu'un jour le simple citoyen aurait accès à l'expression publique. Oui, ok, c'est un droit constitutionnel, carrément un « Droit de l'Homme » même, mais celui-là n'est pas protégé par la loi. Voilà.
Et il ne l'est toujours pas, 20 ans plus tard.
Bon j'avoue qu'à ce stade des débats les choses se sont un peu compliquées et que - je résume, je t'ai dit ! - je me suis fait démissionner de l'association pour cause d'hérésie. Et j'ai un peu lâché l'affaire.
Pendant 20 ans, ouais.
Retour au temps présent. Il ne t'aura pas échappé que ma vision du passé n'est pas exactement celle qui est aujourd'hui défendue par La Quadrature. Déjà parce que c'est pas moi qui décide de la position de La Quadrature. Mais surtout parce qu'Internet n'est pas TOUT À FAIT le même qu'il y a 20 ans : l'avènement du « Web 2.0 » a changé la nature de l'hébergement, en créant des services réunissant sur la même « page » les publications d'une foule de différents acteurs. Benjamin l'explique très bien dans sa tribune.
Mais ce qui compte, pour moi, et mon histoire passée l'explique sans doute, c'est qu'on débatte ENFIN de ça : oui, ok, bien sûr, il ne faut pas qu'un hébergeur soit responsable des contenus publiés par ses utilisateurs. Parce que s'il l'est, il sera obligé de sélectionner ces contenus. Et que donc - toutes choses étant égales par ailleurs - toute opinion un peu divergente de celle de ceux qui font la loi sera petit à petit supprimée de l'espace public. C'est comme ça.
MAIS - et c'est un PUTAIN DE GROS MAIS - il doit avoir, en contrepartie, un devoir de neutralité. Parce que s'il n'est pas responsable, alors en échange IL NE DOIT PAS CENSURER. Rien. Jamais. Sauf à en assumer la responsabilité. Et oui, je considère que trier les documents, si ça conduit à toujours rendre invisibles les mêmes, c'est encore de la censure.
Ça se discute ? Discutons-en.
Et oui, la Quadrature défend l'idée que - s'il fait le choix de censurer - alors il ne passe pas devant un tribunal pour ça (rappel : y'a pas de loi qui le permette) mais il perd sa qualité d'hébergeur et [re]devient un simple intermédiaire, qualifié d'afficheur pourquoi pas. Un FSI au sens antique de l'AUI. C'est son contrat qui prévaut dans ses rapports avec ses utilisateurs MAIS il perd - au moins en partie - son irresponsabilité totale.
Ça se discute ? Discutons-en.
Et oui, la Quadrature propose que ce statut intermédiaire « d'afficheur » ne s'applique qu'à certaines conditions (de taille, de position hégémonique, de pouvoir...) et DONC que certains puissent conserver le statut d'hébergeur tout en choisissant des règles de modération autres que strictement neutres.
Ça se discute ? Discutons-en.
Par exemple, je suis personnellement favorable à ce qu'une des conditions pour passer du statut d'hébergeur à celui d'afficheur soit le choix du modèle économique : le tien est basé sur l'exploitation commerciale des données personnelles de tes utilisateurs ? Ok, t'es afficheur, pas hébergeur.
Parce que oui, le modèle économique, ça compte aussi ! Parce que quand ton revenu dépend de la publicité, alors FORCÉMENT tu as intérêt à ne pas fâcher tes clients (les publicitaires, donc), et FORCÉMENT tu vas avoir envie de privilégier certains contenus à même de retenir l'attention de leurs cibles, et FORCÉMENT tu vas être poussé à ne pas mélanger leurs publicités à des contenus, disons, discutables.
Et donc, FORCÉMENT, tu n'es plus neutre (et si tu essaies quand même de l'être, ce qui est le cas de mes amis de Qwant par exemple, tu te retrouves à lutter contre la puissance économique de ceux qui - n'ayant pas plus d'obligations que toi tout en n'ayant pas la même éthique que toi - ont mille fois plus de clients potentiels que toi. Bon courage).
Accessoirement, je préfère aussi le rappeler, le modèle « publicité contre gratuité » nous conduit aussi irrémédiablement dans le mur de la minitelisation du Web que le modèle capitaliste nous conduit dans le mur de la disparition du vivant (je résume, je te l'ai déjà dit). Parce que pour vendre plus de pub - ou pour la vendre plus cher - tu vas devoir avoir plus d'utilisateurs, tout simplement. Ce qui conduit très logiquement à voir apparaître des géants hégémoniques et à la disparition, par asphyxie économique, des plus petits. Et donc à un pouvoir démesuré sur la liberté d'expression pour ceux qui restent. C'est le modèle qui veut ça.
Bref. Tout ça se discute. Alors discutons-en.
Sans anathème, de préférence : j'ai déjà vécu ça et ça ne m'a pas plu des masses.
On peut discuter. On doit discuter. J'ai mes limites, bien sûr : pour moi il n'existe pas de liberté sans responsabilité donc, pour moi, celui qui prend la liberté de censurer ce qui lui déplaît prend en partie la responsabilité de ce qu'il diffuse. C'est un principe, mais il se discute, il s'amende, il prend en compte la réalité. Sans insultes et sans parti-pris : si je n'entends pas d'arguments pour me faire changer d'avis, la discussion va vite s'arrêter là.
Bref.
J'ai pas fini.
Ne t'y trompes pas, ami lecteur masochiste qui a tenu jusque-là : même s'ils semblent aller dans mon sens, quand les pouvoirs en place votent l'article 13 de la directive Copyright, ou même le RGPD, ils ne sont pas mes amis. Du tout. Parce qu'ils favorisent ceux qu'ils disent combattre.
L'obligation de filtrage automatisé imposée par l'article 13 ne dérange EN RIEN les GAFAM : elle ne fait qu'avaliser une pratique déjà en place et VOULUE par ces mêmes GAFAM, puisque c'est à la base même de leur modèle économique (filtrer pour mieux attirer la cible des publicitaires et garantir un environnement « sain »). Son seul aspect positif (et encore : mon petit doigt m'a dit qu'on risquait gros pendant le trilogue en cours), c'est qu'il introduit une distinction entre hébergeur et intermédiaire pratiquant « l'optimisation des contenus », ce qui permet l'excellente chose (selon moi) que nous ayons ENFIN ce débat là.
C'est d'ailleurs ce que disent @Calimaq et La Quadrature quand ils rappellent qu'il est PLUTÔT BON que ces mastodontes ne bénéficient plus de l'exception totale de responsabilité des contenus. Et j'en suis bien d'accord. Mais ça s'arrête là !
Je me doute bien que ça ne fait pas très plaisir aux GAFAM de se retrouver avec une responsabilité potentielle, mais ne nous leurrons pas : tout ça n'est rien d'autre que la mise en place d'un rapport de forces entre l'UE et Google/Facebook et al. pour que la première puisse mieux négocier ensuite avec les seconds le type de filtrage qu'il faudra mettre en place.
L'UE a intériorisé le fait que presque rien n'existe qui ne passe par la poignée de « géants du Net » et que c'est donc là, et nulle part ailleurs, que le pouvoir peut s'exercer. L'Internet décentralisé, tel que « nous » le souhaitons, n'est pas contrôlable. L'Internet des GAFAM l'est, et c'est exactement ce que souhaitent les États, ne soyons pas naïfs. Google, selon cette étude est le plus grand bénéficiaire du RGPD. Probablement pas par hasard.
Pour prendre l'exemple français : imposer l'exception culturelle telle que voulue par nos très chers ayant-tous-les-droits nécessite que les contenus soient « optimisés » pour afficher un certain pourcentage « d’œuvres » françaises. Permettre à une nouvelle HADOPI d'empêcher efficacement le streaming illicite des évènements sportifs suppose que le nombre de services de streaming soit limité à quelques géants. Montrer ses muscles avant les prochaines élections européennes - pour tenter d'éviter qu'une certaine droite ne remporte trop de sièges - nécessite qu'on impose (très bientôt) la censure « en moins d'une heure » des contenus terroristes. Ce que seuls quelques géants ont la capacité de faire.
Les autres, non seulement « les petits » mais aussi tous ceux qui n'ont pas la censure pour modèle économique, risquent de se retrouver de facto hors la loi et de disparaître ? Oui, et c'est pas pire, pour un pouvoir qui souhaite le retour à un réseau hypercentralisé qu'il pourra mieux contrôler.
Notre pays a l'habitude des réseaux très centralisés dans lesquels l'État dispose du pouvoir d'imposer ses volontés et d'empêcher tout ou partie de l'expression publique citoyenne. C'est nous qui avons inventé le Minitel. Cocorico.
Allez, encore un mot sur le RGPD et la centralisation et je te laisse retourner faire la sieste.
Le RGPD (et la loi Lemaire avant lui) a inventé un « droit à la portabilité des données ». Haha.
Tu sais : le truc qui va te permettre d'exporter tes données personnelles depuis Facebook vers... euh. Ah. Merde.
Ah si : tu vas pouvoir exporter tes contacts et ta mailbox Gmail chez un autre fournisseur d'email. Oui, tu pouvais déjà, mais maintenant c'est un droit ! Donc c'est cool. Wait.
Il y a plus d'un milliard d'utilisateurs de Gmail, largement contraints souvent parce qu'il faut une adresse Gmail pour activer un téléphone Android. Google s'en fiche bien si quelques dizaines de millions vont voir ailleurs : ceux-là continueront forcément à échanger avec la très grande majorité qui sera restée. Et donc à fournir des données à Google. Or c'est de données que se nourrit Google, pas d'utilisateurs. Google s'en cogne, que tu « portes tes données » ailleurs, soyons sérieux.
Les GAFAM s'en cognent même tellement qu'ils sont en train de finaliser un joli logiciel libre qui va permettre à tout le monde de porter ses données personnelles chez un autre géant que le géant précédent.
TROP BIEN.
Pendant ce temps Facebook empêche les clients tiers d’accéder à tes messages persos et Twitter change son API pour limiter la possibilité d'afficher des flux sans publicité. Tu peux porter des données ailleurs, ça ils s'en foutent (et d'ailleurs, où ?), mais tu dois garder ton attention sur ce qui compte vraiment : la pub. Et la pub ne s'affiche que si tu restes dans l'écosystème hégémonique qu'elle impose au Web et qui arrange bien nos gouvernements.
C'est pour ça que la position de la Quadrature sur la décentralisation est FONDAMENTALE. C'est pour ça qu'en affirmant qu'on peut s'appuyer sur l'article 13 pour développer des services décentralisés, la Quadrature est bien dans son rôle de protection des libertés.
C'est pour ça qu'il faut DÉFONCER cette notion de « droit à la portabilité des données » et la remplacer dans tous nos combats par un « droit à l'accessibilité des données ». Imposer que NOS données puissent être lues par NOUS avec l'outil qu'on choisit, quel qu'il soit, où que ces données soient stockées. Même si c'est chez Facebook.
Ça ne changera rien, ou pas grand chose, au modèle économique dominant, mais ça permettra à tous ceux qui souhaitent en sortir de le faire sans laisser leurs amis derrière eux. C'est, peu ou prou, le modèle d'ActivityPub, par exemple, mais nous devons étendre ce modèle à TOUTES nos données personnelles, y compris passées, pour que puisse se développer une autre économie du Web qui prenne en compte l'existant.
Je ne crois pas aux ruptures. Les humains sont beaucoup trop flemmards pour ça.
Imposer l'accès aux données personnelles c'est la garantie qu'un Internet décentralisé continuera à exister, même si c'est en parallèle de l'autre. Et tant pis. Et tant mieux, même : c'est justement parce que cette idée ne détruit pas le modèle économique des GAFAM qu'il a une (toute petite) chance d'être soutenu par le politique. Restons pragmatiques. On démolira l'existant seulement quand on aura construit le remplaçant.
Et je ne dis pas ça parce que j'en ai besoin pour Caliopen.
En tous cas pas que.
";s:7:"dateiso";s:15:"20181016_144552";}s:15:"20181010_164424";a:7:{s:5:"title";s:41:"Nos plaintes contres les GAFAM avancent !";s:4:"link";s:48:"https://www.laquadrature.net/fr/plaintes_gafam_2";s:4:"guid";s:37:"10636 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 10 Oct 2018 14:44:24 +0000";s:11:"description";s:4876:"
10 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes.
Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l'autorité irlandaise de protection des données, qui a commencé l'instruction des dossiers. Pourquoi est-ce l'autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ?
Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL de l'État où l'entreprise a le « centre de ses activités » dans l'Union européenne est désignée « autorité chef de file ». Cette autorité chef de file est chargée de conduire l'instruction et d'animer la coopération entre les autorités. C'est en Irlande que Apple, Facebook et Microsoft ont le centre de leurs activités européennes. La CNIL irlandaise est donc l'autorité chef de file pour instruire nos plaintes.
S'agissant d'Amazon, la plainte a été transmise à l'autorité du Luxembourg - puisque, cette fois-ci, c'est dans ce pays qu'Amazon a le centre de ses activités au sein de l'Union.
Enfin, qu'en est-il de Google ? C'est ici que la situation devient la plus intéressante.
Le RGPD prévoit une exception au mécanisme de « l'autorité chef de file ». Si une entreprise n'a pas « d'établissement principal » au sein de l'Union, mais agit principalement depuis l'étranger, la CNIL de n'importe quel État peut la contrôler (voir les lignes directrices WP244, page 11, du G291).
C'est cette exception que la CNIL française a retenue s'agissant de Google : l'entreprise ne dispose dans l'Union d'aucun « établissement principal » qui dirigerait les activités que nous dénonçons comme contraires au RGPD. Concrètement, la CNIL considère que le siège de Google à Dublin ne prend pas de décisions importantes dans notre affaire et ne doit donc pas être pris en considération.
Ainsi, la CNIL française se reconnaît compétente pour instruire directement notre plainte contre Google (et pour, en fin de course, prononcer sa sanction). Toutefois, elle nous indique qu'elle compte conduire ce dossier en coopération avec les autres CNIL, avec lesquelles elle aurait commencé à travailler lors de leur dernière réunion européenne du 25 et 26 septembre. C'est une bonne chose.
Dans l'ensemble, la situation est des plus encourageantes : nos plaintes avancent concrètement et celle contre Google reste dans les mains d'une autorité dont les dernières décisions ont toutes imposé strictement la notion de « consentement libre », qui est au cœur de nos actions.
Nous vous garderons informés des prochains avancements sur ces dossiers.
En attendant, nous vous rappelons que nos plaintes sont libres de droit (disponibles ici) : n'hésitez pas à en reprendre les arguments (ils ont été pensés pour être faciles à reprendre) afin de rédiger des plaintes individuelles ou collectives contre d'autres entreprises - qui ne manquent pas pour violer le RGPD.
1. Le G29 était l'organisation créée en 1995 pour regrouper les CNIL de tous les États de l'Union européenne et dégager des positions communes. Le RGPD a transformé le G29 en un nouveau « Comité Européen de la Protection des Données », qui reprend la même mission et organisation mais se voit désormais confier des pouvoirs de décisions dans le cadre de la nouvelle coopération entre les différentes CNIL
";s:7:"content";s:4876:"
10 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes.
Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l'autorité irlandaise de protection des données, qui a commencé l'instruction des dossiers. Pourquoi est-ce l'autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ?
Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL de l'État où l'entreprise a le « centre de ses activités » dans l'Union européenne est désignée « autorité chef de file ». Cette autorité chef de file est chargée de conduire l'instruction et d'animer la coopération entre les autorités. C'est en Irlande que Apple, Facebook et Microsoft ont le centre de leurs activités européennes. La CNIL irlandaise est donc l'autorité chef de file pour instruire nos plaintes.
S'agissant d'Amazon, la plainte a été transmise à l'autorité du Luxembourg - puisque, cette fois-ci, c'est dans ce pays qu'Amazon a le centre de ses activités au sein de l'Union.
Enfin, qu'en est-il de Google ? C'est ici que la situation devient la plus intéressante.
Le RGPD prévoit une exception au mécanisme de « l'autorité chef de file ». Si une entreprise n'a pas « d'établissement principal » au sein de l'Union, mais agit principalement depuis l'étranger, la CNIL de n'importe quel État peut la contrôler (voir les lignes directrices WP244, page 11, du G291).
C'est cette exception que la CNIL française a retenue s'agissant de Google : l'entreprise ne dispose dans l'Union d'aucun « établissement principal » qui dirigerait les activités que nous dénonçons comme contraires au RGPD. Concrètement, la CNIL considère que le siège de Google à Dublin ne prend pas de décisions importantes dans notre affaire et ne doit donc pas être pris en considération.
Ainsi, la CNIL française se reconnaît compétente pour instruire directement notre plainte contre Google (et pour, en fin de course, prononcer sa sanction). Toutefois, elle nous indique qu'elle compte conduire ce dossier en coopération avec les autres CNIL, avec lesquelles elle aurait commencé à travailler lors de leur dernière réunion européenne du 25 et 26 septembre. C'est une bonne chose.
Dans l'ensemble, la situation est des plus encourageantes : nos plaintes avancent concrètement et celle contre Google reste dans les mains d'une autorité dont les dernières décisions ont toutes imposé strictement la notion de « consentement libre », qui est au cœur de nos actions.
Nous vous garderons informés des prochains avancements sur ces dossiers.
En attendant, nous vous rappelons que nos plaintes sont libres de droit (disponibles ici) : n'hésitez pas à en reprendre les arguments (ils ont été pensés pour être faciles à reprendre) afin de rédiger des plaintes individuelles ou collectives contre d'autres entreprises - qui ne manquent pas pour violer le RGPD.
1. Le G29 était l'organisation créée en 1995 pour regrouper les CNIL de tous les États de l'Union européenne et dégager des positions communes. Le RGPD a transformé le G29 en un nouveau « Comité Européen de la Protection des Données », qui reprend la même mission et organisation mais se voit désormais confier des pouvoirs de décisions dans le cadre de la nouvelle coopération entre les différentes CNIL
";s:7:"dateiso";s:15:"20181010_164424";}s:15:"20181010_122055";a:7:{s:5:"title";s:80:"Intermédiaires techniques : un éléphant, ce n'est pas une souris en plus gros";s:4:"link";s:62:"https://www.laquadrature.net/fr/intermediaires_elephant_souris";s:4:"guid";s:37:"10635 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 10 Oct 2018 10:20:55 +0000";s:11:"description";s:34124:"
10 octobre 2018 - Nous partageons la tribune de Benjamin Bayart, publiée aujourd'hui sur son blog et poursuivant nos discussions sur le statut des hébergeurs (relire notre article sur la décentralisation, la tribune de Calimaq et celle d'Arthur).
C'est un débat ancien autour des libertés numériques, que de délimiter la responsabilité des intermédiaires techniques. Pour essayer de raconter ça, il faut que je fasse appel à des notions assez nombreuses, et parfois peu habituelles dans le domaine. Après un petit rappel des positions historiques, sur les notions d'éditeur et d'hébergeur, je vais poser quelques notions venues d'autres domaines, ou de phénomènes plus récents. Le but est d'essayer de proposer une grille de lecture différente : un troisième statut, quelque part entre éditeur et hébergeur, et les conséquences que ça porte.
On peut arriver à la même conclusion (ce troisième statut) par d'autres arguments, dont je n'ai pas besoin pour articuler mon raisonnement. J'ai regroupé ces arguments, pour au moins les citer, qu'ils ne donnent pas l'impression d'avoir été oublié.
Tout ça est le fruit de beaucoup de discussions. L'idée de quelque chose entre éditeur et hébergeur est sortie de discussions ces 3-4 dernières années à la quadrature. La façon dont j'articule entre eux ces différents éléments est le fruit de mon expérience personnelle, le mélange des réflexions de plusieurs collectifs.
Contexte historique
On peut faire remonter la question, en France, à l'affaire "Estelle Hallyday contre Altern". Ce n'est pas la première fois que la question se posait, mais c'est celle qui a marqué les esprits.
Altern était un hébergeur associatif, articulé avec une TPE (la TPE permettait au mec de manger, l'association hébergeait gratuitement). Près de 50.000 sites perso étaient hébergés chez Altern. On situe mal, mais 50.000 sites, à la fin des années 90, c'est un morceau colossal du web en France. Et toutes ces pages sont hébergées gratuitement, sans pub, sans contre-partie, par une association.
Des photos dénudées d'Estelle Hallyday avaient été publiées dans la presse. Un petit malin les a scannées et mises en ligne sur son site. La dame a porté plainte... contre l'hébergeur. À aucun moment la police ou la justice ne se sont intéressées à savoir qui était derrière le site, le nom de l'hébergeur leur suffisait bien. Il a été très lourdement condamné, une somme déraisonnable qui a forcé à fermer le volet associatif d'Altern : le risque était devenu trop grand. Une FAQ de 1999 sur l'affaire redonne les éléments clefs de la discussion de l'époque.
C'est cette histoire qui a été utilisée pour expliquer aux députés et sénateurs de l'époque que nous avions un problème dans le numérique. On se trompait de responsable devant la justice dans les affaires de presse (diffamation, injure, atteinte à la vie privée, etc). Le législateur français a mis très longtemps à converger vers une solution acceptable. C'est autour de 2004 que le débat arrive à la bonne conclusion.
Position définie par la LCEN
La LCEN organise en 2004 la responsabilité entre trois types d'acteurs1. Les fournisseurs d'accès et opérateurs réseaux, qui transportent l'information, les hébergeurs qui stockent l'information, et les éditeurs qui publient le contenu. Les éditeurs sont responsables de ce qui est publié, et assument les propos de l'auteur, en particulier dans les affaires dites de presse (diffamation, injure, publication d'informations portant atteinte à la vie privée des gens, etc). Les hébergeurs, quant à eux, ne sont pas responsables de ce qui est publié. Il devient obligatoire de faire figurer sur tout site web une indication de qui en est l'éditeur.
Le droit européen est articulé peu ou prou de la même manière. Les opérateurs du réseau doivent se comporter comme un "mere conduit", c'est-à-dire comme un simple/pur tuyau. Ils transportent les données sans tenir compte du contenu, et donc ne peuvent être responsable de ce qui se passe sur le réseau. De mémoire cette première notion, bien plus ancienne que celle de la neutralité du net, se trouve dans des directives de 2000 sur le commerce électronique.
Dans le web de la fin des années 90, et jusqu'à la fin des années 2000, ces notions suffisent à lire le monde. Si je prend des exemples actuels que tout le monde peut comprendre, OVH est un hébergeur, l'éditeur du site https://lefigaro.fr est le journal du même nom, et FDN ou Orange, quand ils vous permettent d'accéder au contenu mis en ligne par ce site web ne sont pas responsables si un de ces contenus est illégal. Et ce, que cette illégalité soit un délit de presse ou un autre délit (par exemple, la publication sans autorisation d'un contenu soumis au droit d'auteur, une des variantes de ce que la loi nomme contrefaçon, même si le terme semble bien impropre2).
La jurisprudence est venue apporter des nuances, parfois intéressantes, parfois idiotes. Dans les jurisprudences intéressantes : en 2010 Tiscali, qui hébergeait les pages perso de ses abonnés, et aurait à ce titre dû être considéré comme hébergeur, s'est vu requalifier par la Cour de cassation en éditeur parce qu'elle ajoutait de la publicité dans ces pages. Le juge a estimé que modifier le contenu, avec des visées lucratives, en faisait un éditeur et pas un simple hébergeur.
Par ailleurs, la LCEN prévoit que quand l'hébergeur a connaissance d'un contenu illicite, il doit le retirer rapidement. Le Conseil Constitutionnel, qui avait été saisi de la LCEN, avait bien précisé que ça ne pouvait être applicable que pour les contenus manifestement illicites (ergo, dans la pensée de l'époque, les contenus manifestement pédo-pornographiques et/ou manifestement néo-nazis). Les jurisprudences diverses, en France et en Europe, sont venues affaiblir cette décision du Conseil Constitutionnel. On considère de nos jours que quasiment toutes les illégalités sont manifestes3.
Évolution du paysage
Le développement de ce que les startupeurs digitaux appellent le Web 2.0 vient un peu compliquer l'affaire, mais à peine. Le Web 2.0, c'est le fait qu'une plateforme est mise à disposition du public, et que c'est le public qui produit le contenu. Par exemple les commentaires organisés en forum de discussion sous un article d'actualité. Par exemple les forums de chat fournis par tel ou tel site web pour la communauté de ses habitués. Par exemple Facebook au tout début.
L'analyse reste sensiblement la même. L'utilisateur est auteur-éditeur du message qu'il publie, de la page qui regroupe ses messages. Et la plateforme est analysée comme un hébergeur, qui se contente d'afficher au lecteur les messages regroupés comme le lecteur le lui a demandé, c'est-à-dire dans l'ordre chronologique des publications de chacun des utilisateurs dont il suit le fil de publication. C'est assez assimilable dans la théorie, à ce que fait un agrégateur de flux RSS, pour les gens qui voient ce que c'est.
Mais la pratique change. Ces grandes plateformes interviennent le plus en plus dans le flux des informations. Elles hiérarchisent l'information, selon des critères qui n'appartiennent qu'à elles. Strictement, elles hébergent un contenu qu'elles n'ont pas produit, le plus souvent, mais choisissent l'ordre d'affichage, et même si un contenu sera affiché ou non pour un lecteur donné. Plus elles interviennent dans l'affichage des contenus, moins leur rôle d'hébergeur passif semble adapté.
Responsabilité du fait d'autrui
Le principe de droit sous-jacent à une bonne part du débat est le fait que nul ne peut être tenu responsable du fait d'autrui. Si j'écris sur mon mur Facebook des choses contraires à la loi, il est légitime que j'en sois tenu responsable, et qu'on n'aille pas en faire reproche à quelqu'un d'autre (genre Facebook, qui a permis la diffusion de mon message, mon FAI qui m'a permis de publier, ton FAI qui t'a permis de le lire, le fabriquant de ton écran qui a permis l'affichage, ton marchand de lunettes qui t'a permis de lire malgré ta myopie, etc).
Tenir Facebook pour responsable de ce qu'écrivent les gens, c'est pas bon. Mais prétendre que Facebook ne fait rien et donc n'est responsable de rien, c'est pas bon non plus, parce que ce n'est pas vrai. On voit bien que quelque chose cloche ici. Il nous manque une notion, qui décrive ce que fait Facebook. Quand nous travaillons sur ces sujets, à La Quadrature, le mot que nous utilisons, c'est "afficheur". Facebook serait un afficheur, et en tant qu'afficheur il n'est pas neutre. C'est un intermédiaire technique qui n'est pas neutre dans l'exécution de son rôle, il doit donc logiquement assumer la responsabilité de ce qui découle de cette non-neutralité.
La neutralité du net
Les débats sur la neutralité du net sont pour moi, en dernière analyse, des débats sur un intermédiaire technique particulier, le fournisseur d'accès à Internet (et plus généralement, l'opérateur réseau).
Cet intermédiaire technique est tout-puissant. Il peut tout. Il peut m'empêcher d'accéder à un contenu, il peut ralentir l'accès à un service jusqu'à le rendre pénible à utiliser, il peut dégrader un service (perdre un paquet sur dix dans le flux d'une discussion audio la rend extrêmement pénible par exemple). Il peut surveiller à peu près la totalité de ce que je fais.
Du point de vue de l'abonné, il est tout-puissant, et incontournable : les gens n'ont qu'un seul accès à Internet chez eux, ils ne jonglent pas entre 5 abonnements à Internet à tout moment, utilisant l'abonnement Machin pour accéder à un site et l'abonnement Truc pour accéder à un autre. Les gens normaux (quelques geeks dans mon genre font autrement) ont un seul opérateur pour accéder à Internet et ils espèrent bien accéder à tout Internet, de manière indiscriminée.
Ce que disent les textes sur la neutralité du net peut se résumer assez facilement : en tant qu'intermédiaire technique incontournable, ayant de grands pouvoirs, l'opérateur n'a pas le droit d'utiliser ces grands pouvoirs n'importe comment. En particulier, s'il s'en sert pour (dé)favoriser un contenu, une adresse source, une adresse de destination, un type de service, etc, ça lui sera reproché. S'il sort d'une stricte neutralité d'intermédiaire technique sans raison valable, ça lui sera reproché.
Et les texte européens listent les raisons valables connues : la sécurité du réseau, le bon fonctionnement du réseau, une décision de justice, etc. Un accord commercial avec une plateforme n'est, ainsi, pas une raison valable de prioriser des flux.
Les textes sur la neutralité du net ne parlent pas de la responsabilité éditoriale, bien entendu, mais ils posent des principes de droit qui sont utiles : un intermédiaire technique, quand il sort de la neutralité qu'on attend de lui, prend une responsabilité, il devient responsable de ce qui arrive suite à cette sortie de route.
La transposition à la responsabilité éditoriale est cependant assez simple : quand une plateforme joue un rôle central dans la capacité du public à diffuser de l'information, ou à accéder à l'information, et qu'elle sort de la neutralité technique, alors elle devrait recevoir la responsabilité des effets de cette sortie. Que ce soient des effets économiques (concurrence, distorsion d'un marché, etc) ou des effets sociaux (montée des violences, montée des haines, etc). On ne peut pas jouer un rôle actif dans une position de puissance et dire qu'on n'est pas responsable des effets du rôle qu'on joue.
Un opérateur dominant
Une autre notion intéressante est celle, venue du droit de la concurrence, d'acteur dominant sur un marché. C'est une notion qui s'analyse de manière locale, sur un marché donné. Ainsi si on s'intéresse au marché européen, au marché français, ou au marché d'un bassin de vie, les acteurs dominants identifiés ne sont pas les mêmes.
Certaines pratiques sont interdites pour un ou des acteurs dominants sur un ou des marchés donnés.
Ainsi, un tarif d'éviction. C'est quand un acteur, dominant sur un marché, pratique des prix tellement bas qu'il empêche les autres de s'installer sur ce marché, et donc s'assure la perpétuité de sa position dominante. Ainsi, si autour de chez moi il y a une boulangerie qui a une part tellement forte du marché des croissants qu'on la considère comme un acteur dominant (genre 90% des ventes de croissants du coin). Quand une nouvelle boulangerie ouvre, elle fait une promotion intenable (le croissant à 10 centimes, mettons). On peut analyser ça comme la pratique d'un tarif d'éviction. Dans une boulangerie qui a une petite part de marché, ce serait simplement une promo pour attirer le client. Dans une boulangerie qui détient une part colossale du marché, c'est un tarif destiné à tuer les concurrents et assurer un monopole pour l'opérateur dominant sur le marché une fois que les concurrents auront coulé, auront été évincés (d'où le nom "tarif d'éviction").
Il faut bien analyser ça sur le bon marché. En effet, la position dominante de la boulangerie ne joue pas sur le marché des fruits et légumes, ou ne joue pas sur le marché national des croissants. Elle fait bien 90% dans ma ville, mais un pourcentage infime au niveau national ou européen.
On peut essayer de transposer ces principes dans le cas qui nous intéresse. Les grandes plateformes sont des acteurs dominants sur certains marchés. Traditionnellement, on fait cette analyse sur un vrai marché, commercial. On peut par exemple se demander si Facebook et Google sont des acteurs dominants sur le marché de la publicité en ligne. Mais on peut utiliser cet outil pour penser des choses qui ne sont pas des marchés au sens commercial, et se demander si Facebook et Twitter jouent un rôle central dans la diffusion des contenus publiés par leurs utilisateurs, et si on peut donc leur reprocher les effets de leurs décisions en raison de leur taille. La même décision, de la part d'un acteur hyper minoritaire et n'ayant pas d'influence significative sur le "marché" (ou sur le phénomène social) considéré n'aurait pas la même responsabilité.
La taille est bien un critère pertinent pour juger de la responsabilité des acteurs. Non, un éléphant, ce n'est pas une souris en plus gros.
La censure
Facebook, ou Apple, opèrent une censure. Une censure a priori, où certains contenus sont censurés d'autorité, selon des procédures floues et discrétionnaires, le plus souvent sans appel et sans contradictoire. C'est un rôle actif, qui sort totalement de la notion d'intermédiaire technique neutre. Et qui est le fait d'acteurs dominants sur les "marchés" considérés.
On peut soit considérer que ces censeurs sont sortis de leur rôle neutre et technique, et que donc ils perdent l'exemption générale de responsabilité, qu'ils portent atteinte au principe de neutralité qu'on attend d'eux (même si, pour l'heure, aucun texte de loi ne prévoit ça de manière claire). Soit considérer, ce qui est sensiblement équivalent, qu'ils jouent un rôle actif dont ils sont responsables. N'ayant pas réussi à censurer les contenus illégaux, alors qu'ils jouent un rôle actif de censure a priori (Facebook censure les images dont ses outils supposent que ce sont des nus, avec régulièrement des erreurs) et de censure a posteriori (ces plateformes censurent sur signalement par les utilisateurs), on peut les considérer comme responsable de l'échec de leur censure.
Dans un cas, on estime que ces plateformes devraient se voir interdire la censure discrétionnaire, qu'il devrait y avoir des mécanismes transparents et conformes au droit pour traiter les problèmes. Par exemple du notice-and-notice : quelqu'un signale qu'un contenu pose problème. Le signalement est transmis anonymement à l'auteur. L'auteur peut retirer son contenu, ou décider de persister. Si les deux parties persistent à dire qu'il y a problème, le dossier complet est transmis à la justice qui arbitre le différend. Dans une posture comme celle-là, l'intermédiaire technique est de nouveau neutre. Il n'a pas décidé si le contenu lui semblait légal ou pas. On ne peut pas le tenir responsable d'une décision.
Dans l'autre cas, on estime normal que la plateforme joue un rôle de censeur, et qu'on peut lui tenir rigueur de ses erreurs dans la censure. Auquel cas tout contenu illégal qui arrive à franchir la barrière peut lui être reproché.
Je préfère bien entendu la première solution. Mais les deux sont logiques.
Centralisation ou ouverture
Le fait qu'une plateforme soit centralisée ou non est également un critère. L'exemple qui vient spontanément en tête est la comparaison entre les systèmes de messagerie fermés (iMessage d'Apple, Messenger de Facebook, les messages directs de Twitter, etc) et les systèmes de messagerie ouverts (par exemple le mail). Ou la comparaison entre un réseau de micro-blog fermé (Twitter) et un réseau de micro-blog ouvert (Mastodon).
Dans le cas d'un système centralisé et fermé, une décision de la plateforme centrale a un effet absolu. Si je suis banni de Twitter, je suis banni de l'intégralité du réseau de Twitter. Si cette décision est arbitraire, et fondée sur des critères qui ne peuvent pas être négociés, elle est absolue et incontournable. Elle est le fait d'un acteur dominant.
Dans le cas d'un système acentré et ouvert, une décision de la plateforme qui hébergeait mon compte de me bannir a un effet bien moindre. Je peux aller ouvrir un compte sur une autre instance du même réseau (quand mon compte mail de laposte.net est fermé, je peux aller ouvrir une adresse mail ailleurs). Si un nœud du réseau se met à détenir une part élevée des comptes, alors l'analyse en position dominante redevient pertinente : quand gmail.com ou outlook.com décident d'imposer des règles en matière de mail, même si le réseau est ouvert, ils représentent une part tellement grande du réseau du mail que leur norme s'impose de fait à tous les autres. Ils deviennent bien un acteur dominant de ce réseau.
La définition des libertés
À la fin du 18e siècle, quand on a défini les libertés fondamentales, on les a défini par rapport à la puissance publique. Quand on parle de liberté d'expression, on parle d'empêcher l'État (ou le roi) de censurer de manière arbitraire. Les libertés fondamentales, les droits de l'Homme, sont définis pour protéger les citoyens, les individus, contre les abus de la puissance publique.
Typiquement, le premier amendement de la constitution américaine, qui protège la liberté d'expression, interdit au législateur de faire une loi dont l'effet serait de priver le citoyen de la libre expression de son opinion. Facebook n'étant pas législateur, ça ne le concerne pas, il peut bien censurer comme il a envie et prendre toutes décisions visant à censurer.
Le rapport asymétrique qui existe aujourd'hui entre un particulier et une grande multi-nationale crée un rapport d'une nature similaire à celui qui existe entre le citoyen et l'État, un rapport asymétrique où une seule des deux parties peut établir les clauses du contrat. Le contrat qui existe entre Facebook et ses utilisateurs n'est pas de la même nature que le contrat qui existe entre deux particuliers. Les deux signataires du contrat ne sont pas dans un rapport de force symétrique. Or tout le droit autour de la liberté de contracter suppose une adhésion, soit que chaque clause était négociable (pour un contrat de gré à gré), soit qu'on pouvait ne pas adhérer au contrat et aller chercher un service similaire ailleurs (pour un contrat d'adhésion). Bref, on suppose que les deux parties sont engagées par un consentement mutuel entre pairs.
Il y a déjà de nombreuses zones du droit où l'asymétrie du rapport de forces a été prise en compte pour définir des droits qui ne sont pas symétriques. Par exemple l'obligation de conseil d'un pro : il ne doit pas vous laisser choisir une mauvaise solution s'il sait qu'elle est mauvaise, il doit vous conseiller au mieux de vos intérêts, pas des siens. Par exemple le contrat de prêt que vous signez avec le banquier : vous n'êtes pas en position de le négocier, alors la loi a très strictement encadré ce que le banquier a le droit de vous proposer. C'est toute cette partie du droit qui permet régulièrement aux tribunaux de dire que des clauses d'un contrat étaient abusives, et qu'on doit donc considérer qu'elles n'existent pas (les juristes parlent de "clauses réputées non-écrites").
Il n'y a pas, pour le moment, de garantie des libertés dans un rapport contractuel asymétrique. Facebook, Twitter ou Google ne peuvent pas être condamnés pour censure abusive de mes propos. Seul l'État pourrait être condamné pour ça. C'est par exemple pour ça qu'il y a quelques années, avec quelques autres, nous avions rédigé une proposition de loi de défense de la liberté d'expression. On retrouve un concept similaire dans la protection des données personnelles prévue par le RGPD : le rapport asymétrique entre l'entité qui collecte des données et le particulier dont on collecte les données crée une obligation particulière du collecteur pour protéger les libertés de l'individu.
Laissé dans l'ombre
Il y a d'autres angles de lecture que je laisse dans l'ombre ici, parce qu'ils ne sont pas utiles à mon raisonnement, bien qu'ils aillent clairement dans le même sens. Je veux citer ceux que j'ai en tête, pour qu'on ne pense pas qu'ils ont été oubliés. Ils demandent souvent une analyse assez longue, et qui ne me semblait pas rigoureusement nécessaire ici.
D'abord il y a l'inversion des rapports entre sujet et objet. Dans le contrat qui me lie à mon fournisseur d'accès à Internet (FDN, ou Orange), l'accès à Internet est l'objet du contrat, et le FAI et moi en sommes les sujets. Nous convenons entre nous comment l'un va à la demande de l'autre réaliser une prestation qui porte sur l'objet. Quand un service est financé par la publicité, ce rapport s'inverse. Le contrat, le vrai contrat, celui qui fait rentrer de l'argent, est entre le publicitaire et le service. C'est ce contrat qui compte. Et dans ce contrat, je suis devenu l'objet. Le publicitaire passe un contrat avec le prestataire du service qui porte sur la mise à disposition de l'objet du contrat, à savoir l'utilisateur. Dans ce modèle l'utilisateur est devenu l'objet d'un contrat auquel il n'a pas accès. C'est vicié, de base. Ça veut dire que l'utilisateur n'a rien à attendre du prestataire, qui n'est pas à son service.
Ensuite, il y a l'économie de l'attention. Ce qui intéresse ces grands afficheurs, c'est de pouvoir focaliser l'attention des gens. Donc de mettre en avant des émotions, et ce faisant de faire passer la raison en arrière plan (les publicitaires veulent ça, ça rend beaucoup plus perméable aux messages). Les messages qui font le plus directement appel à nos émotions sont donc favorisés, que ce soient des émotions douces (oh, le jouli petit chat...) ou des émotions dures (les propos haineux, la rage de voir encore une horreur de dite, etc). Le mécanisme de la publicité a besoin de faire appel à nos émotions, et cet état émotif nous fait rester plus longtemps face aux contenus, nous fait interagir plus. C'est ce qui donne sa valeur au contenu putaclic.
Ensuite, il y a la notion d'éthique de l'entreprise. Certaines entreprises ont une éthique, ça arrive. Mais cette éthique n'est que celle portée par le pacte d'actionnaires. Que les actionnaires changent et l'éthique change. L'entreprise lucrative n'est pas mauvaise en elle-même, mais les questions éthiques y ont forcément un rôle second. Parfois, sa survie dépend de l'éthique qu'elle affiche (Free, dans son jeune temps, avait besoin de se montrer cool avec les geeks pour exister, par exemple). Mais sitôt que ce n'est plus le cas, que l'éthique n'est plus une condition de la survie, alors les questions éthiques passent en second plan, ou disparaissent complètement.
La somme
La somme de tous ces éléments nous amène bien à analyser le rôle de ces plateformes, de ces intermédiaires techniques, avec tous ces éléments.
L'action de leur propre chef, et non comme résultant d'un choix explicite et délibéré de l'utilisateur (hiérarchisation des contenus, censure discrétionnaire, etc) crée une forme de responsabilité.
Les visées lucratives jouent également un rôle : le but de la hiérarchisation est bien de maximiser le revenu publicitaire, pas de servir l'intérêt général ou les goûts du lecteur. Ce n'est pas la position neutre d'un intermédiaire technique au sens strict.
La centralisation du réseau considéré empêche de changer de "fournisseur", en empêchant l'interconnexion et la normalisation, et donc crée de fait un monopole sur le marché considéré sitôt qu'il concerne un grand nombre d'utilisateurs. On peut par exemple considérer que Facebook occupe une position de monopole de la censure sur son réseau, et une position d'acteur dominant sur le marché de la publication des contenus, et monopolistique si on le rapporte au réseau Facebook, alors qu'aucune plateforme n'est en position monopolistique pour le réseau Mastodon/Fediverse.
Enfin, la taille joue, en plus de la centralisation. Un très gros acteur sur un réseau ouvert doit être considéré comme un acteur dominant. Un acteur centralisé, mais très petit, ne crée par un dommage considérable à la société par son action, ou en tous cas pas un dommage aussi considérable que s'il était utilisé par une large part de la population.
Ce sont tous ces éléments-là qui m'amènent à penser que l'analyse de Calimaq est relativement juste. Son propos reprenait cette distinction, ce nouveau rôle, sans l'avoir convenablement introduite, ça peut dérouter.
Il y a bien un modèle de réseau qui me semble plus souhaitable socialement et économiquement, le modèle de réseau ouvert, fait de nombreux acteurs, offrant une capacité d'interconnexion, etc. Il me semble raisonnable que les acteurs qui ont un rôle dominant, soit par leur centralisation soit par leur grande taille, se voient contraints à une grande neutralité pour nous protéger contre l'arbitraire.
Je suis en désaccord avec les choix de la directive copyright. Mon approche est que la position particulière de ces grands acteurs devrait leur interdire toute censure en dehors d'un processus contradictoire, tranché par une autorité indépendante, susceptible d'appel, et passant au moment voulu par la Justice. Mais l'approche qui consiste à dire qu'ils sont des professionnels de la censure et qu'ils ont donc des obligations de résultat de ce fait est toute aussi logique. Malsaine pour la société, parce qu'on a privatisé la censure. Mais logique.
Et le fait que cette directive fasse une différence entre ces grands acteurs dangereux et des acteurs plus souhaitables socialement, c'est également un point plutôt positif.
C'est bien parce que l'éléphant n'est pas la souris qu'on a inventé des législations pour se protéger des géants économiques : de l'anti-trust, de l'anti-monopole, de la régulation sectorielle (l'industrie pharmaceutique ne répond pas aux mêmes normes que les marchands de souvenirs, par exemple).
Ce dont je suis convaincu, c'est que l'irresponsabilité associée au statut d'hébergeur tel qu'il était défini historiquement doit être revisitée. Cette irresponsabilité était une conséquence logique du fait que cet intermédiaire technique n'avait pas d'action propre, autre que la réalisation du transport ou de l'hébergement des données. Et il est certain que les grandes plateformes ont une action propre.
Je ne suis pas certain des conclusions, des critères exacts qu'il faut utiliser pour délimiter ce nouveau rôle. Ce que je propose ici c'est une piste de définition de ces critères.
1. Le législateur étant ce qu'il est, ces noms n'apparaissent jamais. On parle toujours des personnes désignées au 1. du I de l'article 6 de la LCEN, ou désignées au 1 et 2 du I de l'article... Bref, des périphrases affreuses et incompréhensibles. Il faut bien justifier le salaire des juristes.
2. En effet, si on veut s'en tenir au mot, une contrefaçon, un produit contrefait, c'est un produit qui prétend être (par exemple de telle grande marque) mais qui n'est pas. Par exemple les "fausses Rolex", ou les "fausses Nikes". Un fichier musical mis en ligne sans accord des ayants droits n'est pas véritablement contrefait. C'est vraiment le fichier musical que ça prétend, et pas une mauvaise reprise jouée par des amateurs dans leur cave. Dans un cas il y a tromperie sur la qualité de la marchandise, dans l'autre c'est bien le bon produit, mais il y a un défaut d'autorisation et/ou de rémunération. Reste que la loi amalgame les deux. Lutter contre la contrefaçon c'est autant lutter contre les faux médicaments, les imitations des grandes marques, que lutter contre le partage des œuvres entre particuliers sans accord des maisons d'édition.
3. C'est un peu à l'opposé de l'idée qu'il existe une justice : si la décision de savoir si c'est conforme à la loi ou pas est toujours manifeste, et donc simple, à quoi peuvent bien servir les juges qui ont à en décider ? Par exemple, savoir si "Le Petit Prince" est encore couvert par le droit d'auteur ou non est une question fort complexe. Il se trouve que ça dépend du pays, pour de sombres histoires de durée du droit d'auteur après la mort de l'auteur (variable d'un pays à l'autre), et de savoir si les années de guerre sont comptées ou non dans cette durée (les années de guerre ne sont pas les mêmes d'un pays à l'autre). Bien malin l'hébergeur qui sait si l'extrait du Petit Prince qui est mis en ligne chez lui est manifestement illégal, ou pas.
";s:7:"content";s:34124:"
10 octobre 2018 - Nous partageons la tribune de Benjamin Bayart, publiée aujourd'hui sur son blog et poursuivant nos discussions sur le statut des hébergeurs (relire notre article sur la décentralisation, la tribune de Calimaq et celle d'Arthur).
C'est un débat ancien autour des libertés numériques, que de délimiter la responsabilité des intermédiaires techniques. Pour essayer de raconter ça, il faut que je fasse appel à des notions assez nombreuses, et parfois peu habituelles dans le domaine. Après un petit rappel des positions historiques, sur les notions d'éditeur et d'hébergeur, je vais poser quelques notions venues d'autres domaines, ou de phénomènes plus récents. Le but est d'essayer de proposer une grille de lecture différente : un troisième statut, quelque part entre éditeur et hébergeur, et les conséquences que ça porte.
On peut arriver à la même conclusion (ce troisième statut) par d'autres arguments, dont je n'ai pas besoin pour articuler mon raisonnement. J'ai regroupé ces arguments, pour au moins les citer, qu'ils ne donnent pas l'impression d'avoir été oublié.
Tout ça est le fruit de beaucoup de discussions. L'idée de quelque chose entre éditeur et hébergeur est sortie de discussions ces 3-4 dernières années à la quadrature. La façon dont j'articule entre eux ces différents éléments est le fruit de mon expérience personnelle, le mélange des réflexions de plusieurs collectifs.
Contexte historique
On peut faire remonter la question, en France, à l'affaire "Estelle Hallyday contre Altern". Ce n'est pas la première fois que la question se posait, mais c'est celle qui a marqué les esprits.
Altern était un hébergeur associatif, articulé avec une TPE (la TPE permettait au mec de manger, l'association hébergeait gratuitement). Près de 50.000 sites perso étaient hébergés chez Altern. On situe mal, mais 50.000 sites, à la fin des années 90, c'est un morceau colossal du web en France. Et toutes ces pages sont hébergées gratuitement, sans pub, sans contre-partie, par une association.
Des photos dénudées d'Estelle Hallyday avaient été publiées dans la presse. Un petit malin les a scannées et mises en ligne sur son site. La dame a porté plainte... contre l'hébergeur. À aucun moment la police ou la justice ne se sont intéressées à savoir qui était derrière le site, le nom de l'hébergeur leur suffisait bien. Il a été très lourdement condamné, une somme déraisonnable qui a forcé à fermer le volet associatif d'Altern : le risque était devenu trop grand. Une FAQ de 1999 sur l'affaire redonne les éléments clefs de la discussion de l'époque.
C'est cette histoire qui a été utilisée pour expliquer aux députés et sénateurs de l'époque que nous avions un problème dans le numérique. On se trompait de responsable devant la justice dans les affaires de presse (diffamation, injure, atteinte à la vie privée, etc). Le législateur français a mis très longtemps à converger vers une solution acceptable. C'est autour de 2004 que le débat arrive à la bonne conclusion.
Position définie par la LCEN
La LCEN organise en 2004 la responsabilité entre trois types d'acteurs1. Les fournisseurs d'accès et opérateurs réseaux, qui transportent l'information, les hébergeurs qui stockent l'information, et les éditeurs qui publient le contenu. Les éditeurs sont responsables de ce qui est publié, et assument les propos de l'auteur, en particulier dans les affaires dites de presse (diffamation, injure, publication d'informations portant atteinte à la vie privée des gens, etc). Les hébergeurs, quant à eux, ne sont pas responsables de ce qui est publié. Il devient obligatoire de faire figurer sur tout site web une indication de qui en est l'éditeur.
Le droit européen est articulé peu ou prou de la même manière. Les opérateurs du réseau doivent se comporter comme un "mere conduit", c'est-à-dire comme un simple/pur tuyau. Ils transportent les données sans tenir compte du contenu, et donc ne peuvent être responsable de ce qui se passe sur le réseau. De mémoire cette première notion, bien plus ancienne que celle de la neutralité du net, se trouve dans des directives de 2000 sur le commerce électronique.
Dans le web de la fin des années 90, et jusqu'à la fin des années 2000, ces notions suffisent à lire le monde. Si je prend des exemples actuels que tout le monde peut comprendre, OVH est un hébergeur, l'éditeur du site https://lefigaro.fr est le journal du même nom, et FDN ou Orange, quand ils vous permettent d'accéder au contenu mis en ligne par ce site web ne sont pas responsables si un de ces contenus est illégal. Et ce, que cette illégalité soit un délit de presse ou un autre délit (par exemple, la publication sans autorisation d'un contenu soumis au droit d'auteur, une des variantes de ce que la loi nomme contrefaçon, même si le terme semble bien impropre2).
La jurisprudence est venue apporter des nuances, parfois intéressantes, parfois idiotes. Dans les jurisprudences intéressantes : en 2010 Tiscali, qui hébergeait les pages perso de ses abonnés, et aurait à ce titre dû être considéré comme hébergeur, s'est vu requalifier par la Cour de cassation en éditeur parce qu'elle ajoutait de la publicité dans ces pages. Le juge a estimé que modifier le contenu, avec des visées lucratives, en faisait un éditeur et pas un simple hébergeur.
Par ailleurs, la LCEN prévoit que quand l'hébergeur a connaissance d'un contenu illicite, il doit le retirer rapidement. Le Conseil Constitutionnel, qui avait été saisi de la LCEN, avait bien précisé que ça ne pouvait être applicable que pour les contenus manifestement illicites (ergo, dans la pensée de l'époque, les contenus manifestement pédo-pornographiques et/ou manifestement néo-nazis). Les jurisprudences diverses, en France et en Europe, sont venues affaiblir cette décision du Conseil Constitutionnel. On considère de nos jours que quasiment toutes les illégalités sont manifestes3.
Évolution du paysage
Le développement de ce que les startupeurs digitaux appellent le Web 2.0 vient un peu compliquer l'affaire, mais à peine. Le Web 2.0, c'est le fait qu'une plateforme est mise à disposition du public, et que c'est le public qui produit le contenu. Par exemple les commentaires organisés en forum de discussion sous un article d'actualité. Par exemple les forums de chat fournis par tel ou tel site web pour la communauté de ses habitués. Par exemple Facebook au tout début.
L'analyse reste sensiblement la même. L'utilisateur est auteur-éditeur du message qu'il publie, de la page qui regroupe ses messages. Et la plateforme est analysée comme un hébergeur, qui se contente d'afficher au lecteur les messages regroupés comme le lecteur le lui a demandé, c'est-à-dire dans l'ordre chronologique des publications de chacun des utilisateurs dont il suit le fil de publication. C'est assez assimilable dans la théorie, à ce que fait un agrégateur de flux RSS, pour les gens qui voient ce que c'est.
Mais la pratique change. Ces grandes plateformes interviennent le plus en plus dans le flux des informations. Elles hiérarchisent l'information, selon des critères qui n'appartiennent qu'à elles. Strictement, elles hébergent un contenu qu'elles n'ont pas produit, le plus souvent, mais choisissent l'ordre d'affichage, et même si un contenu sera affiché ou non pour un lecteur donné. Plus elles interviennent dans l'affichage des contenus, moins leur rôle d'hébergeur passif semble adapté.
Responsabilité du fait d'autrui
Le principe de droit sous-jacent à une bonne part du débat est le fait que nul ne peut être tenu responsable du fait d'autrui. Si j'écris sur mon mur Facebook des choses contraires à la loi, il est légitime que j'en sois tenu responsable, et qu'on n'aille pas en faire reproche à quelqu'un d'autre (genre Facebook, qui a permis la diffusion de mon message, mon FAI qui m'a permis de publier, ton FAI qui t'a permis de le lire, le fabriquant de ton écran qui a permis l'affichage, ton marchand de lunettes qui t'a permis de lire malgré ta myopie, etc).
Tenir Facebook pour responsable de ce qu'écrivent les gens, c'est pas bon. Mais prétendre que Facebook ne fait rien et donc n'est responsable de rien, c'est pas bon non plus, parce que ce n'est pas vrai. On voit bien que quelque chose cloche ici. Il nous manque une notion, qui décrive ce que fait Facebook. Quand nous travaillons sur ces sujets, à La Quadrature, le mot que nous utilisons, c'est "afficheur". Facebook serait un afficheur, et en tant qu'afficheur il n'est pas neutre. C'est un intermédiaire technique qui n'est pas neutre dans l'exécution de son rôle, il doit donc logiquement assumer la responsabilité de ce qui découle de cette non-neutralité.
La neutralité du net
Les débats sur la neutralité du net sont pour moi, en dernière analyse, des débats sur un intermédiaire technique particulier, le fournisseur d'accès à Internet (et plus généralement, l'opérateur réseau).
Cet intermédiaire technique est tout-puissant. Il peut tout. Il peut m'empêcher d'accéder à un contenu, il peut ralentir l'accès à un service jusqu'à le rendre pénible à utiliser, il peut dégrader un service (perdre un paquet sur dix dans le flux d'une discussion audio la rend extrêmement pénible par exemple). Il peut surveiller à peu près la totalité de ce que je fais.
Du point de vue de l'abonné, il est tout-puissant, et incontournable : les gens n'ont qu'un seul accès à Internet chez eux, ils ne jonglent pas entre 5 abonnements à Internet à tout moment, utilisant l'abonnement Machin pour accéder à un site et l'abonnement Truc pour accéder à un autre. Les gens normaux (quelques geeks dans mon genre font autrement) ont un seul opérateur pour accéder à Internet et ils espèrent bien accéder à tout Internet, de manière indiscriminée.
Ce que disent les textes sur la neutralité du net peut se résumer assez facilement : en tant qu'intermédiaire technique incontournable, ayant de grands pouvoirs, l'opérateur n'a pas le droit d'utiliser ces grands pouvoirs n'importe comment. En particulier, s'il s'en sert pour (dé)favoriser un contenu, une adresse source, une adresse de destination, un type de service, etc, ça lui sera reproché. S'il sort d'une stricte neutralité d'intermédiaire technique sans raison valable, ça lui sera reproché.
Et les texte européens listent les raisons valables connues : la sécurité du réseau, le bon fonctionnement du réseau, une décision de justice, etc. Un accord commercial avec une plateforme n'est, ainsi, pas une raison valable de prioriser des flux.
Les textes sur la neutralité du net ne parlent pas de la responsabilité éditoriale, bien entendu, mais ils posent des principes de droit qui sont utiles : un intermédiaire technique, quand il sort de la neutralité qu'on attend de lui, prend une responsabilité, il devient responsable de ce qui arrive suite à cette sortie de route.
La transposition à la responsabilité éditoriale est cependant assez simple : quand une plateforme joue un rôle central dans la capacité du public à diffuser de l'information, ou à accéder à l'information, et qu'elle sort de la neutralité technique, alors elle devrait recevoir la responsabilité des effets de cette sortie. Que ce soient des effets économiques (concurrence, distorsion d'un marché, etc) ou des effets sociaux (montée des violences, montée des haines, etc). On ne peut pas jouer un rôle actif dans une position de puissance et dire qu'on n'est pas responsable des effets du rôle qu'on joue.
Un opérateur dominant
Une autre notion intéressante est celle, venue du droit de la concurrence, d'acteur dominant sur un marché. C'est une notion qui s'analyse de manière locale, sur un marché donné. Ainsi si on s'intéresse au marché européen, au marché français, ou au marché d'un bassin de vie, les acteurs dominants identifiés ne sont pas les mêmes.
Certaines pratiques sont interdites pour un ou des acteurs dominants sur un ou des marchés donnés.
Ainsi, un tarif d'éviction. C'est quand un acteur, dominant sur un marché, pratique des prix tellement bas qu'il empêche les autres de s'installer sur ce marché, et donc s'assure la perpétuité de sa position dominante. Ainsi, si autour de chez moi il y a une boulangerie qui a une part tellement forte du marché des croissants qu'on la considère comme un acteur dominant (genre 90% des ventes de croissants du coin). Quand une nouvelle boulangerie ouvre, elle fait une promotion intenable (le croissant à 10 centimes, mettons). On peut analyser ça comme la pratique d'un tarif d'éviction. Dans une boulangerie qui a une petite part de marché, ce serait simplement une promo pour attirer le client. Dans une boulangerie qui détient une part colossale du marché, c'est un tarif destiné à tuer les concurrents et assurer un monopole pour l'opérateur dominant sur le marché une fois que les concurrents auront coulé, auront été évincés (d'où le nom "tarif d'éviction").
Il faut bien analyser ça sur le bon marché. En effet, la position dominante de la boulangerie ne joue pas sur le marché des fruits et légumes, ou ne joue pas sur le marché national des croissants. Elle fait bien 90% dans ma ville, mais un pourcentage infime au niveau national ou européen.
On peut essayer de transposer ces principes dans le cas qui nous intéresse. Les grandes plateformes sont des acteurs dominants sur certains marchés. Traditionnellement, on fait cette analyse sur un vrai marché, commercial. On peut par exemple se demander si Facebook et Google sont des acteurs dominants sur le marché de la publicité en ligne. Mais on peut utiliser cet outil pour penser des choses qui ne sont pas des marchés au sens commercial, et se demander si Facebook et Twitter jouent un rôle central dans la diffusion des contenus publiés par leurs utilisateurs, et si on peut donc leur reprocher les effets de leurs décisions en raison de leur taille. La même décision, de la part d'un acteur hyper minoritaire et n'ayant pas d'influence significative sur le "marché" (ou sur le phénomène social) considéré n'aurait pas la même responsabilité.
La taille est bien un critère pertinent pour juger de la responsabilité des acteurs. Non, un éléphant, ce n'est pas une souris en plus gros.
La censure
Facebook, ou Apple, opèrent une censure. Une censure a priori, où certains contenus sont censurés d'autorité, selon des procédures floues et discrétionnaires, le plus souvent sans appel et sans contradictoire. C'est un rôle actif, qui sort totalement de la notion d'intermédiaire technique neutre. Et qui est le fait d'acteurs dominants sur les "marchés" considérés.
On peut soit considérer que ces censeurs sont sortis de leur rôle neutre et technique, et que donc ils perdent l'exemption générale de responsabilité, qu'ils portent atteinte au principe de neutralité qu'on attend d'eux (même si, pour l'heure, aucun texte de loi ne prévoit ça de manière claire). Soit considérer, ce qui est sensiblement équivalent, qu'ils jouent un rôle actif dont ils sont responsables. N'ayant pas réussi à censurer les contenus illégaux, alors qu'ils jouent un rôle actif de censure a priori (Facebook censure les images dont ses outils supposent que ce sont des nus, avec régulièrement des erreurs) et de censure a posteriori (ces plateformes censurent sur signalement par les utilisateurs), on peut les considérer comme responsable de l'échec de leur censure.
Dans un cas, on estime que ces plateformes devraient se voir interdire la censure discrétionnaire, qu'il devrait y avoir des mécanismes transparents et conformes au droit pour traiter les problèmes. Par exemple du notice-and-notice : quelqu'un signale qu'un contenu pose problème. Le signalement est transmis anonymement à l'auteur. L'auteur peut retirer son contenu, ou décider de persister. Si les deux parties persistent à dire qu'il y a problème, le dossier complet est transmis à la justice qui arbitre le différend. Dans une posture comme celle-là, l'intermédiaire technique est de nouveau neutre. Il n'a pas décidé si le contenu lui semblait légal ou pas. On ne peut pas le tenir responsable d'une décision.
Dans l'autre cas, on estime normal que la plateforme joue un rôle de censeur, et qu'on peut lui tenir rigueur de ses erreurs dans la censure. Auquel cas tout contenu illégal qui arrive à franchir la barrière peut lui être reproché.
Je préfère bien entendu la première solution. Mais les deux sont logiques.
Centralisation ou ouverture
Le fait qu'une plateforme soit centralisée ou non est également un critère. L'exemple qui vient spontanément en tête est la comparaison entre les systèmes de messagerie fermés (iMessage d'Apple, Messenger de Facebook, les messages directs de Twitter, etc) et les systèmes de messagerie ouverts (par exemple le mail). Ou la comparaison entre un réseau de micro-blog fermé (Twitter) et un réseau de micro-blog ouvert (Mastodon).
Dans le cas d'un système centralisé et fermé, une décision de la plateforme centrale a un effet absolu. Si je suis banni de Twitter, je suis banni de l'intégralité du réseau de Twitter. Si cette décision est arbitraire, et fondée sur des critères qui ne peuvent pas être négociés, elle est absolue et incontournable. Elle est le fait d'un acteur dominant.
Dans le cas d'un système acentré et ouvert, une décision de la plateforme qui hébergeait mon compte de me bannir a un effet bien moindre. Je peux aller ouvrir un compte sur une autre instance du même réseau (quand mon compte mail de laposte.net est fermé, je peux aller ouvrir une adresse mail ailleurs). Si un nœud du réseau se met à détenir une part élevée des comptes, alors l'analyse en position dominante redevient pertinente : quand gmail.com ou outlook.com décident d'imposer des règles en matière de mail, même si le réseau est ouvert, ils représentent une part tellement grande du réseau du mail que leur norme s'impose de fait à tous les autres. Ils deviennent bien un acteur dominant de ce réseau.
La définition des libertés
À la fin du 18e siècle, quand on a défini les libertés fondamentales, on les a défini par rapport à la puissance publique. Quand on parle de liberté d'expression, on parle d'empêcher l'État (ou le roi) de censurer de manière arbitraire. Les libertés fondamentales, les droits de l'Homme, sont définis pour protéger les citoyens, les individus, contre les abus de la puissance publique.
Typiquement, le premier amendement de la constitution américaine, qui protège la liberté d'expression, interdit au législateur de faire une loi dont l'effet serait de priver le citoyen de la libre expression de son opinion. Facebook n'étant pas législateur, ça ne le concerne pas, il peut bien censurer comme il a envie et prendre toutes décisions visant à censurer.
Le rapport asymétrique qui existe aujourd'hui entre un particulier et une grande multi-nationale crée un rapport d'une nature similaire à celui qui existe entre le citoyen et l'État, un rapport asymétrique où une seule des deux parties peut établir les clauses du contrat. Le contrat qui existe entre Facebook et ses utilisateurs n'est pas de la même nature que le contrat qui existe entre deux particuliers. Les deux signataires du contrat ne sont pas dans un rapport de force symétrique. Or tout le droit autour de la liberté de contracter suppose une adhésion, soit que chaque clause était négociable (pour un contrat de gré à gré), soit qu'on pouvait ne pas adhérer au contrat et aller chercher un service similaire ailleurs (pour un contrat d'adhésion). Bref, on suppose que les deux parties sont engagées par un consentement mutuel entre pairs.
Il y a déjà de nombreuses zones du droit où l'asymétrie du rapport de forces a été prise en compte pour définir des droits qui ne sont pas symétriques. Par exemple l'obligation de conseil d'un pro : il ne doit pas vous laisser choisir une mauvaise solution s'il sait qu'elle est mauvaise, il doit vous conseiller au mieux de vos intérêts, pas des siens. Par exemple le contrat de prêt que vous signez avec le banquier : vous n'êtes pas en position de le négocier, alors la loi a très strictement encadré ce que le banquier a le droit de vous proposer. C'est toute cette partie du droit qui permet régulièrement aux tribunaux de dire que des clauses d'un contrat étaient abusives, et qu'on doit donc considérer qu'elles n'existent pas (les juristes parlent de "clauses réputées non-écrites").
Il n'y a pas, pour le moment, de garantie des libertés dans un rapport contractuel asymétrique. Facebook, Twitter ou Google ne peuvent pas être condamnés pour censure abusive de mes propos. Seul l'État pourrait être condamné pour ça. C'est par exemple pour ça qu'il y a quelques années, avec quelques autres, nous avions rédigé une proposition de loi de défense de la liberté d'expression. On retrouve un concept similaire dans la protection des données personnelles prévue par le RGPD : le rapport asymétrique entre l'entité qui collecte des données et le particulier dont on collecte les données crée une obligation particulière du collecteur pour protéger les libertés de l'individu.
Laissé dans l'ombre
Il y a d'autres angles de lecture que je laisse dans l'ombre ici, parce qu'ils ne sont pas utiles à mon raisonnement, bien qu'ils aillent clairement dans le même sens. Je veux citer ceux que j'ai en tête, pour qu'on ne pense pas qu'ils ont été oubliés. Ils demandent souvent une analyse assez longue, et qui ne me semblait pas rigoureusement nécessaire ici.
D'abord il y a l'inversion des rapports entre sujet et objet. Dans le contrat qui me lie à mon fournisseur d'accès à Internet (FDN, ou Orange), l'accès à Internet est l'objet du contrat, et le FAI et moi en sommes les sujets. Nous convenons entre nous comment l'un va à la demande de l'autre réaliser une prestation qui porte sur l'objet. Quand un service est financé par la publicité, ce rapport s'inverse. Le contrat, le vrai contrat, celui qui fait rentrer de l'argent, est entre le publicitaire et le service. C'est ce contrat qui compte. Et dans ce contrat, je suis devenu l'objet. Le publicitaire passe un contrat avec le prestataire du service qui porte sur la mise à disposition de l'objet du contrat, à savoir l'utilisateur. Dans ce modèle l'utilisateur est devenu l'objet d'un contrat auquel il n'a pas accès. C'est vicié, de base. Ça veut dire que l'utilisateur n'a rien à attendre du prestataire, qui n'est pas à son service.
Ensuite, il y a l'économie de l'attention. Ce qui intéresse ces grands afficheurs, c'est de pouvoir focaliser l'attention des gens. Donc de mettre en avant des émotions, et ce faisant de faire passer la raison en arrière plan (les publicitaires veulent ça, ça rend beaucoup plus perméable aux messages). Les messages qui font le plus directement appel à nos émotions sont donc favorisés, que ce soient des émotions douces (oh, le jouli petit chat...) ou des émotions dures (les propos haineux, la rage de voir encore une horreur de dite, etc). Le mécanisme de la publicité a besoin de faire appel à nos émotions, et cet état émotif nous fait rester plus longtemps face aux contenus, nous fait interagir plus. C'est ce qui donne sa valeur au contenu putaclic.
Ensuite, il y a la notion d'éthique de l'entreprise. Certaines entreprises ont une éthique, ça arrive. Mais cette éthique n'est que celle portée par le pacte d'actionnaires. Que les actionnaires changent et l'éthique change. L'entreprise lucrative n'est pas mauvaise en elle-même, mais les questions éthiques y ont forcément un rôle second. Parfois, sa survie dépend de l'éthique qu'elle affiche (Free, dans son jeune temps, avait besoin de se montrer cool avec les geeks pour exister, par exemple). Mais sitôt que ce n'est plus le cas, que l'éthique n'est plus une condition de la survie, alors les questions éthiques passent en second plan, ou disparaissent complètement.
La somme
La somme de tous ces éléments nous amène bien à analyser le rôle de ces plateformes, de ces intermédiaires techniques, avec tous ces éléments.
L'action de leur propre chef, et non comme résultant d'un choix explicite et délibéré de l'utilisateur (hiérarchisation des contenus, censure discrétionnaire, etc) crée une forme de responsabilité.
Les visées lucratives jouent également un rôle : le but de la hiérarchisation est bien de maximiser le revenu publicitaire, pas de servir l'intérêt général ou les goûts du lecteur. Ce n'est pas la position neutre d'un intermédiaire technique au sens strict.
La centralisation du réseau considéré empêche de changer de "fournisseur", en empêchant l'interconnexion et la normalisation, et donc crée de fait un monopole sur le marché considéré sitôt qu'il concerne un grand nombre d'utilisateurs. On peut par exemple considérer que Facebook occupe une position de monopole de la censure sur son réseau, et une position d'acteur dominant sur le marché de la publication des contenus, et monopolistique si on le rapporte au réseau Facebook, alors qu'aucune plateforme n'est en position monopolistique pour le réseau Mastodon/Fediverse.
Enfin, la taille joue, en plus de la centralisation. Un très gros acteur sur un réseau ouvert doit être considéré comme un acteur dominant. Un acteur centralisé, mais très petit, ne crée par un dommage considérable à la société par son action, ou en tous cas pas un dommage aussi considérable que s'il était utilisé par une large part de la population.
Ce sont tous ces éléments-là qui m'amènent à penser que l'analyse de Calimaq est relativement juste. Son propos reprenait cette distinction, ce nouveau rôle, sans l'avoir convenablement introduite, ça peut dérouter.
Il y a bien un modèle de réseau qui me semble plus souhaitable socialement et économiquement, le modèle de réseau ouvert, fait de nombreux acteurs, offrant une capacité d'interconnexion, etc. Il me semble raisonnable que les acteurs qui ont un rôle dominant, soit par leur centralisation soit par leur grande taille, se voient contraints à une grande neutralité pour nous protéger contre l'arbitraire.
Je suis en désaccord avec les choix de la directive copyright. Mon approche est que la position particulière de ces grands acteurs devrait leur interdire toute censure en dehors d'un processus contradictoire, tranché par une autorité indépendante, susceptible d'appel, et passant au moment voulu par la Justice. Mais l'approche qui consiste à dire qu'ils sont des professionnels de la censure et qu'ils ont donc des obligations de résultat de ce fait est toute aussi logique. Malsaine pour la société, parce qu'on a privatisé la censure. Mais logique.
Et le fait que cette directive fasse une différence entre ces grands acteurs dangereux et des acteurs plus souhaitables socialement, c'est également un point plutôt positif.
C'est bien parce que l'éléphant n'est pas la souris qu'on a inventé des législations pour se protéger des géants économiques : de l'anti-trust, de l'anti-monopole, de la régulation sectorielle (l'industrie pharmaceutique ne répond pas aux mêmes normes que les marchands de souvenirs, par exemple).
Ce dont je suis convaincu, c'est que l'irresponsabilité associée au statut d'hébergeur tel qu'il était défini historiquement doit être revisitée. Cette irresponsabilité était une conséquence logique du fait que cet intermédiaire technique n'avait pas d'action propre, autre que la réalisation du transport ou de l'hébergement des données. Et il est certain que les grandes plateformes ont une action propre.
Je ne suis pas certain des conclusions, des critères exacts qu'il faut utiliser pour délimiter ce nouveau rôle. Ce que je propose ici c'est une piste de définition de ces critères.
1. Le législateur étant ce qu'il est, ces noms n'apparaissent jamais. On parle toujours des personnes désignées au 1. du I de l'article 6 de la LCEN, ou désignées au 1 et 2 du I de l'article... Bref, des périphrases affreuses et incompréhensibles. Il faut bien justifier le salaire des juristes.
2. En effet, si on veut s'en tenir au mot, une contrefaçon, un produit contrefait, c'est un produit qui prétend être (par exemple de telle grande marque) mais qui n'est pas. Par exemple les "fausses Rolex", ou les "fausses Nikes". Un fichier musical mis en ligne sans accord des ayants droits n'est pas véritablement contrefait. C'est vraiment le fichier musical que ça prétend, et pas une mauvaise reprise jouée par des amateurs dans leur cave. Dans un cas il y a tromperie sur la qualité de la marchandise, dans l'autre c'est bien le bon produit, mais il y a un défaut d'autorisation et/ou de rémunération. Reste que la loi amalgame les deux. Lutter contre la contrefaçon c'est autant lutter contre les faux médicaments, les imitations des grandes marques, que lutter contre le partage des œuvres entre particuliers sans accord des maisons d'édition.
3. C'est un peu à l'opposé de l'idée qu'il existe une justice : si la décision de savoir si c'est conforme à la loi ou pas est toujours manifeste, et donc simple, à quoi peuvent bien servir les juges qui ont à en décider ? Par exemple, savoir si "Le Petit Prince" est encore couvert par le droit d'auteur ou non est une question fort complexe. Il se trouve que ça dépend du pays, pour de sombres histoires de durée du droit d'auteur après la mort de l'auteur (variable d'un pays à l'autre), et de savoir si les années de guerre sont comptées ou non dans cette durée (les années de guerre ne sont pas les mêmes d'un pays à l'autre). Bien malin l'hébergeur qui sait si l'extrait du Petit Prince qui est mis en ligne chez lui est manifestement illégal, ou pas.
";s:7:"dateiso";s:15:"20181010_122055";}s:15:"20181009_141531";a:7:{s:5:"title";s:72:"Régulation des contenus : quelles obligations pour les géants du Web ?";s:4:"link";s:49:"https://www.laquadrature.net/fr/neutralite_geants";s:4:"guid";s:37:"10634 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 09 Oct 2018 12:15:31 +0000";s:11:"description";s:17110:"
Tribune d'Arthur Messaud
9 octobre 2018 - Il y a 10 jours, nous expliquions que décentraliser le Web offrait l'espoir d'une organisation démocratique de nos échanges en ligne, en solution à l'hégémonie de l'économie de l'attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés... au détriment des autres, et cela doit être corrigé.
Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).
Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n'aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d'eux qu'ils censurent un contenu.
Aujourd'hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?
Le pouvoir des géants
Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.
Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu'ils jugent être le « juste débat » et à organiser nos « fils d'actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l'audience devient de plus en plus gérée par l'entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.
Plus généralement, s'est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l'antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).
Pourtant, nombre d'entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d'un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C'est ce qu'il faut corriger.
Un nouveau statut juridique
Si l'on souhaite utiliser le droit pour corriger les géants, il faut d'abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d'hébergeur et d'éditeur ; moins souple que le premier, moins strict que le second.
Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d'une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d'imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d'existence et son fonctionnement, par exemple.
Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd'hui, nous proposons d'étendre ce critère aux questions de liberté d'information, avec toute la souplesse qu'il offre pour s'adapter à différentes situations.
Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus - et pas seulement les GAFAM).
Il y a plusieurs façons d'empêcher les géants d'abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.
Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n'avez pas vraiment le choix d'utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l'exige (relire notre rapport de 2010 sur la neutralité du Net).
Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.
S'ouvrir à la décentralisation...
En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n'avons pas d'autre choix que de continuer à les utiliser. C'est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d'autres services : s'ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.
Techniquement, cette « interopérabilité » passe par l'application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » - et nous y voyons l'espoir concret de l'essor d'un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l'article 20) et qui, sans interopérabilité entre plateformes, peine pour l'instant à démontrer son utilité.
Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d'envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.
Ainsi, dès lors qu'un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu'au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.
Dans tous les cas, il serait tenu, comme n'importe quel hébergeur, d'afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d'hébergeur « plus souple » ne signifie en aucun cas d'alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.
... ou devenir neutre
Dans le cas où un géant refuserait de s'ouvrir à la décentralisation (en refusant d'appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles - puisque nous ne pouvons pas échapper à celles-ci.
Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l'ARCEP - l'autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d'attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d'agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd'hui, se défendre contre ces censures abusives est pratiquement impossible.
Pour résumer : si les géants continuent de nous enfermer (en refusant de s'ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d'autres). Cette absence de hiérarchisation serait vaine si elle n'était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l'économie de l'attention ou étant payés par leur émetteur (à des fins publicitaires). C'est cette même rigueur qui est la base de la neutralité du Net et qu'il faudra appliquer strictement. Autrement, aucune des dérives de l'économie de l'attention ne sera corrigée.
Aucune censure automatisée
Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu'ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c'est ce que prévoient en creux la directive sur le droit d'auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.
En premier lieu, la directive européenne de 2000 qui encadre l'activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.
En deuxième lieu, indépendamment de cette directive, la Cour de justice de l'Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d'information, tels que reconnus par la Charte de droits fondamentaux de l'Union européenne. Précisément, la Cour affirme qu'imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s'agissait alors d'une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d'autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).
En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d'employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».
Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l'idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d'en gérer les symptômes (nous dénoncions le même manque d'ambition dans la proposition de loi sur la diffusion de « fausses informations »).
L'économie de l'attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d'en contenir les dérives - ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.
Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple :)
";s:7:"content";s:17113:"
Tribune d'Arthur Messaud
9 octobre 2018 - Il y a 10 jours, nous expliquions que décentraliser le Web offrait l'espoir d'une organisation démocratique de nos échanges en ligne, en solution à l'hégémonie de l'économie de l'attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés... au détriment des autres, et cela doit être corrigé.
Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).
Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n'aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d'eux qu'ils censurent un contenu.
Aujourd'hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?
Le pouvoir des géants
Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.
Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu'ils jugent être le « juste débat » et à organiser nos « fils d'actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l'audience devient de plus en plus gérée par l'entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.
Plus généralement, s'est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l'antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).
Pourtant, nombre d'entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d'un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C'est ce qu'il faut corriger.
Un nouveau statut juridique
Si l'on souhaite utiliser le droit pour corriger les géants, il faut d'abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d'hébergeur et d'éditeur ; moins souple que le premier, moins strict que le second.
Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d'une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d'imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d'existence et son fonctionnement, par exemple.
Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd'hui, nous proposons d'étendre ce critère aux questions de liberté d'information, avec toute la souplesse qu'il offre pour s'adapter à différentes situations.
Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus - et pas seulement les GAFAM).
Il y a plusieurs façons d'empêcher les géants d'abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.
Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n'avez pas vraiment le choix d'utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l'exige (relire notre rapport de 2010 sur la neutralité du Net).
Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.
S'ouvrir à la décentralisation...
En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n'avons pas d'autre choix que de continuer à les utiliser. C'est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d'autres services : s'ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.
Techniquement, cette « interopérabilité » passe par l'application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » - et nous y voyons l'espoir concret de l'essor d'un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l'article 20) et qui, sans interopérabilité entre plateformes, peine pour l'instant à démontrer son utilité.
Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d'envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.
Ainsi, dès lors qu'un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu'au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.
Dans tous les cas, il serait tenu, comme n'importe quel hébergeur, d'afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d'hébergeur « plus souple » ne signifie en aucun cas d'alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.
... ou devenir neutre
Dans le cas où un géant refuserait de s'ouvrir à la décentralisation (en refusant d'appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles - puisque nous ne pouvons pas échapper à celles-ci.
Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l'ARCEP - l'autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d'attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d'agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd'hui, se défendre contre ces censures abusives est pratiquement impossible.
Pour résumer : si les géants continuent de nous enfermer (en refusant de s'ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d'autres). Cette absence de hiérarchisation serait vaine si elle n'était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l'économie de l'attention ou étant payés par leur émetteur (à des fins publicitaires). C'est cette même rigueur qui est la base de la neutralité du Net et qu'il faudra appliquer strictement. Autrement, aucune des dérives de l'économie de l'attention ne sera corrigée.
Aucune censure automatisée
Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu'ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c'est ce que prévoient en creux la directive sur le droit d'auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.
En premier lieu, la directive européenne de 2000 qui encadre l'activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.
En deuxième lieu, indépendamment de cette directive, la Cour de justice de l'Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d'information, tels que reconnus par la Charte de droits fondamentaux de l'Union européenne. Précisément, la Cour affirme qu'imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s'agissait alors d'une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d'autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).
En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d'employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».
Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l'idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d'en gérer les symptômes (nous dénoncions le même manque d'ambition dans la proposition de loi sur la diffusion de « fausses informations »).
L'économie de l'attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d'en contenir les dérives - ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.
Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple :)
";s:7:"dateiso";s:15:"20181009_141531";}s:15:"20181005_163812";a:7:{s:5:"title";s:67:"Un collectif assumé : compte rendu de notre assemblée générale ";s:4:"link";s:35:"https://www.laquadrature.net/fr/AG2";s:4:"guid";s:37:"10633 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 05 Oct 2018 14:38:12 +0000";s:11:"description";s:8321:"
Paris, 5 octobre 2018 – Comme annoncé fin 2017 lors du bilan de ses dix premières années, La Quadrature du Net a entamé une transformation profonde de son organisation et de ses modes d'action, pour tenir compte de son histoire et s'adapter à un environnement politique transformé. Cela s'est notamment traduit par un élargissement du noyau de l'équipe : il y a quelques mois, nous avons intégré une trentaine de bénévoles au fonctionnement et au travail quotidien de l'association, en qualité de membres.
Pendant le week-end du 29-30 septembre, 26 membres et salarié·es de l'association se sont réuni·es pour une seconde assemblée générale (AG), accompagné·es à distance par certain·es des absent·es excusé·es. Beaucoup de choses devaient être évoquées : des souffrances personnelles qui avaient été exprimées, des réflexions collectives que nous devions faire aboutir, des chantiers ouverts à reprendre. Il fallait notamment définir l'accueil et l'organisation des nouveaux membres, la mise en place des outils nécessaires à nos actions et la feuille de route des prochaines actions militantes.
C'est ce point d'étape que nous partageons avec vous aujourd'hui.
Bilan des six derniers mois
L'AG précédente avait formé des groupes de travail, soit en fonction des sujets traités par l'association (Startuffe Nation, surveillance d'État, régulation des télécoms, copyright, etc.), soit plus opérationnels comme le groupe adminsys, la revue de presse, la communication, ou le « routage » (l'accompagnement des nouveaux militants).
Six mois après, nous constatons que cette méthode est efficace. Ces groupes possèdent une vraie souplesse, notamment pour travailler avec d'autres associations (par exemple, sur la régulation des télécoms, sujet partagé avec la Fédération FDN).
Sans occulter les difficultés, nous avons partagé nos expériences les plus enthousiasmantes, les moments où nous avons été fièr·es de notre action à La Quadrature, où nous avons remporté des victoires.
La campagne GAFAM a largement rempli ses objectifs. La balle est aujourd'hui dans le camp des CNIL européennes.
La réforme européenne du droit des télécoms propose, pour la première fois, un cadre réglementaire taillé sur mesure pour les petits opérateurs (notamment ceux de FFDN, on vous en reparle bientôt).
La campagne Stop Data Retention a rassemblé pour la première fois soixante ONG à travers l'Europe, et nos autres recours devant les juges avancent .
Nous avons amorcé un changement de position sur le statut des hébergeurs qui, même s'il suscite des interrogations chez nos allié·es historiques, nous semble ouvrir une voie utile pour limiter la nocivité des géants du Net et garantir un cadre juridique vivable aux hébergeurs neutres, et ainsi mieux protéger la liberté d'expression sur Internet.
Concernant notre organisation, nous pouvons mentionner, en vrac : l'implication active des bénévoles dans la communication et l'image de La Quadrature (le nouveau site arrive), nos nombreuses interventions auprès d'étudiant·es et du grand public (nous avons quelque chose à transmettre !), notre instance Peertube qui est une des plus fournies du Fediverse.
Pour plusieurs de nos membres, ces six derniers mois ont été l'occasion de faire leurs premières interventions publiques au nom de La Quadrature : l'association n'est plus centrée sur ses cofondateurs et portes-parole habituels, mais s'est élargie à l'ensemble de ses membres. Les expertises et les points de vue particuliers se confrontent, recréent du débat et nourrissent maintenant la voix de l'association.
Au cours de ces six derniers mois, l'association a développé ses actions avec des méthodes de travail nouvelles qui portent déjà leurs fruits.
Militer, ensemble : les vies de La Quadrature
À travers une discussion ouverte et apaisée, nous avons pu faire le douloureux (mais lucide) constat d'un problème dans l'articulation entre deux éléments : une équipe de salarié·es faisant face à de très nombreuses sollicitations, dans un climat où en matière de libertés fondamentales tous les sujets ou presque sont urgents ; un bureau bénévole qui continuait à cristalliser des attentes irraisonnables, pour la plupart héritées de la structure très resserrée des débuts de La Quadrature, et empêchait mécaniquement une meilleure répartition des tâches et des responsabilités avec les autres membres. Tout cela générait des tensions.
C'est dans ce contexte que, après dix ans d'engagement au sein de La Quadrature, Félix — l'un des deux co-présidents — a annoncé qu'il quittait le bureau, estimant que les chantiers d'organisation étaient suffisamment avancés pour qu'il prenne un peu de recul. Benjamin Bayart, qui l'épaulait à ce poste, a décidé de faire de même. Tous les deux restent membres de l'association et continuent à s'investir dans des dossiers majeurs.
Tout ceci nous a conduit à prendre le temps d'une discussion de fond et à repenser en profondeur l'organisation de l'association. L'idée est de permettre à l'ensemble des membres de travailler main dans la main avec l'équipe salariée, à travers différents groupes fluides et fonctionnels. Nous avons également consacré la collégialité dans la prise de décision, avec une large autonomie laissée à ces groupes.
Un nouveau bureau a été élu — destiné à jouer un rôle purement administratif (c'est une obligation légale) — et les rôles au sein du bureau ont été tirés au sort. Sa composition est transitoire et sera revue à l'occasion de la refonte des statuts lors de la prochaine AG, dans 6 mois.
L'ouverture en actes
Le gros chantier de cette AG consistait à définir les conditions d'accueil des nouve·lles membres, dans le cadre d'un deuxième élargissement à venir pour s'ouvrir à de nouvelles expertises et bonnes volontés. Tout était à inventer. Nous publierons avant la fin de l'année des informations sur la manière dont les bénévoles peuvent devenir membres de LQDN.
Le statut de membre entérine en fait un engagement aux côtés de l'association. Ce qui implique que l'action quotidienne de LQDN s'accompagne de nouveaux espaces de travail ouverts à tou·tes. C'est une nécessité, compte tenu du nombre des sujets à traiter, de l'importance de faire vivre le débat, de partager les expertises, et de trouver de nouveaux leviers de mobilisation collective. Nous vous présenterons donc, dans les prochaines semaines, de nouveaux espaces pour travailler ensemble sur les très nombreux sujets dont La Quadrature peut s'emparer.
Conclusion
Au total, cette assemblée générale à mi-parcours nous a tou·tes surpris·es. Tout s'est encore mieux passé que prévu. Nous avons pris deux jours pour faire le point, comprendre les souffrances de chacun·e, dans un calme et une écoute exemplaires. Nous sommes parvenu·es à tout mettre sur la table pour acter des méthodes nouvelles et précises, sans fâcher ni exclure personne. Il s'agit maintenant de pérenniser ce travail dans nos statuts.
L'horizon politique est ce qu'il est, et celui du numérique est inquiétant. En dépit d'un contexte hostile, ou à cause de lui, nous jouerons à fond notre rôle dans la défense politique et juridique d'un Internet libre, tourné vers l'émancipation, en lien avec d'autres organisations militantes. En repensant notre organisation, nous travaillons à nous remettre en question pour nous réinventer et jouer ce rôle du mieux que nous le pourrons, en prenant soin les un·es des autres.
Internet, Datalove et libertés <3
";s:7:"content";s:8321:"
Paris, 5 octobre 2018 – Comme annoncé fin 2017 lors du bilan de ses dix premières années, La Quadrature du Net a entamé une transformation profonde de son organisation et de ses modes d'action, pour tenir compte de son histoire et s'adapter à un environnement politique transformé. Cela s'est notamment traduit par un élargissement du noyau de l'équipe : il y a quelques mois, nous avons intégré une trentaine de bénévoles au fonctionnement et au travail quotidien de l'association, en qualité de membres.
Pendant le week-end du 29-30 septembre, 26 membres et salarié·es de l'association se sont réuni·es pour une seconde assemblée générale (AG), accompagné·es à distance par certain·es des absent·es excusé·es. Beaucoup de choses devaient être évoquées : des souffrances personnelles qui avaient été exprimées, des réflexions collectives que nous devions faire aboutir, des chantiers ouverts à reprendre. Il fallait notamment définir l'accueil et l'organisation des nouveaux membres, la mise en place des outils nécessaires à nos actions et la feuille de route des prochaines actions militantes.
C'est ce point d'étape que nous partageons avec vous aujourd'hui.
Bilan des six derniers mois
L'AG précédente avait formé des groupes de travail, soit en fonction des sujets traités par l'association (Startuffe Nation, surveillance d'État, régulation des télécoms, copyright, etc.), soit plus opérationnels comme le groupe adminsys, la revue de presse, la communication, ou le « routage » (l'accompagnement des nouveaux militants).
Six mois après, nous constatons que cette méthode est efficace. Ces groupes possèdent une vraie souplesse, notamment pour travailler avec d'autres associations (par exemple, sur la régulation des télécoms, sujet partagé avec la Fédération FDN).
Sans occulter les difficultés, nous avons partagé nos expériences les plus enthousiasmantes, les moments où nous avons été fièr·es de notre action à La Quadrature, où nous avons remporté des victoires.
La campagne GAFAM a largement rempli ses objectifs. La balle est aujourd'hui dans le camp des CNIL européennes.
La réforme européenne du droit des télécoms propose, pour la première fois, un cadre réglementaire taillé sur mesure pour les petits opérateurs (notamment ceux de FFDN, on vous en reparle bientôt).
La campagne Stop Data Retention a rassemblé pour la première fois soixante ONG à travers l'Europe, et nos autres recours devant les juges avancent .
Nous avons amorcé un changement de position sur le statut des hébergeurs qui, même s'il suscite des interrogations chez nos allié·es historiques, nous semble ouvrir une voie utile pour limiter la nocivité des géants du Net et garantir un cadre juridique vivable aux hébergeurs neutres, et ainsi mieux protéger la liberté d'expression sur Internet.
Concernant notre organisation, nous pouvons mentionner, en vrac : l'implication active des bénévoles dans la communication et l'image de La Quadrature (le nouveau site arrive), nos nombreuses interventions auprès d'étudiant·es et du grand public (nous avons quelque chose à transmettre !), notre instance Peertube qui est une des plus fournies du Fediverse.
Pour plusieurs de nos membres, ces six derniers mois ont été l'occasion de faire leurs premières interventions publiques au nom de La Quadrature : l'association n'est plus centrée sur ses cofondateurs et portes-parole habituels, mais s'est élargie à l'ensemble de ses membres. Les expertises et les points de vue particuliers se confrontent, recréent du débat et nourrissent maintenant la voix de l'association.
Au cours de ces six derniers mois, l'association a développé ses actions avec des méthodes de travail nouvelles qui portent déjà leurs fruits.
Militer, ensemble : les vies de La Quadrature
À travers une discussion ouverte et apaisée, nous avons pu faire le douloureux (mais lucide) constat d'un problème dans l'articulation entre deux éléments : une équipe de salarié·es faisant face à de très nombreuses sollicitations, dans un climat où en matière de libertés fondamentales tous les sujets ou presque sont urgents ; un bureau bénévole qui continuait à cristalliser des attentes irraisonnables, pour la plupart héritées de la structure très resserrée des débuts de La Quadrature, et empêchait mécaniquement une meilleure répartition des tâches et des responsabilités avec les autres membres. Tout cela générait des tensions.
C'est dans ce contexte que, après dix ans d'engagement au sein de La Quadrature, Félix — l'un des deux co-présidents — a annoncé qu'il quittait le bureau, estimant que les chantiers d'organisation étaient suffisamment avancés pour qu'il prenne un peu de recul. Benjamin Bayart, qui l'épaulait à ce poste, a décidé de faire de même. Tous les deux restent membres de l'association et continuent à s'investir dans des dossiers majeurs.
Tout ceci nous a conduit à prendre le temps d'une discussion de fond et à repenser en profondeur l'organisation de l'association. L'idée est de permettre à l'ensemble des membres de travailler main dans la main avec l'équipe salariée, à travers différents groupes fluides et fonctionnels. Nous avons également consacré la collégialité dans la prise de décision, avec une large autonomie laissée à ces groupes.
Un nouveau bureau a été élu — destiné à jouer un rôle purement administratif (c'est une obligation légale) — et les rôles au sein du bureau ont été tirés au sort. Sa composition est transitoire et sera revue à l'occasion de la refonte des statuts lors de la prochaine AG, dans 6 mois.
L'ouverture en actes
Le gros chantier de cette AG consistait à définir les conditions d'accueil des nouve·lles membres, dans le cadre d'un deuxième élargissement à venir pour s'ouvrir à de nouvelles expertises et bonnes volontés. Tout était à inventer. Nous publierons avant la fin de l'année des informations sur la manière dont les bénévoles peuvent devenir membres de LQDN.
Le statut de membre entérine en fait un engagement aux côtés de l'association. Ce qui implique que l'action quotidienne de LQDN s'accompagne de nouveaux espaces de travail ouverts à tou·tes. C'est une nécessité, compte tenu du nombre des sujets à traiter, de l'importance de faire vivre le débat, de partager les expertises, et de trouver de nouveaux leviers de mobilisation collective. Nous vous présenterons donc, dans les prochaines semaines, de nouveaux espaces pour travailler ensemble sur les très nombreux sujets dont La Quadrature peut s'emparer.
Conclusion
Au total, cette assemblée générale à mi-parcours nous a tou·tes surpris·es. Tout s'est encore mieux passé que prévu. Nous avons pris deux jours pour faire le point, comprendre les souffrances de chacun·e, dans un calme et une écoute exemplaires. Nous sommes parvenu·es à tout mettre sur la table pour acter des méthodes nouvelles et précises, sans fâcher ni exclure personne. Il s'agit maintenant de pérenniser ce travail dans nos statuts.
L'horizon politique est ce qu'il est, et celui du numérique est inquiétant. En dépit d'un contexte hostile, ou à cause de lui, nous jouerons à fond notre rôle dans la défense politique et juridique d'un Internet libre, tourné vers l'émancipation, en lien avec d'autres organisations militantes. En repensant notre organisation, nous travaillons à nous remettre en question pour nous réinventer et jouer ce rôle du mieux que nous le pourrons, en prenant soin les un·es des autres.
Internet, Datalove et libertés <3
";s:7:"dateiso";s:15:"20181005_163812";}s:15:"20181002_140049";a:7:{s:5:"title";s:79:"Accès Internet en vol : Air France oublie la neutralité du Net sur le tarmac";s:4:"link";s:107:"https://www.laquadrature.net/fr/Acces_Internet_en_vol__Air_France_oublie_la_neutralite_du_Net_sur_le_tarmac";s:4:"guid";s:37:"10632 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 02 Oct 2018 12:00:49 +0000";s:11:"description";s:2474:"
Paris, 2 octobre 2018 – L'entreprise Air France a annoncé le 26 septembre la mise à disposition d'une offre d'accès à Internet par Wi-Fi à bord de ses avions. Cette offre propose différentes tarifications, basées non pas sur un quota de données ou une vitesse de connexion, mais sur une hiérarchisation des services. L'accès « gratuit » permet aux voyageurs de communiquer via Whatsapp (Facebook), Facebook Messenger, iMessage (Apple) ou WeChat (Tencent). L'opérateur aérien favorise donc ces trois entreprises en incitant fortement ses passagers à passer par leurs services, à l'exclusion de tous les autres, créant ainsi une distorsion de concurrence évidente en empêchant les personnes utilisant d'autres protocoles et services de communiquer (que ce soit dans un cadre personnel ou professionnel).
Les deux autres possibilités payantes offrent respectivement un accès aux Web/Mail (et non à l'ensemble d'Internet comme annoncé) et à des services de streaming. On peut facilement craindre qu'elles limitent elles aussi les accès des utilisateurs aux seuls services mis en valeur par la compagnie.
Cette offre limitée d'accès au réseau viole outrageusement la neutralité du Net, garantie notamment par le Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un Internet ouvert. En effet, elle discrimine certains services aux dépens d'autres pourtant similaires, aux dépens des utilisateurs de ces derniers. L'ajustement des offres ne devrait avoir lieu que sur l'utilisation des ressources et non sur la discrimination de services.
Depuis de nombreuses années, La Quadrature du Net met en garde contre l'avènement d'un Internet à plusieurs vitesses, où des gardiens du temple favoriseraient les acteurs installés et leurs partenaires commerciaux, attaquant du même geste la liberté de choix des utilisateurs et utilisatrices, la concurrence non-faussée entre les services et, par extension, l'incroyable capacité d'innovation d'Internet.
Nous appelons Air France à revoir sa copie et à offrir à tous ses voyageurs un accès égal à Internet, quels que soient les services qu'ils souhaitent utiliser.
";s:7:"content";s:2474:"
Paris, 2 octobre 2018 – L'entreprise Air France a annoncé le 26 septembre la mise à disposition d'une offre d'accès à Internet par Wi-Fi à bord de ses avions. Cette offre propose différentes tarifications, basées non pas sur un quota de données ou une vitesse de connexion, mais sur une hiérarchisation des services. L'accès « gratuit » permet aux voyageurs de communiquer via Whatsapp (Facebook), Facebook Messenger, iMessage (Apple) ou WeChat (Tencent). L'opérateur aérien favorise donc ces trois entreprises en incitant fortement ses passagers à passer par leurs services, à l'exclusion de tous les autres, créant ainsi une distorsion de concurrence évidente en empêchant les personnes utilisant d'autres protocoles et services de communiquer (que ce soit dans un cadre personnel ou professionnel).
Les deux autres possibilités payantes offrent respectivement un accès aux Web/Mail (et non à l'ensemble d'Internet comme annoncé) et à des services de streaming. On peut facilement craindre qu'elles limitent elles aussi les accès des utilisateurs aux seuls services mis en valeur par la compagnie.
Cette offre limitée d'accès au réseau viole outrageusement la neutralité du Net, garantie notamment par le Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un Internet ouvert. En effet, elle discrimine certains services aux dépens d'autres pourtant similaires, aux dépens des utilisateurs de ces derniers. L'ajustement des offres ne devrait avoir lieu que sur l'utilisation des ressources et non sur la discrimination de services.
Depuis de nombreuses années, La Quadrature du Net met en garde contre l'avènement d'un Internet à plusieurs vitesses, où des gardiens du temple favoriseraient les acteurs installés et leurs partenaires commerciaux, attaquant du même geste la liberté de choix des utilisateurs et utilisatrices, la concurrence non-faussée entre les services et, par extension, l'incroyable capacité d'innovation d'Internet.
Nous appelons Air France à revoir sa copie et à offrir à tous ses voyageurs un accès égal à Internet, quels que soient les services qu'ils souhaitent utiliser.
";s:7:"dateiso";s:15:"20181002_140049";}s:15:"20180926_195153";a:7:{s:5:"title";s:42:"Réguler Internet par la décentralisation";s:4:"link";s:59:"https://www.laquadrature.net/fr/regulation_decentralisation";s:4:"guid";s:37:"10626 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 26 Sep 2018 17:51:53 +0000";s:11:"description";s:8158:"
27 septembre 2018 - La directive droit d’auteur et les récents débats sur les « fausses informations » ont servi d’introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes.
Le gouvernement français veut que les grands réseaux sociaux arrêtent de favoriser la diffusion de « propos haineux ou extrémistes ». Soit.
Le rapport visant à « renforcer la lutte contre le racisme et l'antisémitisme sur Internet », commandé par le Premier ministre et publié jeudi dernier, l'explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible ».
Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de "buzz" qu'un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ». C'est la même analyse que nous faisions pour expliquer pourquoi attaquer Google ou Facebook en mai dernier, quand nous préparions nos plaintes collectives contre les GAFAM.
Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d'imaginer, comme le fait le rapport cité ci-dessus, qu'on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop.
Non, si on veut traiter le problème sérieusement, c'est l'ensemble de l'économie de l'attention qu'il faut remettre en question. Et cela doit passer par l'émergence d'alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
Un droit actuel favorable aux géants
Aujourd'hui et depuis 15 ans, le droit freine le développement de telles alternatives. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1.
En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d'une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n'avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n'avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
Alléger le régime des hébergeurs en les distinguant des plateformes géantes
Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d'alternatives à l'économie de l'attention. Voici notre proposition.
Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.
Secondement, que les hébergeurs, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
Le cercle vertueux de la régulation décentralisée
Permettre à une multitude de petits hébergeurs de se développer fait naître l'espoir d'une auto-régulation efficace, placée dans les mains de l'ensemble de la population.
Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l'espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d'hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d'un hébergeur à un autre, d'un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd'hui).
Chaque personne choisira de s'exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine. Cette structure offre l'espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n'auront plus à trancher autant de conflits qu'il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.
Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d'alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
27 septembre 2018 - La directive droit d’auteur et les récents débats sur les « fausses informations » ont servi d’introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes.
Le gouvernement français veut que les grands réseaux sociaux arrêtent de favoriser la diffusion de « propos haineux ou extrémistes ». Soit.
Le rapport visant à « renforcer la lutte contre le racisme et l'antisémitisme sur Internet », commandé par le Premier ministre et publié jeudi dernier, l'explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible ».
Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de "buzz" qu'un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ». C'est la même analyse que nous faisions pour expliquer pourquoi attaquer Google ou Facebook en mai dernier, quand nous préparions nos plaintes collectives contre les GAFAM.
Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d'imaginer, comme le fait le rapport cité ci-dessus, qu'on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop.
Non, si on veut traiter le problème sérieusement, c'est l'ensemble de l'économie de l'attention qu'il faut remettre en question. Et cela doit passer par l'émergence d'alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
Un droit actuel favorable aux géants
Aujourd'hui et depuis 15 ans, le droit freine le développement de telles alternatives. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1.
En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d'une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n'avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n'avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
Alléger le régime des hébergeurs en les distinguant des plateformes géantes
Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d'alternatives à l'économie de l'attention. Voici notre proposition.
Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.
Secondement, que les hébergeurs, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
Le cercle vertueux de la régulation décentralisée
Permettre à une multitude de petits hébergeurs de se développer fait naître l'espoir d'une auto-régulation efficace, placée dans les mains de l'ensemble de la population.
Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l'espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d'hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d'un hébergeur à un autre, d'un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd'hui).
Chaque personne choisira de s'exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine. Cette structure offre l'espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n'auront plus à trancher autant de conflits qu'il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.
Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d'alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
";s:7:"dateiso";s:15:"20180926_195153";}s:15:"20180926_143827";a:7:{s:5:"title";s:97:"Le fichier TES, prémisse à la reconnaissance faciale de masse, arrive devant le Conseil d'État";s:4:"link";s:44:"https://www.laquadrature.net/fr/audience_tes";s:4:"guid";s:37:"10625 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 26 Sep 2018 12:38:27 +0000";s:11:"description";s:11455:"
26 septembre 2018 - Mercredi 3 octobre prochain à 14h se tiendra au Conseil d'État l'audience concernant le fichier TES. Ce décret, publié le 28 octobre 2016, autorise la création par le Gouvernement d'un fichier regroupant les données biométriques de la quasi-totalité de la population française. Dès le 27 décembre 2016, La Quadrature du Net, avec le soutien des Exégètes amateurs, avait demandé l'annulation de ce décret. Venez avec nous assister à l'audience !
Le décret n°2016-1460 du 28 octobre 2016 autorise la création par le Gouvernement d'une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille....) de la quasi-totalité de la population française, avec, comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.
Le 26 décembre 2016, La Quadrature du Net avait déposé, avec le soutien des Exégètes amateurs, une requête introductive d'instance devant le Conseil d’État visant à faire annuler ce décret avant de déposer un mémoire complémentaire le 27 mars 2017 et un mémoire en réplique, à la suite de la défense du gouvernement, le 18 août 20171. Depuis, aucune nouvelle jusqu'à ce qu'on nous annonce aujourd'hui qu'une audience aura lieu le mercredi 3 octobre prochain devant le Conseil d’État.
Comme nous l'avions relevé dans nos écritures (en lien ci-dessus), la création d'une telle base de données est inutile pour atteindre l'objectif annoncé. Celui-ci aurait pu en effet être poursuivi tout aussi efficacement en prévoyant la conservation de ces informations sur le seul titre d’identité (au moyen d'une puce électronique), tout en faisant disparaître les risques liés à leur centralisation (risques politiques de dévoiement du fichier et risques techniques de fuites de données biométriques). C'est déjà ce que prévoit l'Union européenne pour les passeports et bientôt les cartes d'identité : les données doivent être conservées sur le titre.
En réalité, et nous l'avions souligné dès la publication du décret, la création du fichier TES (et l'enregistrement automatisé des images des visages de la population) préfigure le développement et l'utilisation par le Gouvernement des technologies de reconnaissance faciale à des fins de surveillance généralisée de la population
Son article 4 prévoit ainsi déjà que l'accès à ce fichier n'est pas limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » (à l'exclusion des données concernant les empreintes digitales). D'ores et déjà, ce champ d'application très flou laisse craindre d'importantes dérives dans les usages policiers de ce fichier. À l'avenir, ils pourront être encore démultipliés par la voie d'une simple modification législative ou réglementaire, par exemple pour permettre de coupler ce fichier aux systèmes de surveillance dopés aux Big Data dont certaines polices municipales commencent à s'équiper.
L'actualité montre que nos craintes était bien fondées et que la reconnaissance faciale risque d'être l'un des outils principaux de la surveillance de masse de la population par les autorités. Si celle-ci est déjà mise en œuvre à grande échelle dans certains États (notamment en Chine), elle se développe à grande vitesse également en France, que ce soit dans nos aéroports, dans nos gares ou dans nos lycées. En 2016, quelques semaines avant la création du fichier TES, des propositions de loi avaient d'ailleurs été déposées visant à coupler vidéosurveillance et reconnaissance faciale pour les « fichés S »2.
Face à ce raz-de-marée qui déferle dans une relative indifférence, la CNIL en est aujourd'hui réduite à appeler « à un débat démocratique » sans pouvoir (ou sans oser ?) user de ses pouvoirs pour barrer la route à ces premiers déploiements grandeur nature.
Le fichier TES constitue en tous cas le préalable technique au développement généralisé et définitif de la reconnaissance faciale. Il nous faut obtenir du Conseil d'État son annulation et sa destruction.
Vous êtes toutes et tous invités à venir assister avec nous à l'audience de mercredi. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris.
À mercredi !
1. La requête introductive d'instance est le premier mémoire envoyé au Conseil d'Etat pour introduire une demande en justice et doit être déposée dans les délais légaux de recours. Le mémoire complémentaire peut être envoyé plus tard et a pour but de développer les différents arguments. Le mémoire en réplique est envoyé pour répondre aux écritures de la partie adverse, ici le Gouvernement
2. Quelques semaines avant l'adoption du fichier TES fin 2016, plusieurs propositions de loi avaient tenté d'inaugurer la reconnaissance faciale pour la lutte antiterroriste. Au même moment, on voyait dans les villes du Sud Est mise en avant la « vidéosurveillance intelligente » pour repérer des terroristes (en fait des fichés S) dans la rue (voir par exemple à Marseille). Opération de com concertée pour mettre la pression sur le gouvernement de l'époque ? Dans l'exposé des motifs de la PPL du Sénat, on pouvait lire :
L'efficacité de la reconnaissance faciale dépend de plusieurs facteurs clés : la qualité de l'`image, la puissance de l'algorithme d'identification et l'accès à une base de données fiables. Toute la difficulté est d'établir des points de correspondance entre la nouvelle image et l'image source, en d'autres termes, les photos d'individus connus.
Chaque fiche du fichier automatisé des empreintes digitales (FAED) comporte une photo prise dans un cadre normalisé et identique pour toutes, seule exploitable par des logiciels de reconnaissance faciale. Tel n'est pas le cas des autres fichiers, notamment celui des personnes recherchées (FPR) qui mentionne lui l'identité des personnes faisant l'objet de recherches pour prévenir des menaces graves pour la sécurité publique ou la sûreté de l'État dans ses fameuses « fiche S », mais ne comporte pas nécessairement de photos et ne contient pas de données anthropométriques. La présente proposition de loi a donc pour objet de permettre le couplage du fichier automatisé des empreintes digitales et du fichier des personnes recherchées, afin de constituer une base de données fiable, qui sera ensuite reliée à un système de vidéo-protection.
Elles ne sont pas passées, mais le fichier TES était créé quelques mois plus tard.
";s:7:"content";s:11455:"
26 septembre 2018 - Mercredi 3 octobre prochain à 14h se tiendra au Conseil d'État l'audience concernant le fichier TES. Ce décret, publié le 28 octobre 2016, autorise la création par le Gouvernement d'un fichier regroupant les données biométriques de la quasi-totalité de la population française. Dès le 27 décembre 2016, La Quadrature du Net, avec le soutien des Exégètes amateurs, avait demandé l'annulation de ce décret. Venez avec nous assister à l'audience !
Le décret n°2016-1460 du 28 octobre 2016 autorise la création par le Gouvernement d'une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille....) de la quasi-totalité de la population française, avec, comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.
Le 26 décembre 2016, La Quadrature du Net avait déposé, avec le soutien des Exégètes amateurs, une requête introductive d'instance devant le Conseil d’État visant à faire annuler ce décret avant de déposer un mémoire complémentaire le 27 mars 2017 et un mémoire en réplique, à la suite de la défense du gouvernement, le 18 août 20171. Depuis, aucune nouvelle jusqu'à ce qu'on nous annonce aujourd'hui qu'une audience aura lieu le mercredi 3 octobre prochain devant le Conseil d’État.
Comme nous l'avions relevé dans nos écritures (en lien ci-dessus), la création d'une telle base de données est inutile pour atteindre l'objectif annoncé. Celui-ci aurait pu en effet être poursuivi tout aussi efficacement en prévoyant la conservation de ces informations sur le seul titre d’identité (au moyen d'une puce électronique), tout en faisant disparaître les risques liés à leur centralisation (risques politiques de dévoiement du fichier et risques techniques de fuites de données biométriques). C'est déjà ce que prévoit l'Union européenne pour les passeports et bientôt les cartes d'identité : les données doivent être conservées sur le titre.
En réalité, et nous l'avions souligné dès la publication du décret, la création du fichier TES (et l'enregistrement automatisé des images des visages de la population) préfigure le développement et l'utilisation par le Gouvernement des technologies de reconnaissance faciale à des fins de surveillance généralisée de la population
Son article 4 prévoit ainsi déjà que l'accès à ce fichier n'est pas limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » (à l'exclusion des données concernant les empreintes digitales). D'ores et déjà, ce champ d'application très flou laisse craindre d'importantes dérives dans les usages policiers de ce fichier. À l'avenir, ils pourront être encore démultipliés par la voie d'une simple modification législative ou réglementaire, par exemple pour permettre de coupler ce fichier aux systèmes de surveillance dopés aux Big Data dont certaines polices municipales commencent à s'équiper.
L'actualité montre que nos craintes était bien fondées et que la reconnaissance faciale risque d'être l'un des outils principaux de la surveillance de masse de la population par les autorités. Si celle-ci est déjà mise en œuvre à grande échelle dans certains États (notamment en Chine), elle se développe à grande vitesse également en France, que ce soit dans nos aéroports, dans nos gares ou dans nos lycées. En 2016, quelques semaines avant la création du fichier TES, des propositions de loi avaient d'ailleurs été déposées visant à coupler vidéosurveillance et reconnaissance faciale pour les « fichés S »2.
Face à ce raz-de-marée qui déferle dans une relative indifférence, la CNIL en est aujourd'hui réduite à appeler « à un débat démocratique » sans pouvoir (ou sans oser ?) user de ses pouvoirs pour barrer la route à ces premiers déploiements grandeur nature.
Le fichier TES constitue en tous cas le préalable technique au développement généralisé et définitif de la reconnaissance faciale. Il nous faut obtenir du Conseil d'État son annulation et sa destruction.
Vous êtes toutes et tous invités à venir assister avec nous à l'audience de mercredi. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris.
À mercredi !
1. La requête introductive d'instance est le premier mémoire envoyé au Conseil d'Etat pour introduire une demande en justice et doit être déposée dans les délais légaux de recours. Le mémoire complémentaire peut être envoyé plus tard et a pour but de développer les différents arguments. Le mémoire en réplique est envoyé pour répondre aux écritures de la partie adverse, ici le Gouvernement
2. Quelques semaines avant l'adoption du fichier TES fin 2016, plusieurs propositions de loi avaient tenté d'inaugurer la reconnaissance faciale pour la lutte antiterroriste. Au même moment, on voyait dans les villes du Sud Est mise en avant la « vidéosurveillance intelligente » pour repérer des terroristes (en fait des fichés S) dans la rue (voir par exemple à Marseille). Opération de com concertée pour mettre la pression sur le gouvernement de l'époque ? Dans l'exposé des motifs de la PPL du Sénat, on pouvait lire :
L'efficacité de la reconnaissance faciale dépend de plusieurs facteurs clés : la qualité de l'`image, la puissance de l'algorithme d'identification et l'accès à une base de données fiables. Toute la difficulté est d'établir des points de correspondance entre la nouvelle image et l'image source, en d'autres termes, les photos d'individus connus.
Chaque fiche du fichier automatisé des empreintes digitales (FAED) comporte une photo prise dans un cadre normalisé et identique pour toutes, seule exploitable par des logiciels de reconnaissance faciale. Tel n'est pas le cas des autres fichiers, notamment celui des personnes recherchées (FPR) qui mentionne lui l'identité des personnes faisant l'objet de recherches pour prévenir des menaces graves pour la sécurité publique ou la sûreté de l'État dans ses fameuses « fiche S », mais ne comporte pas nécessairement de photos et ne contient pas de données anthropométriques. La présente proposition de loi a donc pour objet de permettre le couplage du fichier automatisé des empreintes digitales et du fichier des personnes recherchées, afin de constituer une base de données fiable, qui sera ensuite reliée à un système de vidéo-protection.
Elles ne sont pas passées, mais le fichier TES était créé quelques mois plus tard.
";s:7:"dateiso";s:15:"20180926_143827";}s:15:"20180918_155945";a:7:{s:5:"title";s:83:"La directive Copyright n’est pas une défaite pour l’Internet Libre et Ouvert !";s:4:"link";s:56:"https://www.laquadrature.net/fr/directive_auteur_calimaq";s:4:"guid";s:37:"10624 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 18 Sep 2018 13:59:45 +0000";s:11:"description";s:24943:"
18 septembre 2018 - Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé.
C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog.
Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.
L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.
Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.
Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
Nous avons pas « perdu Internet » !
Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :
Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.
Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.
Sortir d’une conception « formelle » de la liberté d’expression
Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :
La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.
On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !
En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
Se doter (enfin) d’une doctrine économique claire
Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…
Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.
Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.
Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l'économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.
On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
Et maintenant, que faire ?
En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :
Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.
L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.
La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.
Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.
L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.
« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.
";s:7:"content";s:24943:"
18 septembre 2018 - Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé.
C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog.
Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.
L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.
Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.
Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
Nous avons pas « perdu Internet » !
Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :
Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.
Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.
Sortir d’une conception « formelle » de la liberté d’expression
Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :
La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.
On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !
En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
Se doter (enfin) d’une doctrine économique claire
Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…
Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.
Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.
Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l'économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.
On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
Et maintenant, que faire ?
En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :
Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.
L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.
La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.
Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.
L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.
« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.
";s:7:"dateiso";s:15:"20180918_155945";}s:15:"20180912_150408";a:7:{s:5:"title";s:90:"Censure antiterroriste: la Commission européenne veut détruire l'Internet décentralisé";s:4:"link";s:55:"https://www.laquadrature.net/fr/reglement_terro_annonce";s:4:"guid";s:37:"10614 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 12 Sep 2018 13:04:08 +0000";s:11:"description";s:5825:"
Ce texte sécuritaire prévoit d'imposer plusieurs obligations aux hébergeurs, et notamment le retrait en moins d'une heure des contenus signalés. Il banalise la censure policière ou privée et donc le contournement de la justice. Il fait des filtres automatiques - justement au coeur du débat sur la directive droit d'auteur - la clé des politiques de censure à l'ère numérique1.
Seule une poignée d'hébergeurs pourront satisfaire de telles obligations - en particulier le délai d'une heure pour censurer les contenus. Les autres hébergeurs - la très grande majorité qui, depuis les origines, ont constitué le corps d'Internet - seront incapables d'y répondre et s'exposeront systématiquement à des sanctions.
Si ce texte était adopté, les quasi-monopoles du Net (Google, Amazon, Facebook, Apple, Microsoft, Twitter...) se verront consacrés dans leur rôle clé pour les politiques sécuritaires des États membres, et renforcés dans leurs positions ultra-dominantes - tous les autres services ayant dû fermer boutique, y compris les services décentralisés qui respectent nos droits. Après avoir vaguement prétendu nous défendre avec le RGPD, la Commission européenne change radicalement de direction et compte désormais défaire l'État de droit en renforçant et en pactisant avec des firmes surpuissantes, qui exploitent nos libertés.
Pourtant, le reste de l'Internet, l'Internet décentralisé et gouvernable de façon démocratique, repose sur un contrôle fin et adapté à chaque personne des contenus qui y sont diffusés. Cette organisation est une des solutions les plus pertinentes pour freiner la propagation de messages problématiques, mais la Commission compte justement la détruire en lui imposant des obligations impossibles à respecter.
En pratique, la proposition de la Commission est donc non seulement inutile - les géants sont déjà largement actifs pour surveiller et censurer et collaborent très largement avec les autorités en matière antiterroriste.2 Elle est surtout contre-productive : son principal effet serait de détruire l'unique version d'Internet compatible avec nos libertés fondamentales.
Ce règlement vient à peine d'être proposé aujourd'hui. S'ensuivront des débats au sein des différentes institutions européennes. Nous y contribuerons avec la plus grande rigueur.
1. Ce réglement prévoit une obligation pour tout hébergeur Internet, quelque soit sa taille ou son fonctionnement, de retirer dans un délai d'une heure les contenus jugés de nature terroriste, en cas d'injonction faite par les autorités judiciaires ou administratives (article 4). Il permet également à ces dernières d'imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015), mais sur la base des conditions d'utilisation des plateformes (article 5). Le texte invite aussi les acteurs du Net à adopter des mesures « proactives », sous la forme de filtres automatiques scannant les contenus mis en ligne pour bloquer ceux correspondants à certains critères arrêtés par ces firmes (article 6).
2. Depuis 2015, les États comme la France et des organisations telles qu'Europol ont développé de multiples partenariats avec les géants du numérique pour lutter contre la propagande terroriste, le plus souvent au mépris du droit international.
Ce texte sécuritaire prévoit d'imposer plusieurs obligations aux hébergeurs, et notamment le retrait en moins d'une heure des contenus signalés. Il banalise la censure policière ou privée et donc le contournement de la justice. Il fait des filtres automatiques - justement au coeur du débat sur la directive droit d'auteur - la clé des politiques de censure à l'ère numérique1.
Seule une poignée d'hébergeurs pourront satisfaire de telles obligations - en particulier le délai d'une heure pour censurer les contenus. Les autres hébergeurs - la très grande majorité qui, depuis les origines, ont constitué le corps d'Internet - seront incapables d'y répondre et s'exposeront systématiquement à des sanctions.
Si ce texte était adopté, les quasi-monopoles du Net (Google, Amazon, Facebook, Apple, Microsoft, Twitter...) se verront consacrés dans leur rôle clé pour les politiques sécuritaires des États membres, et renforcés dans leurs positions ultra-dominantes - tous les autres services ayant dû fermer boutique, y compris les services décentralisés qui respectent nos droits. Après avoir vaguement prétendu nous défendre avec le RGPD, la Commission européenne change radicalement de direction et compte désormais défaire l'État de droit en renforçant et en pactisant avec des firmes surpuissantes, qui exploitent nos libertés.
Pourtant, le reste de l'Internet, l'Internet décentralisé et gouvernable de façon démocratique, repose sur un contrôle fin et adapté à chaque personne des contenus qui y sont diffusés. Cette organisation est une des solutions les plus pertinentes pour freiner la propagation de messages problématiques, mais la Commission compte justement la détruire en lui imposant des obligations impossibles à respecter.
En pratique, la proposition de la Commission est donc non seulement inutile - les géants sont déjà largement actifs pour surveiller et censurer et collaborent très largement avec les autorités en matière antiterroriste.2 Elle est surtout contre-productive : son principal effet serait de détruire l'unique version d'Internet compatible avec nos libertés fondamentales.
Ce règlement vient à peine d'être proposé aujourd'hui. S'ensuivront des débats au sein des différentes institutions européennes. Nous y contribuerons avec la plus grande rigueur.
1. Ce réglement prévoit une obligation pour tout hébergeur Internet, quelque soit sa taille ou son fonctionnement, de retirer dans un délai d'une heure les contenus jugés de nature terroriste, en cas d'injonction faite par les autorités judiciaires ou administratives (article 4). Il permet également à ces dernières d'imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015), mais sur la base des conditions d'utilisation des plateformes (article 5). Le texte invite aussi les acteurs du Net à adopter des mesures « proactives », sous la forme de filtres automatiques scannant les contenus mis en ligne pour bloquer ceux correspondants à certains critères arrêtés par ces firmes (article 6).
2. Depuis 2015, les États comme la France et des organisations telles qu'Europol ont développé de multiples partenariats avec les géants du numérique pour lutter contre la propagande terroriste, le plus souvent au mépris du droit international.
";s:7:"dateiso";s:15:"20180912_150408";}s:15:"20180912_100404";a:7:{s:5:"title";s:128:"Directive droit d'auteur : l'industrie culturelle et la presse réclament les miettes de l'économie de la surveillance de masse";s:4:"link";s:52:"https://www.laquadrature.net/fr/droit_auteur_12_sept";s:4:"guid";s:37:"10613 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 12 Sep 2018 08:04:04 +0000";s:11:"description";s:3859:"
12 septembre 2018 - Le Parlement européen vient d'adopter la directive droit d'auteur, qu'il avait pourtant repoussée une première fois cet été. En ayant fait adopter cette directive, les industries culturelles et de la presse réclament les miettes de l'économie de la surveillance de masse. Plutôt que de combattre cette capitulation devant les GAFAM, le gouvernement français l'a vigoureusement encouragée.
En 20 ans, l'industrie culturelle française n'a jamais su s'adapter à Internet. Aujourd'hui, elle est folle de rage devant le succès de Netflix ou d'Amazon. Donc elle exige les miettes du gâteau. Elle veut contraindre les géants du Web, tels que Youtube ou Facebook, à partager avec elle les revenus de la publicité ciblée associée aux œuvres dont ils sont les ayants-droits.
Mais la publicité ciblée consiste surtout à surveiller tout le monde, partout, tout le temps, sans notre consentement libre. Depuis le 25 mai et le RGPD, c'est illégal, et c'est bien pourquoi nous avons attaqué chacun des GAFAM au printemps dernier devant la CNIL, dans des plaintes collectives réunissant 12 000 personnes.
Pourtant, ayant échoué à évoluer, l'industrie culturelle française est aujourd'hui prête à s'associer à ce modèle illégal. Avec le vote d'aujourd'hui, le financement de la culture se soumet à l'économie de la surveillance de masse. Et il est injustifiable que le gouvernement français, en soutenant lui aussi cette directive, ait consacré la toute puissance illicite des géants du Web, plutôt que de combattre leur modèle de surveillance pour nous en protéger.
Hélas, le débat ne s'arrête pas là. À côté, on retrouve les éditeurs de presse qui, eux non plus, pour la plupart, n'ont jamais su s'adapter. Du coup, ils exigent aujourd'hui que Facebook et Google les financent en les payant pour chaque extrait d'article cité sur leur service. Mais quand les revenus du Monde ou du Figaro dépendront des revenus de Google ou de Facebook, combien de temps encore pourrons-nous lire dans ces journaux des critiques de ces géants ? Plutôt que de s'adapter, les éditeurs de presse préfèrent renoncer entièrement à leur indépendance, sachant par ailleurs que bon nombre d'entre eux mettent en œuvre des pratiques tout aussi intrusives que celles des GAFAM en matière de publicité ciblée (relire notre analyse de leurs pratiques et de leurs positions sur le règlement ePrivacy).
Ici encore, le gouvernement français a encouragé cette capitulation générale face aux géants du Web, qui passent encore davantage pour les maîtres de l'Internet. Pourtant, ils ne sont les maîtres de rien du tout. Internet n'a pas besoin de Google ou de Facebook pour nous permettre de communiquer. Au contraire, ces géants nuisent à nos échanges, pour mieux vendre leur publicité.
Le vote d'aujourd'hui est le symptôme de l'urgence qu'il y a à changer de cadre. Le gouvernement français doit accepter qu'Internet ne se résume pas à une poignée de monopoles. Il doit renoncer aux multinationales du numérique et, enfin, commencer à promouvoir le développement d'un Internet décentralisé - seul capable de respecter nos droits et libertés. Maintenant.
";s:7:"content";s:3859:"
12 septembre 2018 - Le Parlement européen vient d'adopter la directive droit d'auteur, qu'il avait pourtant repoussée une première fois cet été. En ayant fait adopter cette directive, les industries culturelles et de la presse réclament les miettes de l'économie de la surveillance de masse. Plutôt que de combattre cette capitulation devant les GAFAM, le gouvernement français l'a vigoureusement encouragée.
En 20 ans, l'industrie culturelle française n'a jamais su s'adapter à Internet. Aujourd'hui, elle est folle de rage devant le succès de Netflix ou d'Amazon. Donc elle exige les miettes du gâteau. Elle veut contraindre les géants du Web, tels que Youtube ou Facebook, à partager avec elle les revenus de la publicité ciblée associée aux œuvres dont ils sont les ayants-droits.
Mais la publicité ciblée consiste surtout à surveiller tout le monde, partout, tout le temps, sans notre consentement libre. Depuis le 25 mai et le RGPD, c'est illégal, et c'est bien pourquoi nous avons attaqué chacun des GAFAM au printemps dernier devant la CNIL, dans des plaintes collectives réunissant 12 000 personnes.
Pourtant, ayant échoué à évoluer, l'industrie culturelle française est aujourd'hui prête à s'associer à ce modèle illégal. Avec le vote d'aujourd'hui, le financement de la culture se soumet à l'économie de la surveillance de masse. Et il est injustifiable que le gouvernement français, en soutenant lui aussi cette directive, ait consacré la toute puissance illicite des géants du Web, plutôt que de combattre leur modèle de surveillance pour nous en protéger.
Hélas, le débat ne s'arrête pas là. À côté, on retrouve les éditeurs de presse qui, eux non plus, pour la plupart, n'ont jamais su s'adapter. Du coup, ils exigent aujourd'hui que Facebook et Google les financent en les payant pour chaque extrait d'article cité sur leur service. Mais quand les revenus du Monde ou du Figaro dépendront des revenus de Google ou de Facebook, combien de temps encore pourrons-nous lire dans ces journaux des critiques de ces géants ? Plutôt que de s'adapter, les éditeurs de presse préfèrent renoncer entièrement à leur indépendance, sachant par ailleurs que bon nombre d'entre eux mettent en œuvre des pratiques tout aussi intrusives que celles des GAFAM en matière de publicité ciblée (relire notre analyse de leurs pratiques et de leurs positions sur le règlement ePrivacy).
Ici encore, le gouvernement français a encouragé cette capitulation générale face aux géants du Web, qui passent encore davantage pour les maîtres de l'Internet. Pourtant, ils ne sont les maîtres de rien du tout. Internet n'a pas besoin de Google ou de Facebook pour nous permettre de communiquer. Au contraire, ces géants nuisent à nos échanges, pour mieux vendre leur publicité.
Le vote d'aujourd'hui est le symptôme de l'urgence qu'il y a à changer de cadre. Le gouvernement français doit accepter qu'Internet ne se résume pas à une poignée de monopoles. Il doit renoncer aux multinationales du numérique et, enfin, commencer à promouvoir le développement d'un Internet décentralisé - seul capable de respecter nos droits et libertés. Maintenant.
";s:7:"dateiso";s:15:"20180912_100404";}s:15:"20180910_111747";a:7:{s:5:"title";s:106:"Directive sur le droit d’auteur : l’affrontement factice des deux têtes du capitalisme informationnel";s:4:"link";s:58:"https://www.laquadrature.net/fr/capitalisme_informationnel";s:4:"guid";s:37:"10612 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 10 Sep 2018 09:17:47 +0000";s:11:"description";s:7155:"
Nous republions la tribune de Félix Tréguer parue dans Le Monde le 8 septembre 2018
Un quart de siècle qu’on se repasse ce même mauvais film, celui où les industries culturelles instrumentalisent la loi pour faire la guerre à leur public. En cause cette fois-ci, l’article 13 de la directive sur le droit d’auteur en cours d’examen à Bruxelles, et sur lequel le Parlement européen se prononcera le 12 septembre.
Dans sa rédaction actuelle, cette disposition impose que, dans le cadre d’accords avec les sociétés d’ayants droit (telle la Sacem), les plates-formes numériques (YouTube, Facebook et consorts) recourent à des outils de filtrage automatisés. Le but ? Repérer les contenus publiés par les internautes et bloquer ceux incluant des œuvres couvertes par le droit d’auteur. Une forme de censure préalable, automatisée et privatisée.
Rien de bien nouveau, donc. En effet, depuis le milieu des années 1990, les industries culturelles (musique, cinéma, édition…) n’ont eu de cesse d’exiger des législateurs et des tribunaux la « collaboration » forcée des fournisseurs d’accès à Internet et des hébergeurs pour lutter contre l’échange gratuit d’œuvres culturelles sur les réseaux.
L’ACTA rejeté en 2012
A l’époque déjà, ces débats avaient conduit à la mobilisation des associations de défense des droits dans l’environnement numérique. Comme aujourd’hui, ces dernières faisaient valoir que la logique poursuivie était dangereuse, puisqu’elle revenait à confier à des entreprises privées un rôle de surveillance et de censure des communications sur le Net.
Ces débats débouchèrent en Europe sur un compromis instable à travers une directive adoptée en juin 2000, qui semblait donner gain de cause aux militants et aux acteurs de l’économie numérique. Les « intermédiaires techniques » d’Internet, et en particulier les hébergeurs, ne seraient plus inquiétés tant qu’ils ne joueraient pas de rôle actif dans la diffusion des contenus litigieux. Il leur fallait répondre aux demandes judiciaires visant à retirer les publications illicites, mais les Etats ne pourraient pas leur imposer d’« obligation générale de surveillance » des communications pour détecter et empêcher de telles publications.
Depuis, les initiatives visant à imposer des filtres automatiques se sont pourtant multipliées. Et parfois, en France notamment, leurs promoteurs ont eu gain de cause devant les tribunaux. Toutefois, dans deux arrêts importants rendus en 2011 et 2012 au nom de la protection de la liberté de communication et de la vie privée, la Cour de justice de l’Union européenne s’est opposée aux demandes d’une société de gestion visant à imposer à un fournisseur d’accès ou à un hébergeur la mise en place de tels filtres. En 2012, le Parlement européen a également rejeté l’Accord commercial anti-contrefaçon (ACTA), qui aurait pu banaliser, à l’échelle mondiale, le recours à ces outils de filtrage.
Surveillance des utilisateurs
Sauf que, entre-temps, l’économie politique d’Internet a été profondément ébranlée par l’apparition d’un nouvel oligopole, composé de quelques firmes presque entièrement consacrées à la régulation algorithmique de l’information. Il y a ainsi plus de dix ans que Google, mis sous pression par les multinationales du divertissement, a déployé au sein de sa filiale YouTube un système de filtrage baptisé Content ID.
En scannant automatiquement l’ensemble des vidéos mises en ligne par les utilisateurs et en les confrontant à une base de données de contenus soumis au droit d’auteur, les algorithmes de Content ID permettent aux ayants droit de bloquer ou de monétiser les vidéos incluant des œuvres dont ils détiennent les droits. Un dispositif que l’article 13 de la directive sur le droit d’auteur cherche à généraliser.
Or, Content ID a conduit à de nombreux cas de censure voyant des ayants droit revendiquer des œuvres qui ne leur appartenaient pas. Il s’avère aussi incapable de respecter les exceptions légales au droit d’auteur (citation, parodie…) sur lesquelles se fondent des nouvelles pratiques artistiques (remix, mashups…). Google a donc beau jeu de critiquer l’article 13 au nom de la défense des libertés, en chœur avec d’autres entreprises du numérique qui ont placé la censure privée et la surveillance des utilisateurs au cœur de leurs modèles économiques.
Incapables de repenser les politiques culturelles
A l’hypocrisie des géants du numérique répond celle des industries culturelles. Trop occupées à défendre une vision « propriétariste » du droit d’auteur et à réprimer le partage d’œuvres sur les réseaux peer to peer (« de pair à pair »), elles se montrent incapables de repenser les politiques culturelles à l’ère numérique. Résultat : elles en sont aujourd’hui réduites à négocier piteusement avec les grandes entreprises de technologie qui, profitant de leur incurie, ont raflé la mise.
Car c’est bien ce qui se joue actuellement avec la directive sur le droit d’auteur : l’affrontement des deux têtes de l’hydre du capitalisme informationnel. Industries culturelles versus plates-formes numériques, qui veulent chacune se ménager le maximum de marge de manœuvre dans leur négociation d’une forme de « licence globale » privatisée, laquelle viendra renforcer leurs positions oligopolistiques au détriment tant du public que des artistes.
Que faire pour sortir de ce cycle délétère ? D’abord, rejeter l’article 13 et le monde qu’il représente, celui où l’espace public et la liberté d’expression sont soumis aux décisions d’algorithmes opaques. Si le Parlement européen tient encore à inscrire l’Union européenne dans la tradition de l’Etat de droit, il réaffirmera la position qui est la sienne depuis près de vingt ans et le rejettera.
Et après ? On voudrait croire, comme nous l’avions cru en 2012 avec le rejet de l’ACTA, qu’une telle décision marquera le début d’une refondation des politiques culturelles et numériques. Mais, en dépit de quelques signes encourageants de l’UE pour contrer la dominance des Gafam (Google, Apple, Facebook, Amazon et Microsoft), il y a fort à parier que les Etats continueront de composer avec les nouveaux seigneurs de l’espace public… D’où l’importance de cultiver des espaces de résistance renouant avec le projet de faire d’Internet une bibliothèque universelle, envers et contre le droit si nécessaire.
Félix Tréguer
Chercheur postdoctorant à l’Institut des sciences de la communication (CNRS) et membre de La Quadrature du Net.
";s:7:"content";s:7155:"
Nous republions la tribune de Félix Tréguer parue dans Le Monde le 8 septembre 2018
Un quart de siècle qu’on se repasse ce même mauvais film, celui où les industries culturelles instrumentalisent la loi pour faire la guerre à leur public. En cause cette fois-ci, l’article 13 de la directive sur le droit d’auteur en cours d’examen à Bruxelles, et sur lequel le Parlement européen se prononcera le 12 septembre.
Dans sa rédaction actuelle, cette disposition impose que, dans le cadre d’accords avec les sociétés d’ayants droit (telle la Sacem), les plates-formes numériques (YouTube, Facebook et consorts) recourent à des outils de filtrage automatisés. Le but ? Repérer les contenus publiés par les internautes et bloquer ceux incluant des œuvres couvertes par le droit d’auteur. Une forme de censure préalable, automatisée et privatisée.
Rien de bien nouveau, donc. En effet, depuis le milieu des années 1990, les industries culturelles (musique, cinéma, édition…) n’ont eu de cesse d’exiger des législateurs et des tribunaux la « collaboration » forcée des fournisseurs d’accès à Internet et des hébergeurs pour lutter contre l’échange gratuit d’œuvres culturelles sur les réseaux.
L’ACTA rejeté en 2012
A l’époque déjà, ces débats avaient conduit à la mobilisation des associations de défense des droits dans l’environnement numérique. Comme aujourd’hui, ces dernières faisaient valoir que la logique poursuivie était dangereuse, puisqu’elle revenait à confier à des entreprises privées un rôle de surveillance et de censure des communications sur le Net.
Ces débats débouchèrent en Europe sur un compromis instable à travers une directive adoptée en juin 2000, qui semblait donner gain de cause aux militants et aux acteurs de l’économie numérique. Les « intermédiaires techniques » d’Internet, et en particulier les hébergeurs, ne seraient plus inquiétés tant qu’ils ne joueraient pas de rôle actif dans la diffusion des contenus litigieux. Il leur fallait répondre aux demandes judiciaires visant à retirer les publications illicites, mais les Etats ne pourraient pas leur imposer d’« obligation générale de surveillance » des communications pour détecter et empêcher de telles publications.
Depuis, les initiatives visant à imposer des filtres automatiques se sont pourtant multipliées. Et parfois, en France notamment, leurs promoteurs ont eu gain de cause devant les tribunaux. Toutefois, dans deux arrêts importants rendus en 2011 et 2012 au nom de la protection de la liberté de communication et de la vie privée, la Cour de justice de l’Union européenne s’est opposée aux demandes d’une société de gestion visant à imposer à un fournisseur d’accès ou à un hébergeur la mise en place de tels filtres. En 2012, le Parlement européen a également rejeté l’Accord commercial anti-contrefaçon (ACTA), qui aurait pu banaliser, à l’échelle mondiale, le recours à ces outils de filtrage.
Surveillance des utilisateurs
Sauf que, entre-temps, l’économie politique d’Internet a été profondément ébranlée par l’apparition d’un nouvel oligopole, composé de quelques firmes presque entièrement consacrées à la régulation algorithmique de l’information. Il y a ainsi plus de dix ans que Google, mis sous pression par les multinationales du divertissement, a déployé au sein de sa filiale YouTube un système de filtrage baptisé Content ID.
En scannant automatiquement l’ensemble des vidéos mises en ligne par les utilisateurs et en les confrontant à une base de données de contenus soumis au droit d’auteur, les algorithmes de Content ID permettent aux ayants droit de bloquer ou de monétiser les vidéos incluant des œuvres dont ils détiennent les droits. Un dispositif que l’article 13 de la directive sur le droit d’auteur cherche à généraliser.
Or, Content ID a conduit à de nombreux cas de censure voyant des ayants droit revendiquer des œuvres qui ne leur appartenaient pas. Il s’avère aussi incapable de respecter les exceptions légales au droit d’auteur (citation, parodie…) sur lesquelles se fondent des nouvelles pratiques artistiques (remix, mashups…). Google a donc beau jeu de critiquer l’article 13 au nom de la défense des libertés, en chœur avec d’autres entreprises du numérique qui ont placé la censure privée et la surveillance des utilisateurs au cœur de leurs modèles économiques.
Incapables de repenser les politiques culturelles
A l’hypocrisie des géants du numérique répond celle des industries culturelles. Trop occupées à défendre une vision « propriétariste » du droit d’auteur et à réprimer le partage d’œuvres sur les réseaux peer to peer (« de pair à pair »), elles se montrent incapables de repenser les politiques culturelles à l’ère numérique. Résultat : elles en sont aujourd’hui réduites à négocier piteusement avec les grandes entreprises de technologie qui, profitant de leur incurie, ont raflé la mise.
Car c’est bien ce qui se joue actuellement avec la directive sur le droit d’auteur : l’affrontement des deux têtes de l’hydre du capitalisme informationnel. Industries culturelles versus plates-formes numériques, qui veulent chacune se ménager le maximum de marge de manœuvre dans leur négociation d’une forme de « licence globale » privatisée, laquelle viendra renforcer leurs positions oligopolistiques au détriment tant du public que des artistes.
Que faire pour sortir de ce cycle délétère ? D’abord, rejeter l’article 13 et le monde qu’il représente, celui où l’espace public et la liberté d’expression sont soumis aux décisions d’algorithmes opaques. Si le Parlement européen tient encore à inscrire l’Union européenne dans la tradition de l’Etat de droit, il réaffirmera la position qui est la sienne depuis près de vingt ans et le rejettera.
Et après ? On voudrait croire, comme nous l’avions cru en 2012 avec le rejet de l’ACTA, qu’une telle décision marquera le début d’une refondation des politiques culturelles et numériques. Mais, en dépit de quelques signes encourageants de l’UE pour contrer la dominance des Gafam (Google, Apple, Facebook, Amazon et Microsoft), il y a fort à parier que les Etats continueront de composer avec les nouveaux seigneurs de l’espace public… D’où l’importance de cultiver des espaces de résistance renouant avec le projet de faire d’Internet une bibliothèque universelle, envers et contre le droit si nécessaire.
Félix Tréguer
Chercheur postdoctorant à l’Institut des sciences de la communication (CNRS) et membre de La Quadrature du Net.
";s:7:"dateiso";s:15:"20180910_111747";}s:15:"20180727_151455";a:7:{s:5:"title";s:88:"Un collège-lycée contraint illégalement des enfants à être traçables en permanence";s:4:"link";s:42:"https://www.laquadrature.net/fr/new_school";s:4:"guid";s:37:"10605 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 27 Jul 2018 13:14:55 +0000";s:11:"description";s:27151:"
30 juillet 2018 - Il y a dix jours, une lycéenne de l'établissement scolaire privé Rocroy Saint-Vincent de Paul, à Paris, a révélé un changement du règlement intérieur de l'établissement. À compter de la rentrée, chaque collégien et lycéen devra porter sur lui un porte-clef fourni à l'établissement par la start-up française New School et qui permettra de localiser l'élève via une puce Bluetooth intégrée. Voici le résultat de notre analyse juridique et technique de ce système, concluant à son illégalité.
Mise à jour du 29 août 2018 :
Newschool a publié hier une réponse aux critiques la visant. Pour défendre son système, la start-up met en avant l'obligation légale de faire l'appel en classe. L'existence de cette obligation n'est pas le sujet du débat : ce qui importe est de savoir si le porte-clef permet de répondre licitement à cette obligation - ce n'est pas le cas.
Ensuite, quant à la licéité du porte-clef, New School se contente d'évoquer des « informations erronées » de la part de ses détracteurs. La start-up ne propose pourtant aucun élément précis pour contredire les nombreux points de notre analyse technique et juridique.
Enfin, cette réponse montre que New School refuse de voir que le problème est avant tout dans le rapport à nos libertés fondamentales : renoncer à celles-ci pour rendre certaines tâches moins rébarbatives n'est pas une solution, et nous espérons que les écoles ne se laisseront pas prendre à ce piège.
Fonctionnement du porte-clef
L'établissement scolaire a expliqué que le porte-clef obligatoire lui sera fourni par New School, une start-up française soutenue notamment par Apple1 et mise en avant en 2016 par Qwant2.
Le porte-clef intègre une puce Bluetooth, gérée par un logiciel fourni par une autre start-up française, Ubudu, qui a annoncé sa collaboration avec New School depuis 2016.
Sur son site, Ubudu se décrit ainsi : « Ubudu est la solution RTLS de prochaine génération, qui piste, analyse et détecte biens et personnes sur des lieux industriels ou de services : aéroports, usines, hôpitaux, magasins, centres sportifs ou de loisir, etc. Ubudu fonctionne uniquement avec des petits tags ou smartphones échangeant des signaux radio avec des capteurs fixes, et un serveur de localisation qui calcule et traite la position »3.
Dans sa documentation technique, Ubudu décrit un de ces tags, le tag BLE (Bluetooth Low Energy) : « utilisez des tags BLE si vous avez de nombreux biens à pister et n'avez pas besoin d'une précision en deçà de 1-2m. [...] Des exemples de mise en œuvre comprennent la solution de service en salle de McDonalds ou le badge étudiant New School (voir photo). Vous pouvez aussi utiliser des équipements iBeacon standards, dont nous recommandons ceux de haute qualité, tels que ceux de EM Microelectronics »4.
Parmi les puces EM Microelectronics auxquelles renvoient Ubudu se trouve la puce EMBC01. La fiche technique de cette puce indique qu'elle peut signaler sa présence (en émettant un message radio) une fois par seconde, et qu'elle a alors une portée de 75 mètres et une durée de vie de 12,5 mois.
Nous pensons que cette puce (recommandée par Ubudu, partenaire de New School), ou une puce similaire, est celle intégrée dans le porte-clef New School. En effet, la documentation commerciale de New School indique que « la durée de vie de nos porte-clés connectés est d’environ 13 mois », ce qui correspond à la durée de 12,5 mois de la puce EMBC01. De même, après prise de contact avec New School, NextInpact explique que, « à en croire ses développeurs, cette clef [...] dispose d’une portée de 15 à 25 mètres en intérieur, et même 75 mètres à l’extérieur » - la même portée que la puce EMBC01.
Enfin, la puce qui apparait sur plusieurs photo du porte-clef New School (ici, en bas, une photo de 2016 tirée de l'article de Qwant en soutien à la start-up) est identique à l'image de la puce EMBC01 diffusée par EM Microelectronics dans sa documentation (ici, en haut).
Le porte-clef New School émet donc constamment, une fois par seconde et pendant 13 mois, un identifiant unique, propre à chaque porte-clef et, ainsi, à chaque enfant. Cet identifiant peut être capté par les smartphones situés dans un rayon de plusieurs dizaines de mètres.
Dans son règlement intérieur, l'établissement Rocroy explique que le port constant du porte-clef par les enfants permettra « de s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité ». Comme le détaille New School dans sa documentation, les professeurs et encadrants, munis de smartphone, pourront recevoir l'identifiant unique émis par chaque porte-clef et, ainsi, contrôler la présence des porte-clefs environnants (et, par là, en théorie, de chaque enfant dont le nom et la photo sont associés à chaque identifiant Bluetooth dans la base de données New School).
Charlemagne/EcoleDirecte
Dans sa documentation, New School explique que « tous les outils édités par NewSchool sont conçus avec un souci permanent de protéger les données : [...] chacun accède uniquement aux données auxquelles le chef d'établissement lui donne accès, le niveau de sécurité des mots de passe est celui dépendant du logiciel Charlemagne/EcoleDirecte ».
Charlemagne/EcoleDirecte est un logiciel de suivi de scolarité développé par l'entreprise française STATIM. Cette entreprise fournit en ligne la documentation du logiciel. On y découvre les fonctionnements d'une sécurité d'un autre âge...
Pour la création d'un nouveau profil, c'est l'administrateur qui choisit lui-même le mot de passe pour chaque utilisateur. Pour qu'un utilisateur récupère son mot de passe, celui-ci lui est alors envoyé en clair par email. Si le mot de passe peut lui être envoyé de la sorte, c'est manifestement qu'il est conservé en clair sur le serveur... contrairement aux recommandations élémentaires de la CNIL5.
Faire reposer l'identification de données de localisation d'enfants sur un système aussi peu sécurisé, initialement développé pour un usage très différent, est impensable. C'est pourtant ce qu'explique faire New School.
De fausses affirmations
Dans un communiqué réagissant à la polémique naissante, l'établissement Rocroy explique, tentant d'être rassurant, que « le bluetooth ne s’active que lorsque l’enseignant fait l’appel. Le reste du temps, les porte-clés s’éteignent automatiquement ».
Cette affirmation rend absurde la durée de vie de 13 mois du porte-clef annoncée par New School dans la documentation. Au regard de l'état de l'art des puces Bluetooth (tel qu'il en ressort des caractéristiques de la puce EMBC01), une puce qui serait activée une poignée de minutes seulement par jour (le temps de faire l'appel) aurait une durée de vie de plusieurs années et n'aurait pas besoin d'être renouvelée tous les 13 mois.
Ce renouvellement de la puce aurait pu être justifié par le passage d'une année à l'autre par chaque enfant, mais le délai de renouvellement aurait alors été de 12 mois et non de 13. Le renouvellement de la puce n'est donc justifiable que par une seule raison : la puce est activée de façon constante, 24h/24, même en dehors des 8 heures de classe quotidiennes (sans quoi la durée de vie annoncée serait triple, de l'ordre de 39 mois).
Par ailleurs, l'idée que la puce n'émette qu'au moment de l'appel est inconciliable avec la détection des enfants en CDI (en bibliothèque) : ce lieu pouvant être accédé n'importe quand, il n'y a pas d'appel à y faire à un instant déterminé. La puce doit émettre régulièrement pour signaler une présence au du CDI.
L'affirmation de l'établissement Rocroy semble donc fausse. Les conséquences seraient lourdes. Certes, l'identifiant unique émis par le porte-clef n'indique pas directement le nom d'un élève. Mais qu'importe : activé en permanence, il permettrait de suivre à la trace chaque enfant de façon individualisée (l'identifiant étant unique), au simple moyen d'un smartphone (EM Microelectronics fournit même une application à cette fin), n'importe où, même en dehors de l'école, pour peu qu'on se trouve dans un rayon de 75 mètres de l'enfant.
Si l'établissement ne fournit pas d'informations nouvelles permettant de contredire cette hypothèse, nous viendrons la vérifier en pratique à la rentrée devant son lycée, qui n'est pas très loin de nos locaux.
Par ailleurs, dans son communiqué de presse, l'établissement prétend que le porte-clef « n’utilise pas la géolocalisation, et ne permet donc pas de connaitre la position ou les déplacements des élèves ».
Ce n'est pas ce que révèle la fiche de l'application New School qui sera utilisée sur smartphone par le personnel de l'établissement afin de détecter les porte-clefs à proximité. Au moment de son installation, l'application demande de pouvoir transmettre à New School la géolocalisation précise du smartphone, notamment par GPS. Or, la géolocalisation du smartphone permettra aussi de géolocaliser les portes-clefs détectés qui, par définition, seront situés dans une proximité directe. L'affirmation de l'établissement est donc fausse : le porte-clef permettra d'indiquer à New School la position des enfants dès lors qu'ils se trouveront à proximité d'un smartphone utilisant l'application New School.
Enfin, dans son communiqué, l'établissement a cru bon de prétendre que « les données personnelles (nom de l’élève, emploi du temps) sont protégées et cryptées, en accord avec la CNIL ». Or, comme on l'a vu, le système Charlemagne/EcoleDirecte sur lequel repose New School ne satisfait aucune des recommandations de la CNIL élémentaires en matière de sécurité. Ainsi, contactée par Le Point sur cette affaire, la CNIL a déclaré mardi dernier « ne pas avoir eu d'échange avec le lycée Rocroy sur le dispositif ».
Un système illégal
Le port obligatoire du porte-clef New School par chaque enfant semble illicite du simple fait que l'information fournie par l'établissement sur l'interruption automatique du porte-clef serait fausse, alors que le règlement général sur la protection des données (RGPD) exige une information loyale.
De plus, quand bien même cette information serait juste (si le porte-clef n'émettait pas constamment), le système serait illicite pour d'autres raisons.
D'abord, le RGPD exige que tout traitement de données personnelles soit fondé sur une base légale : le consentement, la nécessité de fournir un service public ou la nécessité de poursuivre un « intérêt légitime ».
Ici, les enfants ne peuvent donner aucun consentement valide au traçage : ils n'ont pas le choix de l'accepter pour aller en cours et ne peuvent l'accepter qu'en même temps qu'ils acceptent l'ensemble du règlement intérieur. Leur consentement, qui ne serait ni libre ni spécifique, ne serait jamais reconnu comme valide par la CNIL (au sujet du caractère libre du consentement, voir l'analyse détaillée développée dans nos plaintes collectives contre les GAFAM).
S'agissant de la nécessité de fournir un service public ou de poursuivre un intérêt légitime (tel que faire l'appel des élèves), il faut d'abord démontrer que le système est « nécessaire ». En droit, ceci implique notamment qu'il n'existe aucun autre système alternatif qui, atteignant les mêmes objectifs, cause des risques moins élevés en matière d'atteinte aux libertés fondamentales. Ici, l'appel des enfants à l'oral remplit les mêmes objectifs sans poser de risque pour la vie privée. Le fait que le traçage par localisation automatique des enfants simplifie l'appel des élèves ne saurait le rendre « nécessaire », surtout au regard des risques importants qu'il cause quant à la traçabilité constante de la position de chaque enfant.
Toutefois, ce débat sur la « nécessité » a déjà été tranché par le groupe de l'article 29 (G29, l'institution qui réunissait les CNIL des 28 États membres de l'Union européenne et qui est devenu le Comité européen de la protection des données depuis le 25 mai 2018).
Depuis 2011, le G29 considère que, dans les cas où des personnes pourraient être localisées au moyen de signaux émis par un dispositif qu'elles transportent, et dans le cas où cela serait possible non pas sur la base de leur consentement mais sur celui d'un « intérêt légitime », il faut systématiquement que ces personnes puissent librement et facilement s'opposer à un tel traçage, à tout moment.
Dans notre cas, à l'inverse, l'établissement Rocroy sanctionne les enfants qui s'opposerait au pistage en refusant de porter le porte-clef. L'obligation de le porter est donc illicite de ce seul fait.
Par ailleurs, peu importe la base légale du traitement de données personnelles, le RGPD exige que celui-ci soit accompagné d'un certain nombre d'informations. Le responsable de traitement doit indiquer :
son identité et ses coordonnées ;
les finalités poursuivies ;
l’étendue des droits de la personne concernée ;
si les données sont transmises à des tiers, l'identité de ces destinataires ou la catégorie de ces destinataires ;
la condition de licéité remplie par le traitement – en précisant, selon le cas, l'intérêt légitime défendu ou la possibilité de retirer le consentement donné ;
la durée de conservation des données ;
l'existence d'un transfert de données en dehors de l’Union, en précisant les garanties encadrant ce transfert ;
l’existence d'une prise de décision automatisé.
Dans notre cas, l'établissement n'a fourni aucune de ces informations, si ce n'est, éventuellement, certaines des finalités envisagées (s'agissant des élèves, « s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité »), sans qu'on ne sache toutefois si ces finalités sont exhaustives.
Les autres informations sont simplement absentes, rendant le système illicite de ce seul fait.
Enfin, comme vu plus haut, les obligations de sécurité imposées par le RGPD ne sont pas respectées puisque le système New School repose sur le système complètement obsolète de Charlemagne/EcoleDirecte.
Et maintenant ?
Nous invitons les élèves et parents d'élèves de l'établissement Rocroy à se saisir des éléments développés ici pour saisir la justice en référé afin de faire changer le règlement intérieur avant la rentrée.
De façon plus générale, nous appelons la CNIL à enquêter sur la start-up New School avant que celle-ci ne démarche d'autres établissements. La situation est des plus inquiétante puisque, dès 2016, d'après Le Figaro Madame, « le cabinet de Valérie Pécresse lui fait savoir qu'ils aimeraient utiliser l'application pour toute la région Île-de-France ».
Politiquement, le cas de New School révèle un mouvement plus profond et plus grave : les puces choisies par New School ont initialement été pensées et sont normalement utilisées pour localiser des objets fixes (des murs) ou mobiles (des marchandises) afin qu'un humain muni d'un smartphone puisse se repérer parmi ces objets. Cette situation s'inverse ici : la puce n'est plus attachée à des objets mais à des enfants ; le smartphone ne sert plus à se repérer dans l'espace mais, immobile au poste du surveillant, à définir l'espace dans lequel les humains peuvent évoluer. L'humain ne se déplace plus parmi les choses : il est une chose comprise par d'autres.
1. En janvier dernier, La Tribune explique, au sujet de la créatrice de New School, après que celle-ci a remporté un prix pour jeune startupeux : Quelques mois plus tard, Apple entre en contact avec elle et lui demande de pitcher deux jours plus tard dans ses bureaux londoniens. « J'étais déjà sur place, à croire qu'ils m'avaient tracée... » Dans le développement de NewSchool, la marque à la pomme a joué un rôle important, notamment dans la conception de l'application mais aussi dans la commercialisation : « Le marché de l'éducation en France est assez impénétrable, nous avons échangé beaucoup d'informations ».
[...] Le coaching by Apple est toujours d'actualité. La jeune entrepreneure participe à de nombreux événements et voit régulièrement des développeurs, français et anglais, pour avancer sur l'application. Elle a même eu le privilège de rencontrer Tim Cook, en février dernier. Au tout début, il était question de faire de NewSchool une application préintégrée sur les appareils vendus aux établissements scolaires, mais « à l'époque nous n'étions pas assez développés, ni commercialement ni au niveau des fonctionnalités. Il nous faut encore grandir pour espérer un jour avoir une application commune », explique-t-elle. Et le travail en famille est toujours valable. « Ma mère est directrice commerciale, elle travaille beaucoup. Nous avons fait le salon de l'éducation la semaine dernière, c'est elle qui a tout géré », s'enthousiasme la jeune femme.
2. Qwant semble avoir dé-publié son article en soutien à New School, mais nous en avions fait une copie. En réaction au présent article, Qwant a précisé que « Nous avons été invité à remettre un prix étudiant à la fondatrice pour son projet entrepreneurial (elle était la plus jeune entrepreneuse de France) mais notre lien avec l'entreprise n'a pas été au-delà de ce concours. »
3. Notre traduction de « Ubudu is a next-generation RTLS solution, which tracks, analyses and detects assets and people in industrial or service sites: airports, factories, hospitals, retail, sport & leisure venues, etc. Ubudu simply works with small tags or smartphones exchanging radio-signals with fixed sensors, and a location server that computes and processes the position. »
4. Notre traduction de « Use BLE Tags if you have many assets to track and do not need accuracy below 1-2m. (...) Examples of realizations include McDonald’s table service solution and New School student tokens (include pictures). You can also go with standard iBeacon devices, for which we recommend those of high quality, such as EM Microelectronics ».
5. De bon sens, la CNIL exige que « le mot de passe ne doit pas être communiqué à l'utilisateur en clair par courrier électronique » et que « le mot de passe ne doit jamais être stocké en clair ».
";s:7:"content";s:27163:"
30 juillet 2018 - Il y a dix jours, une lycéenne de l'établissement scolaire privé Rocroy Saint-Vincent de Paul, à Paris, a révélé un changement du règlement intérieur de l'établissement. À compter de la rentrée, chaque collégien et lycéen devra porter sur lui un porte-clef fourni à l'établissement par la start-up française New School et qui permettra de localiser l'élève via une puce Bluetooth intégrée. Voici le résultat de notre analyse juridique et technique de ce système, concluant à son illégalité.
Mise à jour du 29 août 2018 :
Newschool a publié hier une réponse aux critiques la visant. Pour défendre son système, la start-up met en avant l'obligation légale de faire l'appel en classe. L'existence de cette obligation n'est pas le sujet du débat : ce qui importe est de savoir si le porte-clef permet de répondre licitement à cette obligation - ce n'est pas le cas.
Ensuite, quant à la licéité du porte-clef, New School se contente d'évoquer des « informations erronées » de la part de ses détracteurs. La start-up ne propose pourtant aucun élément précis pour contredire les nombreux points de notre analyse technique et juridique.
Enfin, cette réponse montre que New School refuse de voir que le problème est avant tout dans le rapport à nos libertés fondamentales : renoncer à celles-ci pour rendre certaines tâches moins rébarbatives n'est pas une solution, et nous espérons que les écoles ne se laisseront pas prendre à ce piège.
Fonctionnement du porte-clef
L'établissement scolaire a expliqué que le porte-clef obligatoire lui sera fourni par New School, une start-up française soutenue notamment par Apple1 et mise en avant en 2016 par Qwant2.
Le porte-clef intègre une puce Bluetooth, gérée par un logiciel fourni par une autre start-up française, Ubudu, qui a annoncé sa collaboration avec New School depuis 2016.
Sur son site, Ubudu se décrit ainsi : « Ubudu est la solution RTLS de prochaine génération, qui piste, analyse et détecte biens et personnes sur des lieux industriels ou de services : aéroports, usines, hôpitaux, magasins, centres sportifs ou de loisir, etc. Ubudu fonctionne uniquement avec des petits tags ou smartphones échangeant des signaux radio avec des capteurs fixes, et un serveur de localisation qui calcule et traite la position »3.
Dans sa documentation technique, Ubudu décrit un de ces tags, le tag BLE (Bluetooth Low Energy) : « utilisez des tags BLE si vous avez de nombreux biens à pister et n'avez pas besoin d'une précision en deçà de 1-2m. [...] Des exemples de mise en œuvre comprennent la solution de service en salle de McDonalds ou le badge étudiant New School (voir photo). Vous pouvez aussi utiliser des équipements iBeacon standards, dont nous recommandons ceux de haute qualité, tels que ceux de EM Microelectronics »4.
Parmi les puces EM Microelectronics auxquelles renvoient Ubudu se trouve la puce EMBC01. La fiche technique de cette puce indique qu'elle peut signaler sa présence (en émettant un message radio) une fois par seconde, et qu'elle a alors une portée de 75 mètres et une durée de vie de 12,5 mois.
Nous pensons que cette puce (recommandée par Ubudu, partenaire de New School), ou une puce similaire, est celle intégrée dans le porte-clef New School. En effet, la documentation commerciale de New School indique que « la durée de vie de nos porte-clés connectés est d’environ 13 mois », ce qui correspond à la durée de 12,5 mois de la puce EMBC01. De même, après prise de contact avec New School, NextInpact explique que, « à en croire ses développeurs, cette clef [...] dispose d’une portée de 15 à 25 mètres en intérieur, et même 75 mètres à l’extérieur » - la même portée que la puce EMBC01.
Enfin, la puce qui apparait sur plusieurs photo du porte-clef New School (ici, en bas, une photo de 2016 tirée de l'article de Qwant en soutien à la start-up) est identique à l'image de la puce EMBC01 diffusée par EM Microelectronics dans sa documentation (ici, en haut).
Le porte-clef New School émet donc constamment, une fois par seconde et pendant 13 mois, un identifiant unique, propre à chaque porte-clef et, ainsi, à chaque enfant. Cet identifiant peut être capté par les smartphones situés dans un rayon de plusieurs dizaines de mètres.
Dans son règlement intérieur, l'établissement Rocroy explique que le port constant du porte-clef par les enfants permettra « de s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité ». Comme le détaille New School dans sa documentation, les professeurs et encadrants, munis de smartphone, pourront recevoir l'identifiant unique émis par chaque porte-clef et, ainsi, contrôler la présence des porte-clefs environnants (et, par là, en théorie, de chaque enfant dont le nom et la photo sont associés à chaque identifiant Bluetooth dans la base de données New School).
Charlemagne/EcoleDirecte
Dans sa documentation, New School explique que « tous les outils édités par NewSchool sont conçus avec un souci permanent de protéger les données : [...] chacun accède uniquement aux données auxquelles le chef d'établissement lui donne accès, le niveau de sécurité des mots de passe est celui dépendant du logiciel Charlemagne/EcoleDirecte ».
Charlemagne/EcoleDirecte est un logiciel de suivi de scolarité développé par l'entreprise française STATIM. Cette entreprise fournit en ligne la documentation du logiciel. On y découvre les fonctionnements d'une sécurité d'un autre âge...
Pour la création d'un nouveau profil, c'est l'administrateur qui choisit lui-même le mot de passe pour chaque utilisateur. Pour qu'un utilisateur récupère son mot de passe, celui-ci lui est alors envoyé en clair par email. Si le mot de passe peut lui être envoyé de la sorte, c'est manifestement qu'il est conservé en clair sur le serveur... contrairement aux recommandations élémentaires de la CNIL5.
Faire reposer l'identification de données de localisation d'enfants sur un système aussi peu sécurisé, initialement développé pour un usage très différent, est impensable. C'est pourtant ce qu'explique faire New School.
De fausses affirmations
Dans un communiqué réagissant à la polémique naissante, l'établissement Rocroy explique, tentant d'être rassurant, que « le bluetooth ne s’active que lorsque l’enseignant fait l’appel. Le reste du temps, les porte-clés s’éteignent automatiquement ».
Cette affirmation rend absurde la durée de vie de 13 mois du porte-clef annoncée par New School dans la documentation. Au regard de l'état de l'art des puces Bluetooth (tel qu'il en ressort des caractéristiques de la puce EMBC01), une puce qui serait activée une poignée de minutes seulement par jour (le temps de faire l'appel) aurait une durée de vie de plusieurs années et n'aurait pas besoin d'être renouvelée tous les 13 mois.
Ce renouvellement de la puce aurait pu être justifié par le passage d'une année à l'autre par chaque enfant, mais le délai de renouvellement aurait alors été de 12 mois et non de 13. Le renouvellement de la puce n'est donc justifiable que par une seule raison : la puce est activée de façon constante, 24h/24, même en dehors des 8 heures de classe quotidiennes (sans quoi la durée de vie annoncée serait triple, de l'ordre de 39 mois).
Par ailleurs, l'idée que la puce n'émette qu'au moment de l'appel est inconciliable avec la détection des enfants en CDI (en bibliothèque) : ce lieu pouvant être accédé n'importe quand, il n'y a pas d'appel à y faire à un instant déterminé. La puce doit émettre régulièrement pour signaler une présence au du CDI.
L'affirmation de l'établissement Rocroy semble donc fausse. Les conséquences seraient lourdes. Certes, l'identifiant unique émis par le porte-clef n'indique pas directement le nom d'un élève. Mais qu'importe : activé en permanence, il permettrait de suivre à la trace chaque enfant de façon individualisée (l'identifiant étant unique), au simple moyen d'un smartphone (EM Microelectronics fournit même une application à cette fin), n'importe où, même en dehors de l'école, pour peu qu'on se trouve dans un rayon de 75 mètres de l'enfant.
Si l'établissement ne fournit pas d'informations nouvelles permettant de contredire cette hypothèse, nous viendrons la vérifier en pratique à la rentrée devant son lycée, qui n'est pas très loin de nos locaux.
Par ailleurs, dans son communiqué de presse, l'établissement prétend que le porte-clef « n’utilise pas la géolocalisation, et ne permet donc pas de connaitre la position ou les déplacements des élèves ».
Ce n'est pas ce que révèle la fiche de l'application New School qui sera utilisée sur smartphone par le personnel de l'établissement afin de détecter les porte-clefs à proximité. Au moment de son installation, l'application demande de pouvoir transmettre à New School la géolocalisation précise du smartphone, notamment par GPS. Or, la géolocalisation du smartphone permettra aussi de géolocaliser les portes-clefs détectés qui, par définition, seront situés dans une proximité directe. L'affirmation de l'établissement est donc fausse : le porte-clef permettra d'indiquer à New School la position des enfants dès lors qu'ils se trouveront à proximité d'un smartphone utilisant l'application New School.
Enfin, dans son communiqué, l'établissement a cru bon de prétendre que « les données personnelles (nom de l’élève, emploi du temps) sont protégées et cryptées, en accord avec la CNIL ». Or, comme on l'a vu, le système Charlemagne/EcoleDirecte sur lequel repose New School ne satisfait aucune des recommandations de la CNIL élémentaires en matière de sécurité. Ainsi, contactée par Le Point sur cette affaire, la CNIL a déclaré mardi dernier « ne pas avoir eu d'échange avec le lycée Rocroy sur le dispositif ».
Un système illégal
Le port obligatoire du porte-clef New School par chaque enfant semble illicite du simple fait que l'information fournie par l'établissement sur l'interruption automatique du porte-clef serait fausse, alors que le règlement général sur la protection des données (RGPD) exige une information loyale.
De plus, quand bien même cette information serait juste (si le porte-clef n'émettait pas constamment), le système serait illicite pour d'autres raisons.
D'abord, le RGPD exige que tout traitement de données personnelles soit fondé sur une base légale : le consentement, la nécessité de fournir un service public ou la nécessité de poursuivre un « intérêt légitime ».
Ici, les enfants ne peuvent donner aucun consentement valide au traçage : ils n'ont pas le choix de l'accepter pour aller en cours et ne peuvent l'accepter qu'en même temps qu'ils acceptent l'ensemble du règlement intérieur. Leur consentement, qui ne serait ni libre ni spécifique, ne serait jamais reconnu comme valide par la CNIL (au sujet du caractère libre du consentement, voir l'analyse détaillée développée dans nos plaintes collectives contre les GAFAM).
S'agissant de la nécessité de fournir un service public ou de poursuivre un intérêt légitime (tel que faire l'appel des élèves), il faut d'abord démontrer que le système est « nécessaire ». En droit, ceci implique notamment qu'il n'existe aucun autre système alternatif qui, atteignant les mêmes objectifs, cause des risques moins élevés en matière d'atteinte aux libertés fondamentales. Ici, l'appel des enfants à l'oral remplit les mêmes objectifs sans poser de risque pour la vie privée. Le fait que le traçage par localisation automatique des enfants simplifie l'appel des élèves ne saurait le rendre « nécessaire », surtout au regard des risques importants qu'il cause quant à la traçabilité constante de la position de chaque enfant.
Toutefois, ce débat sur la « nécessité » a déjà été tranché par le groupe de l'article 29 (G29, l'institution qui réunissait les CNIL des 28 États membres de l'Union européenne et qui est devenu le Comité européen de la protection des données depuis le 25 mai 2018).
Depuis 2011, le G29 considère que, dans les cas où des personnes pourraient être localisées au moyen de signaux émis par un dispositif qu'elles transportent, et dans le cas où cela serait possible non pas sur la base de leur consentement mais sur celui d'un « intérêt légitime », il faut systématiquement que ces personnes puissent librement et facilement s'opposer à un tel traçage, à tout moment.
Dans notre cas, à l'inverse, l'établissement Rocroy sanctionne les enfants qui s'opposerait au pistage en refusant de porter le porte-clef. L'obligation de le porter est donc illicite de ce seul fait.
Par ailleurs, peu importe la base légale du traitement de données personnelles, le RGPD exige que celui-ci soit accompagné d'un certain nombre d'informations. Le responsable de traitement doit indiquer :
son identité et ses coordonnées ;
les finalités poursuivies ;
l’étendue des droits de la personne concernée ;
si les données sont transmises à des tiers, l'identité de ces destinataires ou la catégorie de ces destinataires ;
la condition de licéité remplie par le traitement – en précisant, selon le cas, l'intérêt légitime défendu ou la possibilité de retirer le consentement donné ;
la durée de conservation des données ;
l'existence d'un transfert de données en dehors de l’Union, en précisant les garanties encadrant ce transfert ;
l’existence d'une prise de décision automatisé.
Dans notre cas, l'établissement n'a fourni aucune de ces informations, si ce n'est, éventuellement, certaines des finalités envisagées (s'agissant des élèves, « s’assurer de la présence de chacun d’eux en classe, sur les installations sportives, au CDI et lors des sorties mais aussi au cours des exercices de sécurité »), sans qu'on ne sache toutefois si ces finalités sont exhaustives.
Les autres informations sont simplement absentes, rendant le système illicite de ce seul fait.
Enfin, comme vu plus haut, les obligations de sécurité imposées par le RGPD ne sont pas respectées puisque le système New School repose sur le système complètement obsolète de Charlemagne/EcoleDirecte.
Et maintenant ?
Nous invitons les élèves et parents d'élèves de l'établissement Rocroy à se saisir des éléments développés ici pour saisir la justice en référé afin de faire changer le règlement intérieur avant la rentrée.
De façon plus générale, nous appelons la CNIL à enquêter sur la start-up New School avant que celle-ci ne démarche d'autres établissements. La situation est des plus inquiétante puisque, dès 2016, d'après Le Figaro Madame, « le cabinet de Valérie Pécresse lui fait savoir qu'ils aimeraient utiliser l'application pour toute la région Île-de-France ».
Politiquement, le cas de New School révèle un mouvement plus profond et plus grave : les puces choisies par New School ont initialement été pensées et sont normalement utilisées pour localiser des objets fixes (des murs) ou mobiles (des marchandises) afin qu'un humain muni d'un smartphone puisse se repérer parmi ces objets. Cette situation s'inverse ici : la puce n'est plus attachée à des objets mais à des enfants ; le smartphone ne sert plus à se repérer dans l'espace mais, immobile au poste du surveillant, à définir l'espace dans lequel les humains peuvent évoluer. L'humain ne se déplace plus parmi les choses : il est une chose comprise par d'autres.
1. En janvier dernier, La Tribune explique, au sujet de la créatrice de New School, après que celle-ci a remporté un prix pour jeune startupeux : Quelques mois plus tard, Apple entre en contact avec elle et lui demande de pitcher deux jours plus tard dans ses bureaux londoniens. « J'étais déjà sur place, à croire qu'ils m'avaient tracée... » Dans le développement de NewSchool, la marque à la pomme a joué un rôle important, notamment dans la conception de l'application mais aussi dans la commercialisation : « Le marché de l'éducation en France est assez impénétrable, nous avons échangé beaucoup d'informations ».
[...] Le coaching by Apple est toujours d'actualité. La jeune entrepreneure participe à de nombreux événements et voit régulièrement des développeurs, français et anglais, pour avancer sur l'application. Elle a même eu le privilège de rencontrer Tim Cook, en février dernier. Au tout début, il était question de faire de NewSchool une application préintégrée sur les appareils vendus aux établissements scolaires, mais « à l'époque nous n'étions pas assez développés, ni commercialement ni au niveau des fonctionnalités. Il nous faut encore grandir pour espérer un jour avoir une application commune », explique-t-elle. Et le travail en famille est toujours valable. « Ma mère est directrice commerciale, elle travaille beaucoup. Nous avons fait le salon de l'éducation la semaine dernière, c'est elle qui a tout géré », s'enthousiasme la jeune femme.
2. Qwant semble avoir dé-publié son article en soutien à New School, mais nous en avions fait une copie. En réaction au présent article, Qwant a précisé que « Nous avons été invité à remettre un prix étudiant à la fondatrice pour son projet entrepreneurial (elle était la plus jeune entrepreneuse de France) mais notre lien avec l'entreprise n'a pas été au-delà de ce concours. »
3. Notre traduction de « Ubudu is a next-generation RTLS solution, which tracks, analyses and detects assets and people in industrial or service sites: airports, factories, hospitals, retail, sport & leisure venues, etc. Ubudu simply works with small tags or smartphones exchanging radio-signals with fixed sensors, and a location server that computes and processes the position. »
4. Notre traduction de « Use BLE Tags if you have many assets to track and do not need accuracy below 1-2m. (...) Examples of realizations include McDonald’s table service solution and New School student tokens (include pictures). You can also go with standard iBeacon devices, for which we recommend those of high quality, such as EM Microelectronics ».
5. De bon sens, la CNIL exige que « le mot de passe ne doit pas être communiqué à l'utilisateur en clair par courrier électronique » et que « le mot de passe ne doit jamais être stocké en clair ».
";s:7:"dateiso";s:15:"20180727_151455";}s:15:"20180726_144245";a:7:{s:5:"title";s:79:"Conservation généralisée de données : débat transmis au niveau européen !";s:4:"link";s:54:"https://www.laquadrature.net/fr/retention_transmission";s:4:"guid";s:37:"10604 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 26 Jul 2018 12:42:45 +0000";s:11:"description";s:4525:"
26 juillet 2018 - Après trois ans de procédure, le Conseil d'État vient (enfin !) d'accepter de saisir la Cour de Justice de l'Union européenne, tel que nous le demandions. Le régime français de conservation généralisée des données de connexion imposé aux opérateurs téléphoniques et Internet ainsi qu'aux hébergeurs est-il conforme au droit de l'Union européenne ?
La décision d'aujourd'hui est une avancée importante dans le combat juridictionnel porté par La Quadrature du Net, la Fédération FDN et FDN contre la surveillance de masse.
Il faut toutefois dénoncer le délai démesuré pris par le Conseil d'État pour franchir cette étape. Le Conseil d'État est resté muet durant plusieurs années, retenant sa justice malgré plusieurs relances de notre part. Il ne s'est prononcé qu'au moment où le Gouvernement français, embourbé dans des débats politiques autour du règlement ePrivacy, a trouvé opportun de s'aligner sur nos propres demandes - saisir la Cour de justice de l'Union.
Revoir notre récit des procédures ayant conduit à la décision d'aujourd'hui.
Cet alignement du calendrier de la Justice sur le calendrier stratégique du gouvernement remettrait en cause l'idéal d'indépendance qui doit animer la Justice.
Heureusement, le débat se poursuit aujourd'hui devant une juridiction européenne qui, à plusieurs reprises ces dernières années, a su garder ses distances avec les volontés autoritaires des gouvernements occidentaux.
La CJUE s'est opposée à la directive de 2006 qui prévoyait une conservation généralisée des données de connexion, dans son arrêt Digital Rights Ireland. Elle a aussi invalidé le Safe Harbor au regard du régime de surveillance des États Unis, dans son arrêt Schrems. Dernièrement, elle s'est opposée aux régimes de conservation généralisée suédois et britannique, dans son arrêt Tele2.
Le gouvernement français espère pouvoir faire changer d'avis la Cour de justice de l'Union européenne. Ne prenons pas l'ambition du gouvernement à la légère : le combat qui s'ouvre déterminera le cadre de la surveillance européenne. Le gouvernement ne chômera pas pour défendre l'idéal d'un monde dans lequel chacun serait suspect. Nous ne chômerons pas nous plus pour défendre notre autre monde.
Les questions
La première question transmise par le Conseil d'État est la suivante : « L'obligation de conservation généralisée et indifférenciée, imposée aux fournisseurs sur le fondement des dispositions permissives de l'article 15, paragraphe 1, de la directive du 12 juillet 2002, ne doit-elle pas être regardée, notamment eu égard aux garanties et contrôles dont sont assortis ensuite le recueil et l'utilisation de ces données de connexion, comme une ingérence justifiée par le droit à la sûreté garanti à l'article 6 de la Charte des droits fondamentaux de l'Union européenne et les exigences de la sécurité nationale, dont la responsabilité incombe aux seuls Etats-membres en vertu de l'article 4 du traité sur l'Union européenne ? »
Par là, le Conseil demande si, alors que le Cour de justice a déjà reconnu la conservation généralisée injustifiée pour lutter contre les infractions (dans sa décision Tele2), cette conservation peut être justifiée pour protéger la sécurité nationale.
Pour rappel : en droit européen, la lutte contre le terrorisme n'est pas de l'ordre de la protection de la sécurité nationale - qui, selon la CNCIS, ne fondait en 2015 que 12% des interceptions réalisées par les services de renseignement. Le Conseil d'État demande donc si, pour 12% des besoins des services de renseignement (en matière militaire et de contre-espionnage, on imagine), il peut être porté atteinte à la vie privée de toute la population, considérée comme suspecte par défaut.
Une telle question nous semble disproportionnée par elle-même, mais elle ouvre un débat plus large dont il faudra se saisir devant la Cour de justice.
Par ailleurs, le Conseil d'État a transmis une ou plusieurs autres questions, dont nous n'avons pas encore connaissance : nous mettrons cet article à jour au fur et à mesure.
";s:7:"content";s:4525:"
26 juillet 2018 - Après trois ans de procédure, le Conseil d'État vient (enfin !) d'accepter de saisir la Cour de Justice de l'Union européenne, tel que nous le demandions. Le régime français de conservation généralisée des données de connexion imposé aux opérateurs téléphoniques et Internet ainsi qu'aux hébergeurs est-il conforme au droit de l'Union européenne ?
La décision d'aujourd'hui est une avancée importante dans le combat juridictionnel porté par La Quadrature du Net, la Fédération FDN et FDN contre la surveillance de masse.
Il faut toutefois dénoncer le délai démesuré pris par le Conseil d'État pour franchir cette étape. Le Conseil d'État est resté muet durant plusieurs années, retenant sa justice malgré plusieurs relances de notre part. Il ne s'est prononcé qu'au moment où le Gouvernement français, embourbé dans des débats politiques autour du règlement ePrivacy, a trouvé opportun de s'aligner sur nos propres demandes - saisir la Cour de justice de l'Union.
Revoir notre récit des procédures ayant conduit à la décision d'aujourd'hui.
Cet alignement du calendrier de la Justice sur le calendrier stratégique du gouvernement remettrait en cause l'idéal d'indépendance qui doit animer la Justice.
Heureusement, le débat se poursuit aujourd'hui devant une juridiction européenne qui, à plusieurs reprises ces dernières années, a su garder ses distances avec les volontés autoritaires des gouvernements occidentaux.
La CJUE s'est opposée à la directive de 2006 qui prévoyait une conservation généralisée des données de connexion, dans son arrêt Digital Rights Ireland. Elle a aussi invalidé le Safe Harbor au regard du régime de surveillance des États Unis, dans son arrêt Schrems. Dernièrement, elle s'est opposée aux régimes de conservation généralisée suédois et britannique, dans son arrêt Tele2.
Le gouvernement français espère pouvoir faire changer d'avis la Cour de justice de l'Union européenne. Ne prenons pas l'ambition du gouvernement à la légère : le combat qui s'ouvre déterminera le cadre de la surveillance européenne. Le gouvernement ne chômera pas pour défendre l'idéal d'un monde dans lequel chacun serait suspect. Nous ne chômerons pas nous plus pour défendre notre autre monde.
Les questions
La première question transmise par le Conseil d'État est la suivante : « L'obligation de conservation généralisée et indifférenciée, imposée aux fournisseurs sur le fondement des dispositions permissives de l'article 15, paragraphe 1, de la directive du 12 juillet 2002, ne doit-elle pas être regardée, notamment eu égard aux garanties et contrôles dont sont assortis ensuite le recueil et l'utilisation de ces données de connexion, comme une ingérence justifiée par le droit à la sûreté garanti à l'article 6 de la Charte des droits fondamentaux de l'Union européenne et les exigences de la sécurité nationale, dont la responsabilité incombe aux seuls Etats-membres en vertu de l'article 4 du traité sur l'Union européenne ? »
Par là, le Conseil demande si, alors que le Cour de justice a déjà reconnu la conservation généralisée injustifiée pour lutter contre les infractions (dans sa décision Tele2), cette conservation peut être justifiée pour protéger la sécurité nationale.
Pour rappel : en droit européen, la lutte contre le terrorisme n'est pas de l'ordre de la protection de la sécurité nationale - qui, selon la CNCIS, ne fondait en 2015 que 12% des interceptions réalisées par les services de renseignement. Le Conseil d'État demande donc si, pour 12% des besoins des services de renseignement (en matière militaire et de contre-espionnage, on imagine), il peut être porté atteinte à la vie privée de toute la population, considérée comme suspecte par défaut.
Une telle question nous semble disproportionnée par elle-même, mais elle ouvre un débat plus large dont il faudra se saisir devant la Cour de justice.
Par ailleurs, le Conseil d'État a transmis une ou plusieurs autres questions, dont nous n'avons pas encore connaissance : nous mettrons cet article à jour au fur et à mesure.
";s:7:"dateiso";s:15:"20180726_144245";}s:15:"20180723_104944";a:7:{s:5:"title";s:114:"La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique";s:4:"link";s:42:"https://www.laquadrature.net/fr/elan_senat";s:4:"guid";s:37:"10599 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 23 Jul 2018 08:49:44 +0000";s:11:"description";s:5371:"
23 juillet 2018 - Nous republions ici le communiqué publié ce matin par la Fédération FDN, qui promeut l'accès aux offres activées sur les réseaux fibre optique.
L'accès « activé » à un réseau fibré consiste, pour un opérateur télécoms, à louer des fibres optiques déjà « activées » par un autre opérateur, qui gère et entretient les équipements de distribution du réseau.
Pour un petit opérateur, ce type d'accès activé est le seul moyen de fournir à ses abonnés un accès fibré à Internet dans les zones géographiques où il ne peut pas déployer d'équipements. En effet, un opérateur de petite taille a généralement des abonnés dispersés sur tout le territoire : il n'est pas économiquement viable de déployer ses propres équipements dans chaque zone géographique pour seulement quelques abonnés localement.
Ce communiqué intervient dans le cadre du projet de loi portant « évolution du logement, de l'aménagement et du numérique » (loi ELAN), actuellement en débat au Sénat, jusqu'à demain :
La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique
La Fédération FDN soutient l'amendement à la loi Elan porté par M. Patrick Chaize, président de l'AVICCA et vice-président de la commission Aménagement du Territoire et Developpement Durable du Sénat. Cet amendement ouvre, sur tout le territoire national, le droit d'accéder à une offre activée raisonnable et non discriminatoire, et constitue à ce titre une belle opportunité de progression vers un marché des télécoms plus ouvert et plus innovant.
En effet, ces offres activées garantissent une concurrence saine sur le marché des télécoms en permettant à de petits acteurs, tels que les FAI de la Fédération FDN, d'y exister de manière durable en accédant à la boucle locale fibre optique.
Les petits opérateurs sont nécessaires à l'équilibre du marché des télécoms : ils peuvent faire émerger des offres de services différenciées, répondant aux besoins spécifiques des utilisateurs finals1. Ils entretiennent ainsi la vitalité du marché, qui menace toujours de se refermer sur quelques gros acteurs.
Les membres de la Fédération FDN, capables de s'adapter aux particularités de chaque territoire et aux demandes de leurs adhérents, sont également des acteurs indispensables d'un accès au numérique inclusif, où les zones les moins rentables et les besoins les plus spécifiques ne sont pas oubliés. « L'émergence d'une offre activée pertinente sur tout le territoire est la garantie de la pérénnité de notre travail », ajoute Oriane Piquer-Louis, présidente de la Fédération FDN.
Il ne s'agit pas de remettre en cause l'équilibre du marché, ni de pénaliser les acteurs qui ont pris le risque financier d'investir. L'intérêt des offres activées est de garantir les conditions d'un marché capable de répondre aux demandes de chacun, et ouvert vers l'innovation.
La fédération FDN regroupe des Fournisseurs d'Accès à Internet associatifs se reconnaissant dans des valeurs communes : bénévolat, solidarité, fonctionnement démocratique et à but non lucratif; défense et promotion de la neutralité du Net.
A ce titre, la fédération FDN se donne comme mission de porter la voix de ses membres dans les débats concernant la liberté d'expression et la neutralité du Net.
Elle fournit à ses membres les outils pour se développer et répondre aux problèmes rencontrés dans le cadre de l'activité de fournisseur d'accès à Internet.
Edit du 26 juillet : Le Sénat a rejeté hier l'amendement de suppression porté par le gouvernement contre l'article 64ter. Cet "amendement Chaize" est donc maintenu dans la loi Elan.
1. L'emploi du pluriel régulier « finals » au lieu du pluriel habituel « finaux » est l'usage courant en matière de télécoms.
";s:7:"content";s:5371:"
23 juillet 2018 - Nous republions ici le communiqué publié ce matin par la Fédération FDN, qui promeut l'accès aux offres activées sur les réseaux fibre optique.
L'accès « activé » à un réseau fibré consiste, pour un opérateur télécoms, à louer des fibres optiques déjà « activées » par un autre opérateur, qui gère et entretient les équipements de distribution du réseau.
Pour un petit opérateur, ce type d'accès activé est le seul moyen de fournir à ses abonnés un accès fibré à Internet dans les zones géographiques où il ne peut pas déployer d'équipements. En effet, un opérateur de petite taille a généralement des abonnés dispersés sur tout le territoire : il n'est pas économiquement viable de déployer ses propres équipements dans chaque zone géographique pour seulement quelques abonnés localement.
Ce communiqué intervient dans le cadre du projet de loi portant « évolution du logement, de l'aménagement et du numérique » (loi ELAN), actuellement en débat au Sénat, jusqu'à demain :
La Fédération FDN soutient l'amendement Chaize qui encourage les offres activées sur les réseaux fibre optique
La Fédération FDN soutient l'amendement à la loi Elan porté par M. Patrick Chaize, président de l'AVICCA et vice-président de la commission Aménagement du Territoire et Developpement Durable du Sénat. Cet amendement ouvre, sur tout le territoire national, le droit d'accéder à une offre activée raisonnable et non discriminatoire, et constitue à ce titre une belle opportunité de progression vers un marché des télécoms plus ouvert et plus innovant.
En effet, ces offres activées garantissent une concurrence saine sur le marché des télécoms en permettant à de petits acteurs, tels que les FAI de la Fédération FDN, d'y exister de manière durable en accédant à la boucle locale fibre optique.
Les petits opérateurs sont nécessaires à l'équilibre du marché des télécoms : ils peuvent faire émerger des offres de services différenciées, répondant aux besoins spécifiques des utilisateurs finals1. Ils entretiennent ainsi la vitalité du marché, qui menace toujours de se refermer sur quelques gros acteurs.
Les membres de la Fédération FDN, capables de s'adapter aux particularités de chaque territoire et aux demandes de leurs adhérents, sont également des acteurs indispensables d'un accès au numérique inclusif, où les zones les moins rentables et les besoins les plus spécifiques ne sont pas oubliés. « L'émergence d'une offre activée pertinente sur tout le territoire est la garantie de la pérénnité de notre travail », ajoute Oriane Piquer-Louis, présidente de la Fédération FDN.
Il ne s'agit pas de remettre en cause l'équilibre du marché, ni de pénaliser les acteurs qui ont pris le risque financier d'investir. L'intérêt des offres activées est de garantir les conditions d'un marché capable de répondre aux demandes de chacun, et ouvert vers l'innovation.
La fédération FDN regroupe des Fournisseurs d'Accès à Internet associatifs se reconnaissant dans des valeurs communes : bénévolat, solidarité, fonctionnement démocratique et à but non lucratif; défense et promotion de la neutralité du Net.
A ce titre, la fédération FDN se donne comme mission de porter la voix de ses membres dans les débats concernant la liberté d'expression et la neutralité du Net.
Elle fournit à ses membres les outils pour se développer et répondre aux problèmes rencontrés dans le cadre de l'activité de fournisseur d'accès à Internet.
Edit du 26 juillet : Le Sénat a rejeté hier l'amendement de suppression porté par le gouvernement contre l'article 64ter. Cet "amendement Chaize" est donc maintenu dans la loi Elan.
1. L'emploi du pluriel régulier « finals » au lieu du pluriel habituel « finaux » est l'usage courant en matière de télécoms.
";s:7:"dateiso";s:15:"20180723_104944";}s:15:"20180720_170056";a:7:{s:5:"title";s:90:"Teemo, Fidzup : la CNIL interdit la géolocalisation sauvage - l'UE pense à la légaliser";s:4:"link";s:44:"https://www.laquadrature.net/fr/teemo_fidzup";s:4:"guid";s:37:"10598 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 20 Jul 2018 15:00:56 +0000";s:11:"description";s:7999:"
20 juillet 2018 - Hier, la CNIL a déclaré illicites les activités de deux start-ups françaises, Teemo et Fidzup, qui géolocalisent des millions de personnes à des fins publicitaires et sans leur consentement. Elles ont trois mois pour cesser ces activités. Hélas, sur le long terme, leur modèle pourrait devenir licite : c'est en tout cas ce sur quoi l'Union européenne débat via un futur règlement ePrivacy.
Teemo
Teemo est l'emblème des start-ups qui n'existent pas pour durer, mais pour amasser un maximum de profits par une activité qui, depuis le début, est illicite. En mode « take the money and run ». Employant 35 salariés pour un chiffre d'affaires de 2,6 millions (en 2016), Teemo ne pourra pas survivre à la décision rendue hier par la CNIL.
Teemo analyse les données de géolocalisation de 14 millions de téléphones, obtenues via les applications mobiles de ses partenaires commerciaux, afin de faire de la publicité ciblée localement. Évidemment, les personnes surveillées ne sont pas informées de ce pistage et n'ont pas leur mot à dire. La CNIL exige aujourd'hui le consentement de ces personnes - ce que la loi « informatique et libertés » impose sans ambiguïté.
Teemo peut donc fermer boutique, puisque son chiffre d'affaires repose désormais sur l'espoir absurde que des utilisateurs renoncent à leur vie privée, sans contrepartie, mais simplement pour enrichir la start-up.
Bien. Mais que dire de ses nombreux partenaires qui ont financé et bénéficié de ce système de surveillance généralisée ? Sur le site de Teemo, on peut lire les témoignages de LeaderPrice, ToysRus, InterSport ou Volkswagen se réjouissant qu'une telle violation massive de nos libertés ait pu faciliter leurs activités publicitaires. Plus loin, parmi les entreprises qui ont « fait confiance » à Teemo (sans avoir consulté aucun juriste, on imagine), on retrouve encore Carrefour, Macdo, Decathlon ou la Fnac.
Par ailleurs, il y a un an, Numérama publiait une enquête sur Teemo qui, probablement, a conduit la CNIL à se saisir de l'affaire. L'enquête expliquait que Teemo s'était notamment infiltrée sur les applications mobiles du Figaro, du Parisien, de l'Équipe ou de Closer, avec l'accord de ceux-ci.
Depuis, Exodus Privacy a décrit précisément le fonctionnement de Teemo et les applications l'intégrant.
Aujourd'hui, l'ensemble de ces entreprises nous doivent de sérieuses explications : comment ont-elles pu se permettre de financer et d'autoriser une violation aussi manifeste de la loi au détriment des libertés fondamentales de leurs clients ? Leur responsabilité juridique et politique est en jeu.
Fidzup
Le cas de Fidzup est plus complexe.
La start-up, plus petite (24 salariés, 500 000€ de chiffre d'affaires), opère en deux étapes. Dans une première étape, elle installe des bouts de code sur les applications mobiles de ses partenaires commerciaux. La CNIL décompte neuf applications différentes, qui lui auraient permis d'infiltrer 6 millions de téléphones. Ces bouts de code permettent à Fidzup de collecter certaines données techniques sur les téléphones espionnés. Dans une seconde étape, Fidzup fournit à une centaine de magasins des boîtiers qui identifient les téléphones qui passent à proximité, à partir des données techniques collectées dans la première étape. Les magasins peuvent donc tracer leurs clients, tant en ligne que hors-ligne.
Cette seconde étape est particulièrement pernicieuse. Techniquement, nos téléphones émettent régulièrement des données techniques afin de se connecter aux bornes WiFi environnantes. Les boîtiers fournis par Fidzup interceptent ces données techniques pour identifier les téléphones, alors même qu'ils ne sont pas du tout des bornes WiFi.
Exodus Privacy décrit en détail le fonctionnement et les applications mobiles collaborant avec Fidzup.
Heureusement, en droit, cette technique d'interception est explicitement interdite. La directive 2002/58 de l'Union européenne, dite « ePrivacy », prévoit depuis 2002 à son article 5 qu'il est interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Les données captées par Fidzup sont ici des « données relatives au trafic », car destinées à réaliser une connexion avec une borne WiFi.
Reprenant assez facilement cette logique, la CNIL a exigé que Fidzup demande le consentement préalable des personnes avant de collecter ces données - ce qui n'était pas le cas.
On pourrait ici donner la même conclusion que pour Teemo : aucun utilisateur n'acceptera de céder sa vie privée, sans contrepartie, pour enrichir Fidzup. L'avenir de la start-up semblerait donc aussi compromis.
Hélas, la situation est plus inquiétante.
ePrivacy
La directive ePrivacy, qui interdit aujourd'hui l'activité de Fidzup, est en cours de révision par l'Union européenne.
Il y a un an, le Parlement européen arrêtait sa position sur le texte (relire notre bilan sur ce débat). À l'article 8, §2, du nouveau texte, le Parlement a autorisé la collecte sans consentement des « informations émises par les terminaux des utilisateurs » - abandonnant ainsi une protection fondamentale qui nous est aujourd'hui offerte.
Le Parlement autorise cette surveillance en imposant une poignée de conditions aussi vagues que creuses : l'analyse doit être limitée à des fins de « comptage statistique » (c'est déjà le service que fournit Fidzup), les données doivent être anonymisées dès que la finalité est remplie (dès que Fidzup a fini de nous compter), les utilisateurs disposent d'un droit d'opposition (qui leur est indiqué par une affiche plus ou moins visible dans le magasin surveillé - ce que fait déjà Fidzup).
Aujourd'hui, la réforme de la directive ePrivacy est débattue entre les États membres de l'Union. Peu d'États membres semblent vouloir contrer les dérives du Parlement en matière de géolocalisation.
D'une main, l'Union européenne prétend nous offrir une protection importante avec le règlement général sur la protection des données (RGPD). D'une autre main, elle réduit la protection de nos libertés afin de sauver quelques start-ups illicites et néfastes (inutiles).
Si les débats sur le règlement ePrivacy se confirmaient comme allant dans ce sens, il faudra s'opposer à toute idée de réformer le droit actuel - qui, couplé au RGPD, nous protège encore aujourd'hui des volontés de surveillance de sociétés telles que Teemo ou Fidzup et de leurs partenaires.
";s:7:"content";s:7999:"
20 juillet 2018 - Hier, la CNIL a déclaré illicites les activités de deux start-ups françaises, Teemo et Fidzup, qui géolocalisent des millions de personnes à des fins publicitaires et sans leur consentement. Elles ont trois mois pour cesser ces activités. Hélas, sur le long terme, leur modèle pourrait devenir licite : c'est en tout cas ce sur quoi l'Union européenne débat via un futur règlement ePrivacy.
Teemo
Teemo est l'emblème des start-ups qui n'existent pas pour durer, mais pour amasser un maximum de profits par une activité qui, depuis le début, est illicite. En mode « take the money and run ». Employant 35 salariés pour un chiffre d'affaires de 2,6 millions (en 2016), Teemo ne pourra pas survivre à la décision rendue hier par la CNIL.
Teemo analyse les données de géolocalisation de 14 millions de téléphones, obtenues via les applications mobiles de ses partenaires commerciaux, afin de faire de la publicité ciblée localement. Évidemment, les personnes surveillées ne sont pas informées de ce pistage et n'ont pas leur mot à dire. La CNIL exige aujourd'hui le consentement de ces personnes - ce que la loi « informatique et libertés » impose sans ambiguïté.
Teemo peut donc fermer boutique, puisque son chiffre d'affaires repose désormais sur l'espoir absurde que des utilisateurs renoncent à leur vie privée, sans contrepartie, mais simplement pour enrichir la start-up.
Bien. Mais que dire de ses nombreux partenaires qui ont financé et bénéficié de ce système de surveillance généralisée ? Sur le site de Teemo, on peut lire les témoignages de LeaderPrice, ToysRus, InterSport ou Volkswagen se réjouissant qu'une telle violation massive de nos libertés ait pu faciliter leurs activités publicitaires. Plus loin, parmi les entreprises qui ont « fait confiance » à Teemo (sans avoir consulté aucun juriste, on imagine), on retrouve encore Carrefour, Macdo, Decathlon ou la Fnac.
Par ailleurs, il y a un an, Numérama publiait une enquête sur Teemo qui, probablement, a conduit la CNIL à se saisir de l'affaire. L'enquête expliquait que Teemo s'était notamment infiltrée sur les applications mobiles du Figaro, du Parisien, de l'Équipe ou de Closer, avec l'accord de ceux-ci.
Depuis, Exodus Privacy a décrit précisément le fonctionnement de Teemo et les applications l'intégrant.
Aujourd'hui, l'ensemble de ces entreprises nous doivent de sérieuses explications : comment ont-elles pu se permettre de financer et d'autoriser une violation aussi manifeste de la loi au détriment des libertés fondamentales de leurs clients ? Leur responsabilité juridique et politique est en jeu.
Fidzup
Le cas de Fidzup est plus complexe.
La start-up, plus petite (24 salariés, 500 000€ de chiffre d'affaires), opère en deux étapes. Dans une première étape, elle installe des bouts de code sur les applications mobiles de ses partenaires commerciaux. La CNIL décompte neuf applications différentes, qui lui auraient permis d'infiltrer 6 millions de téléphones. Ces bouts de code permettent à Fidzup de collecter certaines données techniques sur les téléphones espionnés. Dans une seconde étape, Fidzup fournit à une centaine de magasins des boîtiers qui identifient les téléphones qui passent à proximité, à partir des données techniques collectées dans la première étape. Les magasins peuvent donc tracer leurs clients, tant en ligne que hors-ligne.
Cette seconde étape est particulièrement pernicieuse. Techniquement, nos téléphones émettent régulièrement des données techniques afin de se connecter aux bornes WiFi environnantes. Les boîtiers fournis par Fidzup interceptent ces données techniques pour identifier les téléphones, alors même qu'ils ne sont pas du tout des bornes WiFi.
Exodus Privacy décrit en détail le fonctionnement et les applications mobiles collaborant avec Fidzup.
Heureusement, en droit, cette technique d'interception est explicitement interdite. La directive 2002/58 de l'Union européenne, dite « ePrivacy », prévoit depuis 2002 à son article 5 qu'il est interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Les données captées par Fidzup sont ici des « données relatives au trafic », car destinées à réaliser une connexion avec une borne WiFi.
Reprenant assez facilement cette logique, la CNIL a exigé que Fidzup demande le consentement préalable des personnes avant de collecter ces données - ce qui n'était pas le cas.
On pourrait ici donner la même conclusion que pour Teemo : aucun utilisateur n'acceptera de céder sa vie privée, sans contrepartie, pour enrichir Fidzup. L'avenir de la start-up semblerait donc aussi compromis.
Hélas, la situation est plus inquiétante.
ePrivacy
La directive ePrivacy, qui interdit aujourd'hui l'activité de Fidzup, est en cours de révision par l'Union européenne.
Il y a un an, le Parlement européen arrêtait sa position sur le texte (relire notre bilan sur ce débat). À l'article 8, §2, du nouveau texte, le Parlement a autorisé la collecte sans consentement des « informations émises par les terminaux des utilisateurs » - abandonnant ainsi une protection fondamentale qui nous est aujourd'hui offerte.
Le Parlement autorise cette surveillance en imposant une poignée de conditions aussi vagues que creuses : l'analyse doit être limitée à des fins de « comptage statistique » (c'est déjà le service que fournit Fidzup), les données doivent être anonymisées dès que la finalité est remplie (dès que Fidzup a fini de nous compter), les utilisateurs disposent d'un droit d'opposition (qui leur est indiqué par une affiche plus ou moins visible dans le magasin surveillé - ce que fait déjà Fidzup).
Aujourd'hui, la réforme de la directive ePrivacy est débattue entre les États membres de l'Union. Peu d'États membres semblent vouloir contrer les dérives du Parlement en matière de géolocalisation.
D'une main, l'Union européenne prétend nous offrir une protection importante avec le règlement général sur la protection des données (RGPD). D'une autre main, elle réduit la protection de nos libertés afin de sauver quelques start-ups illicites et néfastes (inutiles).
Si les débats sur le règlement ePrivacy se confirmaient comme allant dans ce sens, il faudra s'opposer à toute idée de réformer le droit actuel - qui, couplé au RGPD, nous protège encore aujourd'hui des volontés de surveillance de sociétés telles que Teemo ou Fidzup et de leurs partenaires.
";s:7:"dateiso";s:15:"20180720_170056";}s:15:"20180718_130825";a:7:{s:5:"title";s:26:"Tor est pour tout le monde";s:4:"link";s:59:"https://www.laquadrature.net/fr/tribune_campagne_nosoignons";s:4:"guid";s:37:"10596 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 18 Jul 2018 11:08:25 +0000";s:11:"description";s:4371:"
Tribune de Lunar, membre de La Quadrature du Net
Il y a quelques mois, Nos oignons, une association qui participe au réseau Tor, a une nouvelle fois été contactée par un·e journaliste qui souhaitait « expliquer aux lecteurs comment on va dans le web profond (via Tor) et quel intérêt il y aurait à y aller, en oubliant tous les sites “dark” de type ventes d’armes ». Mais après quelques échanges, le sujet semble finalement difficile à vendre à la direction : « À ce stade nous manquons franchement d’arguments, au point que je me demande si l’article va finalement sortir. » À notre connaissance l’article n’est finalement jamais sorti.
Ce manque d’« arguments » nous semble provenir d’une erreur fondamentale de compréhension : l’usage de Tor (ou des sites .onion) n’est pas différent de l’usage du web et d’Internet en général. Si Internet est pour tout le monde, Tor l’est tout autant.
Sur Internet, on lit la presse. Pourtant, l’expérience est différente de celle de lire de la presse sur papier. Une personne qui attrape la dernière édition d’un quotidien sur le comptoir d’un café n’informe pas l’équipe du journal qu’elle vient de gagner en audience. Elle ne les prévient pas non plus être dans un café, ni du nom du café, ni de quelles pages elle a lu, ni de combien de temps elle a pu passer sur chacun des articles…
Or, si cette même personne se rend sur le site web du journal, alors il pourra au moins connaître la connexion utilisée, quelles pages ont été lues et pendant combien de temps. Mais ces informations ne sont pas uniquement accessibles au journal : la régie publicitaire en apprendra autant, tout comme Google qui fournit les polices de caractères, Facebook avec son bouton « Like », Twitter pour son bouton « Tweet », pour ne citer que les plus courants.
Alors soyons clair : qu’il soit en papier ou en ligne, quand on lit un journal, on ne s’attend pas à ce qu’il nous lise en retour…
Lorsqu’on remplace Firefox ou Chrome par le navigateur Tor, on rend beaucoup plus difficile cette collecte d’information contre notre gré. On retrouve un Internet conforme à nos attentes.
Voir Tor principalement comme un outil pour l’anonymat ou le contournement de la censure, c’est penser son usage comme nécessairement marginal. Alors qu’au contraire, Tor constitue un pas vers un Internet davantage conforme aux intuitions les plus courantes sur son fonctionnement.
Le temps où Internet était réservé aux personnes ayant un bagage en science informatique est terminé. La plupart des internautes ne peuvent pas faire un choix informé sur les données et les traces enregistrées et partagées par les ordinateurs impliqués dans leur communications. Même les personnes qui développent des applications ont parfois bien du mal à mesurer l’étendue des données que fuitent les outils qu’elles conçoivent ! Utiliser le navigateur Tor permet justement de limiter les informations que nous communiquons à des tiers sans en avoir explicitement l’intention.
Maîtriser les informations que nous partageons lors de nos communications ne devrait pas être réservé à une élite. Voilà pourquoi Tor se destine au plus grand nombre.
Nos oignons contribue modestement au fonctionnement du réseau Tor en faisant fonctionner des relais en France. L’association démarre aujourd’hui une nouvelle campagne de financement afin de récolter les 12 000 € nécessaires pour fonctionner une année supplémentaire. La Quadrature du Net, qui veille à ce que l'usage de tels outils reste autorisé en France et en Europe, relaye donc cet appel. Soutenons Nos Oignons, ainsi que le projet Tor qui développe les logiciels.
";s:7:"content";s:4374:"
Tribune de Lunar, membre de La Quadrature du Net
Il y a quelques mois, Nos oignons, une association qui participe au réseau Tor, a une nouvelle fois été contactée par un·e journaliste qui souhaitait « expliquer aux lecteurs comment on va dans le web profond (via Tor) et quel intérêt il y aurait à y aller, en oubliant tous les sites “dark” de type ventes d’armes ». Mais après quelques échanges, le sujet semble finalement difficile à vendre à la direction : « À ce stade nous manquons franchement d’arguments, au point que je me demande si l’article va finalement sortir. » À notre connaissance l’article n’est finalement jamais sorti.
Ce manque d’« arguments » nous semble provenir d’une erreur fondamentale de compréhension : l’usage de Tor (ou des sites .onion) n’est pas différent de l’usage du web et d’Internet en général. Si Internet est pour tout le monde, Tor l’est tout autant.
Sur Internet, on lit la presse. Pourtant, l’expérience est différente de celle de lire de la presse sur papier. Une personne qui attrape la dernière édition d’un quotidien sur le comptoir d’un café n’informe pas l’équipe du journal qu’elle vient de gagner en audience. Elle ne les prévient pas non plus être dans un café, ni du nom du café, ni de quelles pages elle a lu, ni de combien de temps elle a pu passer sur chacun des articles…
Or, si cette même personne se rend sur le site web du journal, alors il pourra au moins connaître la connexion utilisée, quelles pages ont été lues et pendant combien de temps. Mais ces informations ne sont pas uniquement accessibles au journal : la régie publicitaire en apprendra autant, tout comme Google qui fournit les polices de caractères, Facebook avec son bouton « Like », Twitter pour son bouton « Tweet », pour ne citer que les plus courants.
Alors soyons clair : qu’il soit en papier ou en ligne, quand on lit un journal, on ne s’attend pas à ce qu’il nous lise en retour…
Lorsqu’on remplace Firefox ou Chrome par le navigateur Tor, on rend beaucoup plus difficile cette collecte d’information contre notre gré. On retrouve un Internet conforme à nos attentes.
Voir Tor principalement comme un outil pour l’anonymat ou le contournement de la censure, c’est penser son usage comme nécessairement marginal. Alors qu’au contraire, Tor constitue un pas vers un Internet davantage conforme aux intuitions les plus courantes sur son fonctionnement.
Le temps où Internet était réservé aux personnes ayant un bagage en science informatique est terminé. La plupart des internautes ne peuvent pas faire un choix informé sur les données et les traces enregistrées et partagées par les ordinateurs impliqués dans leur communications. Même les personnes qui développent des applications ont parfois bien du mal à mesurer l’étendue des données que fuitent les outils qu’elles conçoivent ! Utiliser le navigateur Tor permet justement de limiter les informations que nous communiquons à des tiers sans en avoir explicitement l’intention.
Maîtriser les informations que nous partageons lors de nos communications ne devrait pas être réservé à une élite. Voilà pourquoi Tor se destine au plus grand nombre.
Nos oignons contribue modestement au fonctionnement du réseau Tor en faisant fonctionner des relais en France. L’association démarre aujourd’hui une nouvelle campagne de financement afin de récolter les 12 000 € nécessaires pour fonctionner une année supplémentaire. La Quadrature du Net, qui veille à ce que l'usage de tels outils reste autorisé en France et en Europe, relaye donc cet appel. Soutenons Nos Oignons, ainsi que le projet Tor qui développe les logiciels.
";s:7:"dateiso";s:15:"20180718_130825";}s:15:"20180710_165517";a:7:{s:5:"title";s:62:"Demain, la surveillance française devant le Conseil d'État !";s:4:"link";s:54:"https://www.laquadrature.net/fr/audience_renseignement";s:4:"guid";s:37:"10591 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 10 Jul 2018 14:55:17 +0000";s:11:"description";s:10975:"
10 juillet 2018 - Demain à 14h se tiendront au Conseil d'État deux audiences décisives sur la loi renseignement et sur le régime de conservation généralisée des données de connexion. Ces deux contentieux ont été engagés il y a bientôt trois ans par La Quadrature du net, FDN et FFDN avec le soutien des Exégètes amateurs. Ces affaires pourraient bien connaître la conclusion espérée.
Venez avec nous assister à l'audience !
Avant de voir l'enjeu précis de l'audience de demain, revenons sur ces trois riches années de procédure, déjà cousues de quelques belles victoires et des centaines de pages écrites par les Exégètes amateurs contre une dizaine de textes différents.
À l'attaque de la loi renseignement
Il y a trois ans, le 24 juillet 2015, la loi renseignement était publiée. Elle venait d'être examinée une première fois par le Conseil constitutionnel, devant qui nous avions produit de nombreux arguments - en partie suivis par le Conseil pour, déjà, censurer certaines parties de la loi.
Voir l'amicus curiae que nous produisions contre la loi devant le Conseil constitutionnel
Deux mois après, une série de décrets étaient adoptés pour appliquer cette loi : ces décrets nous offraient l'opportunité, en les attaquant devant le Conseil d'État, de contester la loi dans son ensemble.
C'est donc deux mois plus tard que, le 30 novembre 2015, La Quadrature du Net, FDN et FFDN déposaient leur « requête introductive », qui conduira à l'audience de demain.
Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs
Quatre mois après, le 6 mai 2016, nous soulevions une question prioritaire de constitutionnalité (QPC) : nous invitions le Conseil d'État à demander au Conseil constitutionnel si la loi renseignement violait la Constitution lorsqu'elle prévoyait un régime de surveillance généralisée des communications « empruntant la voie hertzienne » (ce qui veut à peu près tout dire).
Six mois plus tard, le 21 octobre 2016, nous gagnions cette manche : cette partie de la loi était censurée !
Voir la décision du Conseil constitutionnel censurant la surveillance hertzienne
Toutefois, nous avions formulé bien d'autres arguments contre la loi renseignement. Le Conseil d'État, devant qui le reste de l'affaire était revenue, devait encore les examiner.
Pendant un an et huit mois, nous sommes restés sans nouvelles du Conseil d'État et pensions qu'il avait oublié l'affaire...
Il y a douze jours, après quasiment deux années de silence, le Premier ministre et le ministère de l'intérieur ont subitement envoyé des arguments pour défendre la loi.
Cinq jours plus tard, sans crier gare, le Conseil d'État a fixé une date d'audience (demain), qui marquera la fin des débats. Il ne nous laissait ainsi qu'une poignée de jours pour contre-attaquer.
Voir notre dernier mémoire en réplique déposé ce matin par Patrice Spinosi, l'avocat qui nous représente devant le Conseil d'État dans cette affaire
Un problème de conservation généralisée
La loi renseignement n'est pas ici le seul problème. Elle s'ajoute à un régime distinct qui, en France et depuis sept ans, impose aux opérateurs téléphonique et Internet, ainsi qu'aux hébergeurs de contenus en ligne, de conserver pendant un an des « données de connexion » sur l'ensemble des utilisateurs (qui parle à qui, d'où, avec quelle adresse IP, etc.). Les services de renseignement peuvent ainsi accéder, pendant un an, aux données concernant toute la population.
Il nous fallait aussi, en parallèle, attaquer cette conservation généralisée.
Il y a quatre ans, en avril 2014, la Cour de justice de l'Union européenne rendait une décision capitale dans l'affaire « Digital Right Ireland ». Elle annulait une directive européenne qui, depuis 2006, imposait un même régime de conservation généralisée dans toute l'Union. Pour la Cour, la Charte des droits fondamentaux de l'Union européenne s'opposait à une telle surveillance qui, par définition, considère comme suspecte l'ensemble de la population.
Voir la décision du 4 avril 2014 de la Cour de justice
Il y a trois ans, le 1er septembre 2015, La Quadrature du Net, FDN et FFDN saisissaient cette occasion pour contester le régime de conservation généralisée en droit français devant le Conseil d'État, dans une affaire en parallèle à celle contre la loi renseignement.
Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs
Dix mois plus tard, en juin 2016, le ministère de la justice envoyait ses arguments pour défendre la conservation généralisée. Ici encore, le gouvernement restera ensuite muet pendant deux ans....
Toutefois, entre-temps, il y a dix-huit mois, le 21 décembre 2016, la Cour de justice rendait une autre décision déterminante dans l'affaire « Tele2 Sverige ». Interrogée par des juges suédois et anglais, elle avait reconnu que les lois de ces deux pays, qui prévoyaient une conservation généralisée des données de connexion, violaient elles-aussi la Charte de l'Union.
Voir l'article des Exégètes amateurs analysant l'arrêt Tele2
C'est exactement la solution que nous recherchions depuis le début : nous demandons au Conseil d'État, à l'instar des juges suédois et anglais, d'interroger la Cour de justice de l'Union européenne sur la validité de notre régime.
En effet, depuis dix-huit mois, le droit français viole le droit de l'Union en refusant d'abroger son régime de conservation généralisée, ce que la Cour de justice impose pourtant de façon évidente.
Lire la tribune des Exégètes amateurs publiée sur Libération
Il y a vingt jours, le Premier ministre sortait enfin de son silence de deux ans pour défendre la loi française. Comme pour l'affaire sur la loi renseignement, le Conseil d'État a fixé l'audience pour demain.
Demain, c'est donc la voie pour mettre fin à l'incohérence du droit français qui, enfin, semble s'ouvrir.
Le débat passe au niveau européen
Il y a quinze jours, nous lancions une campagne européenne pour pousser la Commission européenne à agir contre les dix-sept États membres de l'Union européenne qui, comme la France, violent le droit de l'Union en maintenant un régime de conservation généralisée des données de connexion.
Dans le même temps, depuis un an, les gouvernements européens - dont le gouvernement français - tentent difficilement de modifier le droit européen pour contourner la jurisprudence de la Cour de justice. C'est notamment ce à quoi La Quadrature du Net s'oppose dans les débat sur le règlement ePrivacy.
Face à ces nombreuses et vives difficultés, il semble que le gouvernement français, dos au mur, renonce enfin à fuir le débat.
Après deux années de silence, dans ses toutes dernières écritures, le Premier ministre a admis que, dans les deux procédures que nous avons engagées devant le Conseil d'État, il serait utile d'interroger la Cour de justice sur la validité de la conservation généralisée française. Sans doute espère-t-il convaincre la Cour de revenir sur ses décisions passées, pour les contredire : nous acceptons ce débat car, de notre côté, nous espérons convaincre la Cour d'éloigner encore plus fermement la surveillance de masse !
Ce matin, le rapporteur public du Conseil d'État (chargé d'assister ce dernier dans la prise de ses décisions) a indiqué que, lors de l'audience de demain, il comptait conclure en faveur de la transmission d'un tel débat à la Cour de justice.
Ainsi, tout porte à croire que, demain soir, nous aurons une autre victoire à fêter ! Si le Premier ministre et le rapporteur public épousent notre volonté de porter la question au niveau européen, il semble très peu vraisemblable que le Conseil d'État le refuse lorsqu'il rendra sa décision dans quelques semaines.
Nous devrons ensuite nous préparer pour la bataille finale devant la Cour de justice qui, si nous l'emportons, changera radicalement et durablement le cadre de la surveillance française, mettant un coup d'arrêt aux ambitions de surveillance de masse de François Hollande puis d'Emmanuel Macron.
D'ici là, vous êtes toutes et tous invités à venir assister avec nous à l'audience de demain qui clôturera ces trois années de débat français. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris (comment s'y rendre).
À demain !
";s:7:"content";s:10981:"
10 juillet 2018 - Demain à 14h se tiendront au Conseil d'État deux audiences décisives sur la loi renseignement et sur le régime de conservation généralisée des données de connexion. Ces deux contentieux ont été engagés il y a bientôt trois ans par La Quadrature du net, FDN et FFDN avec le soutien des Exégètes amateurs. Ces affaires pourraient bien connaître la conclusion espérée.
Venez avec nous assister à l'audience !
Avant de voir l'enjeu précis de l'audience de demain, revenons sur ces trois riches années de procédure, déjà cousues de quelques belles victoires et des centaines de pages écrites par les Exégètes amateurs contre une dizaine de textes différents.
À l'attaque de la loi renseignement
Il y a trois ans, le 24 juillet 2015, la loi renseignement était publiée. Elle venait d'être examinée une première fois par le Conseil constitutionnel, devant qui nous avions produit de nombreux arguments - en partie suivis par le Conseil pour, déjà, censurer certaines parties de la loi.
Voir l'amicus curiae que nous produisions contre la loi devant le Conseil constitutionnel
Deux mois après, une série de décrets étaient adoptés pour appliquer cette loi : ces décrets nous offraient l'opportunité, en les attaquant devant le Conseil d'État, de contester la loi dans son ensemble.
C'est donc deux mois plus tard que, le 30 novembre 2015, La Quadrature du Net, FDN et FFDN déposaient leur « requête introductive », qui conduira à l'audience de demain.
Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs
Quatre mois après, le 6 mai 2016, nous soulevions une question prioritaire de constitutionnalité (QPC) : nous invitions le Conseil d'État à demander au Conseil constitutionnel si la loi renseignement violait la Constitution lorsqu'elle prévoyait un régime de surveillance généralisée des communications « empruntant la voie hertzienne » (ce qui veut à peu près tout dire).
Six mois plus tard, le 21 octobre 2016, nous gagnions cette manche : cette partie de la loi était censurée !
Voir la décision du Conseil constitutionnel censurant la surveillance hertzienne
Toutefois, nous avions formulé bien d'autres arguments contre la loi renseignement. Le Conseil d'État, devant qui le reste de l'affaire était revenue, devait encore les examiner.
Pendant un an et huit mois, nous sommes restés sans nouvelles du Conseil d'État et pensions qu'il avait oublié l'affaire...
Il y a douze jours, après quasiment deux années de silence, le Premier ministre et le ministère de l'intérieur ont subitement envoyé des arguments pour défendre la loi.
Cinq jours plus tard, sans crier gare, le Conseil d'État a fixé une date d'audience (demain), qui marquera la fin des débats. Il ne nous laissait ainsi qu'une poignée de jours pour contre-attaquer.
Voir notre dernier mémoire en réplique déposé ce matin par Patrice Spinosi, l'avocat qui nous représente devant le Conseil d'État dans cette affaire
Un problème de conservation généralisée
La loi renseignement n'est pas ici le seul problème. Elle s'ajoute à un régime distinct qui, en France et depuis sept ans, impose aux opérateurs téléphonique et Internet, ainsi qu'aux hébergeurs de contenus en ligne, de conserver pendant un an des « données de connexion » sur l'ensemble des utilisateurs (qui parle à qui, d'où, avec quelle adresse IP, etc.). Les services de renseignement peuvent ainsi accéder, pendant un an, aux données concernant toute la population.
Il nous fallait aussi, en parallèle, attaquer cette conservation généralisée.
Il y a quatre ans, en avril 2014, la Cour de justice de l'Union européenne rendait une décision capitale dans l'affaire « Digital Right Ireland ». Elle annulait une directive européenne qui, depuis 2006, imposait un même régime de conservation généralisée dans toute l'Union. Pour la Cour, la Charte des droits fondamentaux de l'Union européenne s'opposait à une telle surveillance qui, par définition, considère comme suspecte l'ensemble de la population.
Voir la décision du 4 avril 2014 de la Cour de justice
Il y a trois ans, le 1er septembre 2015, La Quadrature du Net, FDN et FFDN saisissaient cette occasion pour contester le régime de conservation généralisée en droit français devant le Conseil d'État, dans une affaire en parallèle à celle contre la loi renseignement.
Voir l'ensemble des écritures produites dans cette affaire sur le site des Exégètes amateurs
Dix mois plus tard, en juin 2016, le ministère de la justice envoyait ses arguments pour défendre la conservation généralisée. Ici encore, le gouvernement restera ensuite muet pendant deux ans....
Toutefois, entre-temps, il y a dix-huit mois, le 21 décembre 2016, la Cour de justice rendait une autre décision déterminante dans l'affaire « Tele2 Sverige ». Interrogée par des juges suédois et anglais, elle avait reconnu que les lois de ces deux pays, qui prévoyaient une conservation généralisée des données de connexion, violaient elles-aussi la Charte de l'Union.
Voir l'article des Exégètes amateurs analysant l'arrêt Tele2
C'est exactement la solution que nous recherchions depuis le début : nous demandons au Conseil d'État, à l'instar des juges suédois et anglais, d'interroger la Cour de justice de l'Union européenne sur la validité de notre régime.
En effet, depuis dix-huit mois, le droit français viole le droit de l'Union en refusant d'abroger son régime de conservation généralisée, ce que la Cour de justice impose pourtant de façon évidente.
Lire la tribune des Exégètes amateurs publiée sur Libération
Il y a vingt jours, le Premier ministre sortait enfin de son silence de deux ans pour défendre la loi française. Comme pour l'affaire sur la loi renseignement, le Conseil d'État a fixé l'audience pour demain.
Demain, c'est donc la voie pour mettre fin à l'incohérence du droit français qui, enfin, semble s'ouvrir.
Le débat passe au niveau européen
Il y a quinze jours, nous lancions une campagne européenne pour pousser la Commission européenne à agir contre les dix-sept États membres de l'Union européenne qui, comme la France, violent le droit de l'Union en maintenant un régime de conservation généralisée des données de connexion.
Dans le même temps, depuis un an, les gouvernements européens - dont le gouvernement français - tentent difficilement de modifier le droit européen pour contourner la jurisprudence de la Cour de justice. C'est notamment ce à quoi La Quadrature du Net s'oppose dans les débat sur le règlement ePrivacy.
Face à ces nombreuses et vives difficultés, il semble que le gouvernement français, dos au mur, renonce enfin à fuir le débat.
Après deux années de silence, dans ses toutes dernières écritures, le Premier ministre a admis que, dans les deux procédures que nous avons engagées devant le Conseil d'État, il serait utile d'interroger la Cour de justice sur la validité de la conservation généralisée française. Sans doute espère-t-il convaincre la Cour de revenir sur ses décisions passées, pour les contredire : nous acceptons ce débat car, de notre côté, nous espérons convaincre la Cour d'éloigner encore plus fermement la surveillance de masse !
Ce matin, le rapporteur public du Conseil d'État (chargé d'assister ce dernier dans la prise de ses décisions) a indiqué que, lors de l'audience de demain, il comptait conclure en faveur de la transmission d'un tel débat à la Cour de justice.
Ainsi, tout porte à croire que, demain soir, nous aurons une autre victoire à fêter ! Si le Premier ministre et le rapporteur public épousent notre volonté de porter la question au niveau européen, il semble très peu vraisemblable que le Conseil d'État le refuse lorsqu'il rendra sa décision dans quelques semaines.
Nous devrons ensuite nous préparer pour la bataille finale devant la Cour de justice qui, si nous l'emportons, changera radicalement et durablement le cadre de la surveillance française, mettant un coup d'arrêt aux ambitions de surveillance de masse de François Hollande puis d'Emmanuel Macron.
D'ici là, vous êtes toutes et tous invités à venir assister avec nous à l'audience de demain qui clôturera ces trois années de débat français. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris (comment s'y rendre).
À demain !
";s:7:"dateiso";s:15:"20180710_165517";}s:15:"20180706_104142";a:7:{s:5:"title";s:61:"La Smart City policière se répand comme traînée de poudre";s:4:"link";s:60:"https://www.laquadrature.net/fr/nice-smart-city-surveillance";s:4:"guid";s:37:"10581 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 06 Jul 2018 08:41:42 +0000";s:11:"description";s:24442:"
En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.
Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.
Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...
À Nice, première expérimentation d'Engie Inéo
D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :
ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.
Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.
(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.
C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. Comme le rappelle le premier syndicat de la police municipale en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».
La team Thales dans la roue
Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City » (pdf), en dépit des critiques d'une partie de l'opposition.
Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».
La vidéosurveillance devient « smart »
C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :
En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.
On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.
Vers un « Waze de la sécurité »
À Nice, dans le cadre de ce nouveau « Projet d'expérimentation Safe City » (pdf) voté par la Ville en juin (et que La Quadrature s'est procuré), Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).
Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Ces projets sont bien des expérimentations, avec des « cas d'usage » en apparence délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.
Smart City policière, realpolitik industrielle ?
Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.
Car tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.
Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).
À Nice, autour du projet de Big Data policier, Estrosi appelle aussi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.
La CNIL attentiste
Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.
En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier (pdf) fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :
La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.
S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.
La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.
« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ces textes s'imposer au cœur de nos villes .
Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser le tout7.
Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.
6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.
Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.
Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...
À Nice, première expérimentation d'Engie Inéo
D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :
ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.
Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.
(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.
C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. Comme le rappelle le premier syndicat de la police municipale en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».
La team Thales dans la roue
Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City » (pdf), en dépit des critiques d'une partie de l'opposition.
Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».
La vidéosurveillance devient « smart »
C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :
En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.
On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.
Vers un « Waze de la sécurité »
À Nice, dans le cadre de ce nouveau « Projet d'expérimentation Safe City » (pdf) voté par la Ville en juin (et que La Quadrature s'est procuré), Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).
Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Ces projets sont bien des expérimentations, avec des « cas d'usage » en apparence délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.
Smart City policière, realpolitik industrielle ?
Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.
Car tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.
Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).
À Nice, autour du projet de Big Data policier, Estrosi appelle aussi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.
La CNIL attentiste
Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.
En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier (pdf) fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :
La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.
S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.
La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.
« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ces textes s'imposer au cœur de nos villes .
Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser le tout7.
Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.
6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
";s:7:"dateiso";s:15:"20180706_104142";}s:15:"20180705_165034";a:7:{s:5:"title";s:61:"Zwiebelfreunde, la police allemande s'en prend à nos oignons";s:4:"link";s:47:"https://www.laquadrature.net/fr/zwielbelfreunde";s:4:"guid";s:37:"10582 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 05 Jul 2018 14:50:34 +0000";s:11:"description";s:6499:"
Tribune de Taziden, membre de La Quadrature du Net
Le 20 juin, des perquisitions ont été menées1 chez plusieurs dirigeants de l'association allemande « Zwiebelfreunde ». Tous leurs ordinateurs et supports de stockage (disques durs, clés usb) ont été saisis par la police allemande.
Le motif invoqué ? Ces trois personnes seraient des « témoins » dans le cadre d'une enquête en cours sur un blog appelant à des manifestations anti-fascistes à Augsbourg, toujours en Allemagne. La police considère que ce blog appelle à des actions violentes.
Le lien entre ce blog et Zwiebelfreunde ? Il faut s'accrocher. L'adresse e-mail associée au blog est hébergée par l'organisation américaine Riseup. Et Zwiebelfreunde recueille des dons pour le compte de Riseup. On imagine difficilement une saisie du même acabit chez Google si les personnes à l'origine du blog avaient choisi Gmail.
Un peu comme si le local de La Quadrature du Net ainsi que les domiciles de ses dirigeants avaient été perquisitionnés à cause d'un compte créé sur mamot.fr, l'instance Mastodon de l'association.
Ça n'a aucun sens.
Il s'agit donc d'une attaque claire contre Zwiebelfreunde qui, depuis des années, promeut et facilite l'utilisation d'outils de protection de la vie privée, comme ceux du projet Tor. Elle œuvre à collecter des fonds pour ces projets, Riseup dans le cas présent.
L'argent recueilli par Zwiebelfreunde sert notamment à développer les outils et services fournis par Riseup, à rembourser des frais de déplacement et à maintenir l'infrastructure Tor de Riseup.
Des perquisitions ont également eu lieu au siège de l'association, se trouvant être le bureau d'un avocat, ainsi qu'au domicile d'un ancien dirigeant.
On peine à comprendre un tel déploiement policier et une telle intrusion dans la vie privée de personnes considérées comme « témoins ».
Ne se contentant pas de ces descentes, la police a d'elle-même choisi d'étendre ses recherches au hackerspace d'Augsbourg, OpenLab2. Interprétant le contenu d'un tableau blanc comme décrivant l'élaboration d'une bombe (sic), trois personnes présentes au hackerspace ont été arrêtées et une fouille du local s'en est suivie.
La police a saisi du matériel et forcé les cadenas des armoires du lieu contenant des informations personnelles sur les membres du hackerspace. Il ne fait aucun doute que ces données ont été copiées par la police.
L'accusation de « préparation d'un attentat à l'aide d'explosifs » semble tout aussi ridicule que le motif de « témoin » invoqué dans le cas des dirigeants de Zwiebelfreunde.
Tout comme ces derniers mois avec Bure3, la police allemande semble faire peu de cas des libertés individuelles au profit d'une répression féroce contre les mouvements sociaux et toutes les personnes et organisations pouvant les soutenir, ou fournir une infrastructure indépendante leur permettant de s'organiser.
Cette tendance est inquiétante et elle montre qu'il est plus que jamais important de soutenir les initiatives fournissant des outils et services informatiques permettant de s'organiser en autonomie. Nous pensons notamment à Riseup, Tor, Tails, Nos Oignons mais également à Mastodon, Funkwhale, Peertube, Pixelfed et toute cette vague d'outils décentralisés et fédérés qui ne manqueront pas d'être les prochains à être inquiétés par la police, que ça soit par incompétence ou malice.
Vous avez encore quelques heures pour soutenir le développement de PeerTube, le réseau de streaming vidéo génial et non-centralisé de nos amis de chez Framasoft.
Vous pouvez aussi revoir la vidéo de Lunar, membre du projet Tor et de La Quadrature du Net, qui nous explique pourquoi utiliser Tor.
2. En 2009, la police suédoise avait effectué une perquisition et saisi du matériel dans le hackerspace de Malmö en Suède (Police raid in hack labs? is it still the 80s?, tmplab.org, 08/12/2009).
Tribune de Taziden, membre de La Quadrature du Net
Le 20 juin, des perquisitions ont été menées1 chez plusieurs dirigeants de l'association allemande « Zwiebelfreunde ». Tous leurs ordinateurs et supports de stockage (disques durs, clés usb) ont été saisis par la police allemande.
Le motif invoqué ? Ces trois personnes seraient des « témoins » dans le cadre d'une enquête en cours sur un blog appelant à des manifestations anti-fascistes à Augsbourg, toujours en Allemagne. La police considère que ce blog appelle à des actions violentes.
Le lien entre ce blog et Zwiebelfreunde ? Il faut s'accrocher. L'adresse e-mail associée au blog est hébergée par l'organisation américaine Riseup. Et Zwiebelfreunde recueille des dons pour le compte de Riseup. On imagine difficilement une saisie du même acabit chez Google si les personnes à l'origine du blog avaient choisi Gmail.
Un peu comme si le local de La Quadrature du Net ainsi que les domiciles de ses dirigeants avaient été perquisitionnés à cause d'un compte créé sur mamot.fr, l'instance Mastodon de l'association.
Ça n'a aucun sens.
Il s'agit donc d'une attaque claire contre Zwiebelfreunde qui, depuis des années, promeut et facilite l'utilisation d'outils de protection de la vie privée, comme ceux du projet Tor. Elle œuvre à collecter des fonds pour ces projets, Riseup dans le cas présent.
L'argent recueilli par Zwiebelfreunde sert notamment à développer les outils et services fournis par Riseup, à rembourser des frais de déplacement et à maintenir l'infrastructure Tor de Riseup.
Des perquisitions ont également eu lieu au siège de l'association, se trouvant être le bureau d'un avocat, ainsi qu'au domicile d'un ancien dirigeant.
On peine à comprendre un tel déploiement policier et une telle intrusion dans la vie privée de personnes considérées comme « témoins ».
Ne se contentant pas de ces descentes, la police a d'elle-même choisi d'étendre ses recherches au hackerspace d'Augsbourg, OpenLab2. Interprétant le contenu d'un tableau blanc comme décrivant l'élaboration d'une bombe (sic), trois personnes présentes au hackerspace ont été arrêtées et une fouille du local s'en est suivie.
La police a saisi du matériel et forcé les cadenas des armoires du lieu contenant des informations personnelles sur les membres du hackerspace. Il ne fait aucun doute que ces données ont été copiées par la police.
L'accusation de « préparation d'un attentat à l'aide d'explosifs » semble tout aussi ridicule que le motif de « témoin » invoqué dans le cas des dirigeants de Zwiebelfreunde.
Tout comme ces derniers mois avec Bure3, la police allemande semble faire peu de cas des libertés individuelles au profit d'une répression féroce contre les mouvements sociaux et toutes les personnes et organisations pouvant les soutenir, ou fournir une infrastructure indépendante leur permettant de s'organiser.
Cette tendance est inquiétante et elle montre qu'il est plus que jamais important de soutenir les initiatives fournissant des outils et services informatiques permettant de s'organiser en autonomie. Nous pensons notamment à Riseup, Tor, Tails, Nos Oignons mais également à Mastodon, Funkwhale, Peertube, Pixelfed et toute cette vague d'outils décentralisés et fédérés qui ne manqueront pas d'être les prochains à être inquiétés par la police, que ça soit par incompétence ou malice.
Vous avez encore quelques heures pour soutenir le développement de PeerTube, le réseau de streaming vidéo génial et non-centralisé de nos amis de chez Framasoft.
Vous pouvez aussi revoir la vidéo de Lunar, membre du projet Tor et de La Quadrature du Net, qui nous explique pourquoi utiliser Tor.
2. En 2009, la police suédoise avait effectué une perquisition et saisi du matériel dans le hackerspace de Malmö en Suède (Police raid in hack labs? is it still the 80s?, tmplab.org, 08/12/2009).
";s:7:"dateiso";s:15:"20180705_165034";}s:15:"20180705_104142";a:7:{s:5:"title";s:61:"La Smart City policière se répand comme traînée de poudre";s:4:"link";s:60:"https://www.laquadrature.net/fr/nice-smart-city-surveillance";s:4:"guid";s:37:"10581 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 05 Jul 2018 08:41:42 +0000";s:11:"description";s:24978:"
En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.
Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.
Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...
À Nice, première expérimentation d'Engie Inéo
D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :
ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.
Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.
(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.
C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. C'est d'ailleurs le premier syndicat de la police municipale qui l'écrit, en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».
La team Thales dans la roue
Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City », en dépit des critiques d'une partie de l'opposition.
Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».
La vidéosurveillance devient « smart »
C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :
En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.
On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.
Vers un « Waze de la sécurité »
Dans un nouveau Projet d'expérimentation Safe City », Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).
Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Dans l'immédiat, ces projets sont bien des expérimentations, avec des « cas d'usage » relativement délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.
Smart City policière, realpolitik industrielle ?
Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.
Tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.
Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).
À Nice, autour du projet de Big Data policier, Estrosi appelle ainsi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.
La CNIL attentiste
Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.
En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :
La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.
S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.
La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.
« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ce texte s'imposer au cœur de nos villes .
Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces coûteuses expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser tout cela7.
Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.
6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
En mars, nous levions un bout du voile qui entoure encore le projet orwellien de la « Smart City™ » marseillaise. Mais force est de constater que le cas de Marseille n'est que l'arbre qui cache la forêt. Car la police prédictive et les centres de surveillance policière dopés aux Big Data pullulent désormais sur le territoire français. Une dérive qu'illustre très bien le cas de Nice : la ville de Christian Estrosi, grand obsédé sécuritaire, a fait appel à Engie Inéo et Thalès, par ailleurs concurrents sur ce marché en plein essor, pour deux projets censés faire advenir la « Safe City™ » niçoise. Or, face à cette fuite en avant dans les technologies de contrôle social que nos élus assument sans rougir, la présidente de la CNIL semble trouver qu'il urgent de... suivre la situation. Ce qui revient à laisser faire.
Cet hiver, Christian Estrosi, maire de Nice, a encore fait parler de lui. Il paradait, tout fier du contrat passé avec une entreprise israëlienne pour permettre, via une application smartphone, aux citoyens de se faire auxiliaires de police. Sollicitée par le conseil municipal de la ville, la CNIL a fait savoir fin mars son opposition, pointant le manque de base légale du dispositif ainsi que l'atteinte « disproportionnée » au droit à la vie privée qui en résultait.
Mais cette controverse relayée dans les médias a masqué l'essentiel. Car depuis l'an dernier, Nice aussi se prépare à devenir la Smart City™ du turfu en misant sur des partenariats avec de grandes entreprises des technologies de contrôle. Et on ne parle pas d'une petite boîte israélienne. On parle de Thales, bien connue, ou d'Engie-Inéo, une filiale Big Data du groupe Engie (Suez) (dans lesquelles l'État français détient respectivement 26,4% et 32,76% de parts). On ne parle pas non plus d'une simple « app » permettant de faire entrer le vigilantisme et la délation à l'ère 3.0, non. On parle de centres de contrôle-commande équipés de tout l'attirail moderne pour sonder quantités de bases de données issues des services publics ou d'entreprises privées, surveiller en temps réel l'espace public urbain et ce qui se dit sur les réseaux sociaux, faire de la police « prédictive »...
À Nice, première expérimentation d'Engie Inéo
D'une part, il y a le projet d'Engie Inéo, une expérimentation annoncée à l'été 2017 (on devait être à la plage, on était en tout cas passé à côté), qui aurait pris fin en février 2018. L'an dernier la mairie présentait le projet en ces termes :
ENGIE Ineo expérimentera à Nice une solution globale de sécurité inédite : un centre de contrôle et de commandement basé sur une table tactile et tactique « DECIDE » et la plateforme SenCity.
Le développement progressif de ce dispositif a pour but de mettre à disposition, notamment des autorités policières, une plateforme tactique et tactile pour assurer une coordination globale en temps réel.
(...) En s’appuyant sur les ressources locales et sur l’ensemble des données collectées par la métaplateforme SenCity, (caméras, bornes escamotables, feux de circulation, boutons d’alerte, contrôles d’accès des bâtiments) ce dispositif révolutionne les solutions de sécurité mises à disposition des décideurs.
C'est du « totalement inédit », à en croire Thierry Orosco, Directeur des Stratégies de Sécurité d’Engie Inéo. Ça ressemble à s'y méprendre à ce qui se trame à Marseille, et dont nous soulignions les dangers il y a quelques semaines. Cette « révolution » marque en tout cas une nouvelle étape dans la privatisation des forces de sécurité, alors que ces outils techniques sont appelés à jouer un rôle central non seulement dans la préemption et la répression policières, mais aussi plus largement dans le « management » des forces de l'ordre. C'est d'ailleurs le premier syndicat de la police municipale qui l'écrit, en réaction à l'affaire Reporty : « Il n'est jamais bon, sur le plan moral, de déléguer le service public de la sécurité à des personnes privées ».
La team Thales dans la roue
Quant à Thales, elle semble reprendre le flambeau à la tête d'un consortium qui propose une nouvelle « expérimentation ». Le mois dernier, le conseil municipal de Nice votait en effet une convention d'expérimentation « Safe City », en dépit des critiques d'une partie de l'opposition.
Thales a aussi jeté son dévolu sur le quartier de La Défense en région parisienne. Le groupe se targue de son expérience dans le domaine de la sécurité et du numérique. Non, il ne s'agit pas de la Plateforme nationale des informations judiciaire des interceptions (PNIJ) (qui, pour le coup, est un fiasco total, très coûteux). Il s'agit de « vidéosurveillance intelligente ».
La vidéosurveillance devient « smart »
C'est la grande mode. Après avoir dépensé des centaines de millions d'euros pour des caméras aux résultats insignifiants, les industriels ne jurent désormais que par l'analyse automatique des images. Le ministre de l'Intérieur, Gérard Collomb, s'en faisait le VRP encore récemment, alors qu'il dissertait le 8 juin dernier sur la répression des mouvements sociaux (il parlait des ZAD et des manifestations). Et le ministère amer d'indiquer :
En matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre1.
On imagine, demain, ce que donnera l'utilisation de la reconnaissance faciale en lien avec des fichiers biométriques comme le fichier TES dans ces nouveaux dispositifs répressifs. Ce n'est pas céder à la facilité que de dire qu'en la matière, la Chine montre le chemin.
Vers un « Waze de la sécurité »
Dans un nouveau Projet d'expérimentation Safe City », Thales et le consortium qu'il dirige veulent aller plus loin, en créant le « Waze de la sécurité » à la sauce Big Data. Pour aider les « décideurs », il s'agit de « collecter le maximum de données existantes et d'en chercher les corrélations et les signaux faibles » (p. 23), de « développer les nouveaux algorithmes d’analyse et de corrélation permettant de mieux comprendre une situation et de développer des capacités prédictives » (p. 24). Comme à Marseille, la surveillance des réseaux sociaux et autres « données ouvertes » sont en ligne de mire, notamment pour les « textes courts et mal écrits » chers à Twitter qui passeront à la moulinette d'outils d'analyse sémantique pour aider à la gestion des foules, à l'analyse des rumeurs, et le « suivi des actions de certains individus ou groupes de personnes » (là, le spécialiste du consortium est l'entreprise GEOLSemantics).
Certes, pour l'heure, tout cela relève aussi et surtout d'un discours marketing destiné à appâter des élus en mal de sensationnel. Dans l'immédiat, ces projets sont bien des expérimentations, avec des « cas d'usage » relativement délimités. Ils permettent en fait à ces grands groupes de faire financer par l'État et les collectivités françaises, avec l'aide de l'Europe2 ou de la Banque publique d'investissement3, leur recherche et développement, et de disposer de « démonstrateurs » grandeur nature pour alimenter leurs campagnes de marketing sécuritaire.
Smart City policière, realpolitik industrielle ?
Pour ces grands groupes français et leurs émanations institutionnelles telles que le CoFIS (le comité de la filière industrielle de sécurité, organisé au niveau du ministère de l'Intérieur), il s'agit en effet de se positionner dans le marché en plein essor de la Smart City™, alors que les grandes multinationales américaines comme Google ou chinoises comme Huawei sont en embuscade.
Tout cela va évidemment bien au-delà du champ de la sécurité. Dans le viseur, l'ensemble des services publics sont concernés, des transports à l'énergie en passant par la gestion des déchets. Sur tous ces sujets, des entreprises comme Thalès ou Engie Inéo espèrent pousser les ville à faire exploser leurs budgets. Et Pierre Cunéo, en charge de la Stratégie, recherche et technologie chez Tales, de regretter que « pour l'instant pas une ville ne demande de tout mettre en réseau (...). Tout cela ne concerne que la sécurité. Les budgets des villes ne permettent pas encore d'aller plus loin ». Là aussi, ces projets d'expérimentation ont valeur de test pour des stratégies de séduction des agents, et convertir ainsi les services publics à leurs « solutions » et les rendant toujours plus dépendants de l'expertise privée. Avec à la clé pléthore de juteux contrats publics.
Mais revenons-en à la police. Si, aux États-Unis, les incursions de plus en plus marquées des GAFAM dans le complexe militaro-industriel suscitent des oppositions en interne4, on n'attend pas forcément grand-chose de la part des employés de grandes boîtes associées depuis longtemps aux politiques sécuritaires (mais si on se trompe, des lanceurs d'alerte peuvent nous écrire ou répondre à l'appel de Mediapart !).
À Nice, autour du projet de Big Data policier, Estrosi appelle ainsi à « faire vivre un éco-contexte favorable à l’innovation en renforçant ses collaborations avec de grands groupes industriels, des PME et des start-up locales, notamment liées au réseau de la French Tech, ainsi qu’avec le monde de la recherche et de l’enseignement ». De fait, les acteurs qui participent au développement et à la banalisation de ces outils de surveillance sont nombreux. Côté recherche, l'origine et la structure des financements et les rapprochements marqués des champs sécuritaires et universitaires sont un véritable problème qui devrait interroger (plusieurs des solutions proposées à Nice par le consortium de Thales sont issues des projets de recherche de la Commission européenne ou de l'Agence nationale de la recherche). Quant à la French Tech, peut-être voudra-t-elle bien, dans un futur pas trop lointain, faire connaître sa volonté de ne pas devenir « pigeon des espions » ? Ou pas.
La CNIL attentiste
Dans le Sud-Est, on est habitué aux délires sécuritaires. Mais ne vous y trompez pas : tout le monde risque d'y passer dans un futur proche. À Toulouse, à Valenciennes, à Paris, à Dijon, des initiatives similaires sont achevées ou en cours. La vague de la Smart City policière déferle sur la France.
En janvier dernier, La Quadrature écrivait à la CNIL pour demander un rendez-vous et discuter de l'action du gendarme de la vie privée dans ces dossiers, et notamment du cas marseillais. Les travaux du comité de prospective de la CNIL l'an dernier5, de même que la « jurisprudence » Reporty qui pointait l'absence de base légale, laissaient augurer d'une opposition claire à l'ensemble de ces projets. Après plusieurs demandes et relances, nous avons finalement reçu un courrier fin juin, qui a pour le moins douché nos espoirs. Isabelle Falque Pierrotin, présidente de la CNIL, nous y écrit :
La CNIL entend se montrer particulièrement vigilante quant au développement de dispositifs de ce type qui, à l'évidence, sont susceptibles d'engendrer des risques élevés pour les droits et libertés des individus. (...) J'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles, tel qu'issu de la Directive (UE) 2016/680 et du Règlement (UE) 2016/679 du Parlement européen et du Conseil.
S’agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées.
La Commission suivra attentivement la façon dont la Ville a apprécié la pertinence et la proportionnalité des données et opérations auxquels elle envisage de recourir, comme la compatibilité des finalités de réutilisation de ces informations avec celles ayant présidé à leur collecte. Elle s'attachera également à contrôler que l'exploitation de celles-ci, dans les conditions projetées, ne se heurte pas à des dispositions légales encadrant leur traitement et si les intérêts légitimes des individus ont été suffisamment pris en compte. Enfin, elle sera très attentive aux mesures d'encadrement techniques et organisationnelles, prises par la ville pour garantir aux informations un niveau de sécurité approprié.
« Vigilance », « analyse d'impact », « suivi attentif ». Autant le diagnostic technique est juste, autant la réponse esquissée s'apparente à un inquiétant laisser-faire. Pour nous, en jugeant sur la base des documents obtenus, il est évident qu'en l'absence d'un cadre législatif ad hoc, et comme le soulignait la CNIL elle-même dans l'affaire Reporty6, ces dispositifs sont illégaux. À l'heure où tout le monde se gausse de l'entrée en vigueur des nouveaux textes européens sur la vie privée, il est pour le moins surprenant de voir ces nouvelles techniques fondamentalement contraires aux grands principes qui fondent ce texte s'imposer au cœur de nos villes .
Quant aux études d'impact sur la vie privée que la CNIL appelle de ses vœux, les projets en cours ne l'envisagent pas (ou alors en des termes très vagues). Si elles sont finalement menées, tout porte à croire que ce sont les prestataires retenus qui seront priés de les réaliser à l'issue de ces coûteuses expérimentations... Cette posture attentiste de la CNIL permet juste de temporiser, le temps que Ministère de l'Intérieur nous sorte un projet de loi sur la « police 3.0 » chère à Gérard Collomb, pour venir légaliser tout cela7.
Bref, si l'on veut éviter d'être une nouvelle fois mis devant le fait accompli (comme en 2015 avec la loi renseignement), ce n'est pas la vigilance qu'il nous faut, c'est un moratoire sur l'ensemble de ces projets de Smart City policière. Et des gens qui, sur le terrain, puissent tenir en échec ces technocratie obsédée par le contrôle social.
6. En mars, la CNIL estimait ainsi : « Au regard des risques élevés de surveillance des personnes et d’atteinte à la vie privée qui pourraient résulter d’un usage non maîtrisé d’un tel dispositif, la CNIL a donc estimé qu’il était hautement souhaitable qu’un tel dispositif fasse l’objet d’un encadrement législatif spécifique ; par ailleurs elle a conclu que la proportionnalité du dispositif REPORTY n’était en l’état pas garantie ».
";s:7:"dateiso";s:15:"20180705_104142";}s:15:"20180704_113131";a:7:{s:5:"title";s:70:"Demain, le Parlement européen devra s'opposer au filtrage automatisé";s:4:"link";s:48:"https://www.laquadrature.net/fr/copyright_mandat";s:4:"guid";s:37:"10580 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 04 Jul 2018 09:31:31 +0000";s:11:"description";s:2597:"
4 juillet 2018 - Demain, l'ensemble du Parlement européen votera sur la nouvelle directive Copyright. Il y a deux semaines, la commission « Affaires juridiques » du Parlement a adopté un premier texte, obligeant les plateformes commerciales à activement bloquer les contenus qui, envoyés par leurs utilisateurs, sont soumis à droit d'auteur. Demain, le Parlement doit rejeter ce texte.
Le 20 juillet, la commission « Affaires juridiques », qui réunit 25 eurodéputés, a arrêté une première position sur la directive Copyright. La majorité de ses membres a adopté un article 13 imposant des techniques de filtrage automatisé sur les plateformes commerciales qui publient et « optimisent » la présentation des contenus envoyés par leurs utilisateurs. YouTube ou Facebook ont déjà mis en place de telles techniques de filtrage depuis longtemps : cet article 13 les rendrait légitimes.
Nos communications publiques ne doivent jamais être régulées au moyen de mesures automatisées, que ce soit pour « protéger des droits d'auteur » ou pour lutter contre les discours de haine ou les « fakenews ». Les comportements humains ne doivent pouvoir être encadrés que par des humains, et ce d'autant plus lorsque des libertés fondamentales sont en jeu.
Demain, à midi, l'ensemble des 750 eurodéputés pourront et devront rejeter un tel solutionnisme technologique, qui ne ferait que renforcer des géants de l'Internet déjà surpuissants. Une fois rejeté, l'actuel texte sera renégocié par le Parlement.
La Quadrature du Net se réjouit à l'idée que des plateformes commerciales non-neutres puissent être soumises à des règles différentes de celles encadrant les services neutres ou non lucratifs. Mais cette distinction ne doit en aucun cas légitimer la censure actuellement imposée par une poignée d'entreprises sur de larges pans du Web. Les futures négociations sur la directive Copyright devront interdire toute mesure de filtrage automatisé plutôt que d'en imposer.
";s:7:"content";s:2597:"
4 juillet 2018 - Demain, l'ensemble du Parlement européen votera sur la nouvelle directive Copyright. Il y a deux semaines, la commission « Affaires juridiques » du Parlement a adopté un premier texte, obligeant les plateformes commerciales à activement bloquer les contenus qui, envoyés par leurs utilisateurs, sont soumis à droit d'auteur. Demain, le Parlement doit rejeter ce texte.
Le 20 juillet, la commission « Affaires juridiques », qui réunit 25 eurodéputés, a arrêté une première position sur la directive Copyright. La majorité de ses membres a adopté un article 13 imposant des techniques de filtrage automatisé sur les plateformes commerciales qui publient et « optimisent » la présentation des contenus envoyés par leurs utilisateurs. YouTube ou Facebook ont déjà mis en place de telles techniques de filtrage depuis longtemps : cet article 13 les rendrait légitimes.
Nos communications publiques ne doivent jamais être régulées au moyen de mesures automatisées, que ce soit pour « protéger des droits d'auteur » ou pour lutter contre les discours de haine ou les « fakenews ». Les comportements humains ne doivent pouvoir être encadrés que par des humains, et ce d'autant plus lorsque des libertés fondamentales sont en jeu.
Demain, à midi, l'ensemble des 750 eurodéputés pourront et devront rejeter un tel solutionnisme technologique, qui ne ferait que renforcer des géants de l'Internet déjà surpuissants. Une fois rejeté, l'actuel texte sera renégocié par le Parlement.
La Quadrature du Net se réjouit à l'idée que des plateformes commerciales non-neutres puissent être soumises à des règles différentes de celles encadrant les services neutres ou non lucratifs. Mais cette distinction ne doit en aucun cas légitimer la censure actuellement imposée par une poignée d'entreprises sur de larges pans du Web. Les futures négociations sur la directive Copyright devront interdire toute mesure de filtrage automatisé plutôt que d'en imposer.
";s:7:"dateiso";s:15:"20180704_113131";}s:15:"20180625_131209";a:7:{s:5:"title";s:84:"Plaintes massives dans toute l'Europe contre la rétention illégale de nos données";s:4:"link";s:49:"https://www.laquadrature.net/fr/stopdataretention";s:4:"guid";s:37:"10563 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 25 Jun 2018 11:12:09 +0000";s:11:"description";s:3102:"
25 juin 2018 — 62 associations, fournisseurs d'accès Internet associatifs, universitaires et militants envoient ensemble une lettre ouverte à la Commission européenne et déposent plusieurs plaintes contre la législation de dix-sept États membres en matière de conservation généralisée des données.
Quels sont les enjeux ?
La « rétention généralisée des données » est l'obligation imposées aux opérateurs de télécommunications (téléphonie et Internet) de conserver les données de connexion (numéros appelés, adresses IP, données de localisation, d'identité) de l'ensemble de leurs utilisateurs pendant plusieurs mois ou plusieurs années (selon la loi de chaque État). Cette conservation s'applique à toute personne, même si elle n'est suspectée d'aucun crime ou délit.
Dix-sept États membres de l'Union européenne prévoient toujours une telle rétention généralisée dans leur droit national.
Pourquoi est-ce contraire au droit de l'Union européenne ?
La Cour de justice de l'Union européenne a clairement jugé qu'une telle conservation généralisée et indifférenciée des données était contraire au droit à la vie privée, à la protection des données personnelles et la liberté d'expression et d'information – protégées par la Charte des droits fondamentaux de l'Union européenne.
Pour la Cour, ces mesures de surveillance généralisées sont inacceptables.
Quel est notre but ?
En l'espèce, le droit de l'Union européenne, censé prévaloir sur les lois nationales, est plus protecteur de nos droits et libertés. Nous souhaitons le faire appliquer et que les régimes de conservation généralisée des données encore en vigueur dans dix-sept États membres soient abrogés.
Pour cela, nous avons envoyé des plaintes à la Commission européenne afin de l'inviter à enquêter sur l'affaire et saisir, à terme, la Cour de justice de l'Union européenne (CJUE) pour sanctionner directement chacun des États violant le droit européen. Pour expliquer notre démarche, nous accompagnons ces plaintes d'une lettre ouverte commune, portée par plus de 60 signataires dans 19 pays de l'Union, également envoyée à la Commission européenne.
Vous aussi, envoyez une plainte à la Commission européenne ! Il vous suffit de reprendre ce modèle, de mettre vos coordonnées et de l'envoyer à cette adresse e-mail : SG-PLAINTES@ec.europa.eu
En plus, c'est sans risque, sans frais et à la portée de chacun·e.
25 juin 2018 — 62 associations, fournisseurs d'accès Internet associatifs, universitaires et militants envoient ensemble une lettre ouverte à la Commission européenne et déposent plusieurs plaintes contre la législation de dix-sept États membres en matière de conservation généralisée des données.
Quels sont les enjeux ?
La « rétention généralisée des données » est l'obligation imposées aux opérateurs de télécommunications (téléphonie et Internet) de conserver les données de connexion (numéros appelés, adresses IP, données de localisation, d'identité) de l'ensemble de leurs utilisateurs pendant plusieurs mois ou plusieurs années (selon la loi de chaque État). Cette conservation s'applique à toute personne, même si elle n'est suspectée d'aucun crime ou délit.
Dix-sept États membres de l'Union européenne prévoient toujours une telle rétention généralisée dans leur droit national.
Pourquoi est-ce contraire au droit de l'Union européenne ?
La Cour de justice de l'Union européenne a clairement jugé qu'une telle conservation généralisée et indifférenciée des données était contraire au droit à la vie privée, à la protection des données personnelles et la liberté d'expression et d'information – protégées par la Charte des droits fondamentaux de l'Union européenne.
Pour la Cour, ces mesures de surveillance généralisées sont inacceptables.
Quel est notre but ?
En l'espèce, le droit de l'Union européenne, censé prévaloir sur les lois nationales, est plus protecteur de nos droits et libertés. Nous souhaitons le faire appliquer et que les régimes de conservation généralisée des données encore en vigueur dans dix-sept États membres soient abrogés.
Pour cela, nous avons envoyé des plaintes à la Commission européenne afin de l'inviter à enquêter sur l'affaire et saisir, à terme, la Cour de justice de l'Union européenne (CJUE) pour sanctionner directement chacun des États violant le droit européen. Pour expliquer notre démarche, nous accompagnons ces plaintes d'une lettre ouverte commune, portée par plus de 60 signataires dans 19 pays de l'Union, également envoyée à la Commission européenne.
Vous aussi, envoyez une plainte à la Commission européenne ! Il vous suffit de reprendre ce modèle, de mettre vos coordonnées et de l'envoyer à cette adresse e-mail : SG-PLAINTES@ec.europa.eu
En plus, c'est sans risque, sans frais et à la portée de chacun·e.
";s:7:"dateiso";s:15:"20180625_131209";}s:15:"20180612_130459";a:7:{s:5:"title";s:89:"Directive Copyright : combattons le filtrage automatisé... et la centralisation du Web !";s:4:"link";s:52:"https://www.laquadrature.net/fr/copyright_plateforme";s:4:"guid";s:37:"10548 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 12 Jun 2018 11:04:59 +0000";s:11:"description";s:13904:"
12 juin 2018 - Le 20 juin prochain, le Parlement européen arrêtera sa décision sur la directive Copyright, symbole d'une nouvelle période de régulation de l'Internet. La Quadrature du Net vous invite à appeler les eurodéputés pour exiger qu'ils agissent contre l'automatisation de la censure au nom de la protection du droit d'auteur et, plus largement, contre la centralisation du Web.
Pour comprendre la décision complexe qui se jouera le 20 juin, il faut d'abord revenir sur les base de la régulation des contenus diffusés sur Internet.
Un équilibre incertain
La directive « eCommerce » adoptée en 2000 par l'Union européenne a posé les fondements de la régulation des contenus diffusés sur Internet. Elle crée le principe suivant : si vous hébergez et diffusez du texte, des images ou des vidéos fournis par des tiers et que ces contenus sont illicites (car portant atteinte au droit d'auteur, étant sexistes ou racistes, faisant l'apologie du terrorisme, etc.), vous n'en êtes pas responsable. Cette absence de responsabilité exige toutefois deux choses : que vous n'ayez pas eu un rôle actif dans la diffusion des contenus (en les hiérarchisant pour en promouvoir certains, par exemple) et que, si on vous signale un contenu « illicite », vous le retiriez « promptement ». Si vous échouez à respecter ces conditions, vous pouvez être considéré comme ayant vous-même publié le contenu.
Cet équilibre, particulièrement incertain (l'évaluation de « illicite » et de « promptement » étant bien difficile), s'est appliqué indistinctement pendant vingt ans à tous les hébergeurs. Ceux qui nous louent les serveurs où diffuser nos sites Internet (l'entreprise française OVH en est un bon exemple) ; les forums et les wiki où nous partageons nos expériences et nos savoirs ; les réseaux non-centralisés tels que Mastodon ou PeerTube ; et, bien sûr, les géants du Web - Facebook et autres YouTube, qui semblent avoir enfermé entre leurs mains la plus grande partie de nos échanges publics.
Cet équilibre s'est rompu au fur et à mesure que ces géants ont abandonné toute idée de rester neutres : assumant aujourd'hui leur rôle actif, ils hiérarchisent tous les contenus qu'ils diffusent selon des critères économiques (mettant en avant les publicités de ceux qui les paient ainsi que les contenus qui nous feront rester chez eux le plus longtemps) ou politiques (Facebook ayant par exemple une lourde politique de censure de la nudité).
En théorie, comme on l'a vu, le filtrage généralisé du débat public, qui repose souvent sur l'application automatique de ces critères économiques et politiques, devrait les rendre responsables de tous les contenus qu'ils diffusent. En pratique, toutefois, on comprend pourquoi ce principe n'est pas vraiment appliqué : il inciterait ces géants à censurer tout discours potentiellement illicite, limitant drastiquement les capacités d'expression des millions de personnes qui les utilisent encore pour participer au débat public, bon gré mal gré. Le droit semble donc imparfait, car étant trop strict en théorie pour s'appliquer en pratique.
Filtrage automatique
En septembre 2016, pour répondre à une partie de ce problème, la Commission européenne a proposé une « directive Copyright ».
L'article 13 de ce texte entend créer de nouvelles règles pour les gros hébergeurs - qui diffusent un « grand nombre d'œuvres ». Ceux-ci devraient passer des accords avec les ayants droit des œuvres qu'ils diffusent, afin de définir les modes de répartition des revenus (publicitaires ou d'abonnement) avec ceux-ci ou de prendre des mesures pour empêcher la diffusion de contenus signalés par ces derniers.
Le texte mentionne des « techniques efficaces de reconnaissance des contenus », faisant clairement référence au Content ID déployé sur YouTube depuis dix ans - outil qui permet à Google de détecter automatiquement les œuvres publiées sur son site afin de permettre à leurs ayants droit d'empêcher ou de permettre leur diffusion (auquel cas contre rémunération).
Les propositions de la Commission doivent connaître les mêmes critiques que celles portées depuis des années contre YouTube : elles reportent tous les équilibres de la régulation sur des outils automatisés, présentés en solution miracle. Ignorant toutes les subtilités des comportements humains, ces outils censurent un peu tout et n'importe quoi au gré des bugs techniques, de critères mal calibrés et de logiques absurdes, et neutralisent au passage l'exercice légitime des exceptions au droit d'auteur (droit de citation, de parodie...).
Pour saisir l'importance de ce débat, il faut bien comprendre que ces filtrages automatisés sont déjà largement déployés et vantés par Facebook ou Google, au-delà de la question du droit d'auteur, pour prétendre lutter contre tout type de contenus illicites. Nombre de gouvernements semblent ici aussi tentés de leur emboîter le pas.
La directive Copyright ne doit pas légitimer et généraliser ce solutionnisme technologique, automatisant nos relations sociales et traitant les humains comme de quelconques machines laissées aux mains de quelques entreprises privées. Au contraire, le débat d'aujourd'hui doit être l'opportunité de limiter le recours qu'en font les géants du Web et de contester l'emprise qu'ils exercent sur notre monde.
Une nouvelle distinction
Le 25 mai dernier, les États membres de l'Union européenne ont arrêté leur position sur la directive Copyright. Cette position comporte un ajout décisif en créant clairement une nouvelle catégorie d'acteurs : toute personne qui, hébergeant et diffusant un large nombre d'œuvres, organise et promeut celles-ci à des fins lucratives - qui a un « rôle actif » dans leur présentation.
Cette nouvelle catégorie est instaurée pour échapper à la protection offerte par le directive « eCommerce » de 2000, sans toutefois être soumise à un régime de responsabilité systématique. Il s'agit donc d'une catégorie intermédiaire, entre « tout » et « rien », qui pourrait résoudre nombre des problèmes apparus ces vingts dernières années. Appelons « plateformes » cette nouvelle catégorie d'acteurs car, même si le terme est aussi générique que vague, il semble être celui que la pratique et les discours officiels commencent à consacrer.
Selon la position des États membres, ces plateformes devraient être responsables des œuvres qu'elles diffusent sans l'autorisation des ayants droit si elles n'ont pas mis en place de système qui, dans la mesure de leurs moyens, aurait pu empêcher leur mise en ligne. L'idée d'un filtrage automatique tel que le « Content ID » n'est pas écartée, mais son recours y est moins explicitement visé.
De son côté, le Parlement européen arrêtera sa position le 20 juin prochain, au sein de sa commission « Affaires juridiques » (JURI). Au terme de longs débats, le rapporteur du texte, Axel Voss (PPE, Allemagne), semble vouloir reprendre les ajouts proposés par les États membres (voir ses dernières propositions publiées), ainsi qu'ajouter une précision nouvelle : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d'auteur, ni au déploiement d'une surveillance généralisée des contenus mis en ligne. La distance mise avec le filtrage automatique généralisé se dessine un peu plus. Il est cependant crucial qu'elle figure de manière explicite dans le texte final de même qu'un seuil clair soit fixé (de contenus diffusés, d'utilisateurs inscrits, etc.) de manière à avoir la certitude que le dispositif concernera surtout le problème de la centralisation.
Enfin, les propositions d'Axel Voss précisent certaines garanties contre des censures arbitraires ou abusives : un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d'auteur qui rendraient le filtrage injustifié. Il faudrait néanmoins aller bien plus loin, car faire peser sur les internautes la charge de saisir le juge pour faire valoir leurs droits est encore trop lourd, vu le déséquilibre des parties en présence. Mieux vaudrait inverser les règles en cas de contestation d'une demande de retrait : les contenus censurés doivent revenir en ligne quand un utilisateur estime être dans son bon droit, et c'est aux ayants droit de saisir la justice pour obtenir le retrait définitif, sous le contrôle d'un juge.
Un compromis décevant
Ces différentes propositions, au lieu de légitimer clairement le modèle de régulation automatisée qui fonde la puissance de géants du Web, pourraient au contraire commencer à l'encadrer et à en limiter les effets. Mais ne nous réjouissons pas : la régulation automatisée, plutôt que d'être mollement encadrée à la marge comme ici, devrait être entièrement déconstruite et bannie - il n'en est rien pour l'instant. De plus, la position du Parlement européen reste à faire, et celui-ci pourrait très bien retomber dans le solutionnisme technologique qui a animé tant de décisions récentes.
Jusqu'au 20 juin, La Quadrature du Net vous invite donc à appeler les eurodéputés pour exiger :
que les nouvelles obligations en matière de droit d'auteur ne concernent que des hébergeurs qui hiérarchisent les contenus à des fins lucratives et qui atteignent un certain seuil fixé de manière claire ;
que ces obligations ne se transforment jamais en filtrage automatisé, qui doit être clairement interdit ;
que la charge de saisir la justice pour faire valoir ses droits en cas de demande de retrait pèse sur les ayants droit et non sur les internautes.
Si le texte s'arrête sur ce compromis, le pire sera peut-être évité, mais cette directive Copyright n'en restera pas moins un échec, car le débat s'est encore une fois focalisé sur des mesures répressives et régressives, alors qu'il s'agissait à la base de réfléchir les équilibres du droit d'auteur à l'heure du numérique. Cette ambition a été abandonnée avec le rejet par le Parlement européen des propositions du Rapport Reda, qui étaient elles-mêmes déjà en retrait par rapport aux propositions de la Quadrature du Net sur la réforme du droit d'auteur.
Un nouvel équilibre
Comme on l'a dit, ce débat dépasse largement celui du droit d'auteur. Il concerne la régulation des hébergeurs dans son ensemble, en matière de lutte contre les « fake news », contre la diffusion de la haine, contre la propagande terroriste, etc., tel qu'on le voit de plus en plus vivement discuté. Il concerne la façon dont chacun et chacune peut accéder au débat public, pour s'y exprimer comme s'y informer.
Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n'ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n'existant que pour la plus simple recherche du profit de quelques entreprises.
L'une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l'apparition de son remède - le développement d'hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d'exister.
La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l'espoir de libérer l'Internet non-centralisé du cadre absurde dans lequel juges et législateurs l'ont peu à peu enfermé.
";s:7:"content";s:13904:"
12 juin 2018 - Le 20 juin prochain, le Parlement européen arrêtera sa décision sur la directive Copyright, symbole d'une nouvelle période de régulation de l'Internet. La Quadrature du Net vous invite à appeler les eurodéputés pour exiger qu'ils agissent contre l'automatisation de la censure au nom de la protection du droit d'auteur et, plus largement, contre la centralisation du Web.
Pour comprendre la décision complexe qui se jouera le 20 juin, il faut d'abord revenir sur les base de la régulation des contenus diffusés sur Internet.
Un équilibre incertain
La directive « eCommerce » adoptée en 2000 par l'Union européenne a posé les fondements de la régulation des contenus diffusés sur Internet. Elle crée le principe suivant : si vous hébergez et diffusez du texte, des images ou des vidéos fournis par des tiers et que ces contenus sont illicites (car portant atteinte au droit d'auteur, étant sexistes ou racistes, faisant l'apologie du terrorisme, etc.), vous n'en êtes pas responsable. Cette absence de responsabilité exige toutefois deux choses : que vous n'ayez pas eu un rôle actif dans la diffusion des contenus (en les hiérarchisant pour en promouvoir certains, par exemple) et que, si on vous signale un contenu « illicite », vous le retiriez « promptement ». Si vous échouez à respecter ces conditions, vous pouvez être considéré comme ayant vous-même publié le contenu.
Cet équilibre, particulièrement incertain (l'évaluation de « illicite » et de « promptement » étant bien difficile), s'est appliqué indistinctement pendant vingt ans à tous les hébergeurs. Ceux qui nous louent les serveurs où diffuser nos sites Internet (l'entreprise française OVH en est un bon exemple) ; les forums et les wiki où nous partageons nos expériences et nos savoirs ; les réseaux non-centralisés tels que Mastodon ou PeerTube ; et, bien sûr, les géants du Web - Facebook et autres YouTube, qui semblent avoir enfermé entre leurs mains la plus grande partie de nos échanges publics.
Cet équilibre s'est rompu au fur et à mesure que ces géants ont abandonné toute idée de rester neutres : assumant aujourd'hui leur rôle actif, ils hiérarchisent tous les contenus qu'ils diffusent selon des critères économiques (mettant en avant les publicités de ceux qui les paient ainsi que les contenus qui nous feront rester chez eux le plus longtemps) ou politiques (Facebook ayant par exemple une lourde politique de censure de la nudité).
En théorie, comme on l'a vu, le filtrage généralisé du débat public, qui repose souvent sur l'application automatique de ces critères économiques et politiques, devrait les rendre responsables de tous les contenus qu'ils diffusent. En pratique, toutefois, on comprend pourquoi ce principe n'est pas vraiment appliqué : il inciterait ces géants à censurer tout discours potentiellement illicite, limitant drastiquement les capacités d'expression des millions de personnes qui les utilisent encore pour participer au débat public, bon gré mal gré. Le droit semble donc imparfait, car étant trop strict en théorie pour s'appliquer en pratique.
Filtrage automatique
En septembre 2016, pour répondre à une partie de ce problème, la Commission européenne a proposé une « directive Copyright ».
L'article 13 de ce texte entend créer de nouvelles règles pour les gros hébergeurs - qui diffusent un « grand nombre d'œuvres ». Ceux-ci devraient passer des accords avec les ayants droit des œuvres qu'ils diffusent, afin de définir les modes de répartition des revenus (publicitaires ou d'abonnement) avec ceux-ci ou de prendre des mesures pour empêcher la diffusion de contenus signalés par ces derniers.
Le texte mentionne des « techniques efficaces de reconnaissance des contenus », faisant clairement référence au Content ID déployé sur YouTube depuis dix ans - outil qui permet à Google de détecter automatiquement les œuvres publiées sur son site afin de permettre à leurs ayants droit d'empêcher ou de permettre leur diffusion (auquel cas contre rémunération).
Les propositions de la Commission doivent connaître les mêmes critiques que celles portées depuis des années contre YouTube : elles reportent tous les équilibres de la régulation sur des outils automatisés, présentés en solution miracle. Ignorant toutes les subtilités des comportements humains, ces outils censurent un peu tout et n'importe quoi au gré des bugs techniques, de critères mal calibrés et de logiques absurdes, et neutralisent au passage l'exercice légitime des exceptions au droit d'auteur (droit de citation, de parodie...).
Pour saisir l'importance de ce débat, il faut bien comprendre que ces filtrages automatisés sont déjà largement déployés et vantés par Facebook ou Google, au-delà de la question du droit d'auteur, pour prétendre lutter contre tout type de contenus illicites. Nombre de gouvernements semblent ici aussi tentés de leur emboîter le pas.
La directive Copyright ne doit pas légitimer et généraliser ce solutionnisme technologique, automatisant nos relations sociales et traitant les humains comme de quelconques machines laissées aux mains de quelques entreprises privées. Au contraire, le débat d'aujourd'hui doit être l'opportunité de limiter le recours qu'en font les géants du Web et de contester l'emprise qu'ils exercent sur notre monde.
Une nouvelle distinction
Le 25 mai dernier, les États membres de l'Union européenne ont arrêté leur position sur la directive Copyright. Cette position comporte un ajout décisif en créant clairement une nouvelle catégorie d'acteurs : toute personne qui, hébergeant et diffusant un large nombre d'œuvres, organise et promeut celles-ci à des fins lucratives - qui a un « rôle actif » dans leur présentation.
Cette nouvelle catégorie est instaurée pour échapper à la protection offerte par le directive « eCommerce » de 2000, sans toutefois être soumise à un régime de responsabilité systématique. Il s'agit donc d'une catégorie intermédiaire, entre « tout » et « rien », qui pourrait résoudre nombre des problèmes apparus ces vingts dernières années. Appelons « plateformes » cette nouvelle catégorie d'acteurs car, même si le terme est aussi générique que vague, il semble être celui que la pratique et les discours officiels commencent à consacrer.
Selon la position des États membres, ces plateformes devraient être responsables des œuvres qu'elles diffusent sans l'autorisation des ayants droit si elles n'ont pas mis en place de système qui, dans la mesure de leurs moyens, aurait pu empêcher leur mise en ligne. L'idée d'un filtrage automatique tel que le « Content ID » n'est pas écartée, mais son recours y est moins explicitement visé.
De son côté, le Parlement européen arrêtera sa position le 20 juin prochain, au sein de sa commission « Affaires juridiques » (JURI). Au terme de longs débats, le rapporteur du texte, Axel Voss (PPE, Allemagne), semble vouloir reprendre les ajouts proposés par les États membres (voir ses dernières propositions publiées), ainsi qu'ajouter une précision nouvelle : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d'auteur, ni au déploiement d'une surveillance généralisée des contenus mis en ligne. La distance mise avec le filtrage automatique généralisé se dessine un peu plus. Il est cependant crucial qu'elle figure de manière explicite dans le texte final de même qu'un seuil clair soit fixé (de contenus diffusés, d'utilisateurs inscrits, etc.) de manière à avoir la certitude que le dispositif concernera surtout le problème de la centralisation.
Enfin, les propositions d'Axel Voss précisent certaines garanties contre des censures arbitraires ou abusives : un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d'auteur qui rendraient le filtrage injustifié. Il faudrait néanmoins aller bien plus loin, car faire peser sur les internautes la charge de saisir le juge pour faire valoir leurs droits est encore trop lourd, vu le déséquilibre des parties en présence. Mieux vaudrait inverser les règles en cas de contestation d'une demande de retrait : les contenus censurés doivent revenir en ligne quand un utilisateur estime être dans son bon droit, et c'est aux ayants droit de saisir la justice pour obtenir le retrait définitif, sous le contrôle d'un juge.
Un compromis décevant
Ces différentes propositions, au lieu de légitimer clairement le modèle de régulation automatisée qui fonde la puissance de géants du Web, pourraient au contraire commencer à l'encadrer et à en limiter les effets. Mais ne nous réjouissons pas : la régulation automatisée, plutôt que d'être mollement encadrée à la marge comme ici, devrait être entièrement déconstruite et bannie - il n'en est rien pour l'instant. De plus, la position du Parlement européen reste à faire, et celui-ci pourrait très bien retomber dans le solutionnisme technologique qui a animé tant de décisions récentes.
Jusqu'au 20 juin, La Quadrature du Net vous invite donc à appeler les eurodéputés pour exiger :
que les nouvelles obligations en matière de droit d'auteur ne concernent que des hébergeurs qui hiérarchisent les contenus à des fins lucratives et qui atteignent un certain seuil fixé de manière claire ;
que ces obligations ne se transforment jamais en filtrage automatisé, qui doit être clairement interdit ;
que la charge de saisir la justice pour faire valoir ses droits en cas de demande de retrait pèse sur les ayants droit et non sur les internautes.
Si le texte s'arrête sur ce compromis, le pire sera peut-être évité, mais cette directive Copyright n'en restera pas moins un échec, car le débat s'est encore une fois focalisé sur des mesures répressives et régressives, alors qu'il s'agissait à la base de réfléchir les équilibres du droit d'auteur à l'heure du numérique. Cette ambition a été abandonnée avec le rejet par le Parlement européen des propositions du Rapport Reda, qui étaient elles-mêmes déjà en retrait par rapport aux propositions de la Quadrature du Net sur la réforme du droit d'auteur.
Un nouvel équilibre
Comme on l'a dit, ce débat dépasse largement celui du droit d'auteur. Il concerne la régulation des hébergeurs dans son ensemble, en matière de lutte contre les « fake news », contre la diffusion de la haine, contre la propagande terroriste, etc., tel qu'on le voit de plus en plus vivement discuté. Il concerne la façon dont chacun et chacune peut accéder au débat public, pour s'y exprimer comme s'y informer.
Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n'ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n'existant que pour la plus simple recherche du profit de quelques entreprises.
L'une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l'apparition de son remède - le développement d'hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d'exister.
La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l'espoir de libérer l'Internet non-centralisé du cadre absurde dans lequel juges et législateurs l'ont peu à peu enfermé.
";s:7:"dateiso";s:15:"20180612_130459";}s:15:"20180608_172109";a:7:{s:5:"title";s:102:"Digital labour et travail domestique : quand l’exploitation capitaliste s’étend aux hommes blancs";s:4:"link";s:65:"https://www.laquadrature.net/fr/digital_labour_travail_domestique";s:4:"guid";s:37:"10539 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 08 Jun 2018 15:21:09 +0000";s:11:"description";s:15059:"
Tribune de Ag3m, membre de La Quadrature du Net
08 juin 2018 - Force est de constater bien des ponts entre les discours des défenseurs des libertés numériques et les analyses féministes intersectionnelles. Les descriptions de l’exploitation de nos données et de notre travail par les GAFAM et autres géants du Net font écho à celles de l’exploitation des femmes et des personnes racisées et minorisées. Faire le pont entre ces analyses pourrait-il nous permettre d’appuyer notre militantisme sur les réflexions et les outils créés contre la domination patriarcale et raciste, pour les adapter aux situations d’exploitation économique capitaliste plus larges ?
Utilisation des données personnelles et échange des femmes
On connait bien, parmi les militants de la défense des libertés numériques, la formule « Si c’est gratuit, c’est toi le produit ! », un adage qui cherche à visibiliser la ressource économique que constitue l’exploitation des données personnelles des utilisateurs par les sites internet, et en particulier les GAFAM.
Alors les GAFAM utiliseraient les données personnelles pour vendre des profils utilisateurs. C’est marrant, ça me rappelle d’autres situations.
Au XVIIème et XVIIIème siècle se développent les agences matrimoniales.1 Elles sont alimentées par les familles ou les employés de maison qui leur vendent des informations sur les jeunes filles à marier dans le foyer. Les agences matrimoniales récupèrent, trient, reformulent et enfin revendent ces informations sous forme de service de mise en relation pour les jeunes gens qui cherchent une épouse.
L’analyse du mariage comme mise en vente des femmes n’est pas une idée neuve. En 1947, Claude Lévi-Strauss développe la théorie générale de l’échange,2 c’est-à-dire l’idée que notre société est basée sur le principe fondamental de l’échange des femmes entre les familles. Celles-ci tissent des liens, développent leur capital économique et leur pouvoir politique en mariant les jeunes filles. Elles s’échangent ainsi les femmes, leur force de travail lorsqu’elles aident leurs maris, leur travail de tenue de la maison, de procréation, d’intimité, … Dans Caliban et la sorcière : Femmes, corps et accumulation primitive3, Sylvia Federici montre que cette exploitation des femmes se développe en même temps que le système capitaliste, comme base même de ce système où les individus sont répartis entre classes sociales où certains dépendent d’autres. Les travailleurs dépendent des propriétaires des moyens de production, les femmes dépendent des hommes, les esclaves racisés des colonies dépendent des maîtres blancs.
Revenons à l’exemple des agences matrimoniales. C’est donc tout un marché qui s’organise. Les femmes sont mises en valeur à travers la publication de leur dot, puis par les petites annonces et les agences.
Un peu plus tard, au XIXème siècle, la culture épistolaire se développe : les gens commencent à écrire et à échanger des lettres ou à tenir des journaux intimes dans lesquelles ils se racontent. Les petites annonces sont désormais écrites par les gens eux-mêmes qui se mettent en valeur, présentent leur meilleur profil, et cherchent à rencontrer la bonne personne. Facebook much ?
Les technologies numériques que nous utilisons aujourd’hui, Facebook, Instagram, Twitter, LinkedIn, ne sont donc que la continuité de cette dynamique de nous mettre en avant sous notre plus beau jour pour trouver la bonne personne. Mais cette fois, il ne s’agit plus de vendre uniquement des femmes ou des personnes racisées, mais bien n’importe quel profil utilisateur, y compris ceux des hommes blancs, cisgenres et hétérosexuels de classe bourgeoise, si habitués à pouvoir choisir plutôt qu’à être choisis.
Espace numérique et espace intime
L’espace numérique est devenu notre nouvel espace intime : celui dans lequel nous vivons quotidiennement, où nous nous racontons à nous-mêmes, à nos amis, à nos proches, et parfois à un public plus large.
De la même manière que les femmes, bien que reléguées au foyer, sont observées, surveillées dans toutes leurs actions, les utilisateurs sont étudiés, analysés, contraints à suivre les règles de la plateforme et de la communauté dans laquelle ils évoluent.
La frontière entre « privé » et « public » est ténue. Ainsi, les questions dites « privées » de la contraception, de l’avortement, du viol conjugal ont été débattues dans l’espace public. Ainsi, encore aujourd’hui, des manifestations et des débats publics continuent de discuter de ce que chacun fait chez lui, du droit à certaines sexualités ou à certaines familles d’être reconnues.
De la même manière, on juge aujourd’hui sur SnapChat de l’apparence des jeunes filles, Facebook sait qui nous avons invité chez nous et nos commentaires apparaissent sur Youporn.
On entend parfois que l’espace numérique brouille la frontière entre privé et public, et pourtant on pourrait plutôt dire qu’il rend évidente la sentence politique des féministes de la seconde vague : « le privé est politique4 ». L’espace intime, et celui des femmes en particulier, est depuis longtemps l’affaire de tous, et il est, en particulier, l’affaire d’experts masculins (politiques, médecins, …) qui savent mieux qu’elles-mêmes ce dont elles ont besoin, et ne se privent pas de les examiner constamment, parfois sans leur consentement5.
La vie privée de chacun est désormais l’affaire des algorithmes et des publicitaires. Les assistants personnels et autres mouchards s’introduisent chez nous, écoutent en permanence tout ce que nous disons (sinon comment entendre « ok Google » lorsqu’il est prononcé ?), analysent nos comportements et nous proposent des solutions avant même que nous y pensions6.
De la même manière que la mise sous tutelle des femmes s’est faite pour le bien de la société, pour les protéger et les préserver, ces nouvelles technologies sont présentées sous l’angle des services qu’elles nous rendent et de la productivité qu’elles nous apportent.
Pourtant, en pratique, entre les défenseurs de la liberté qui luttent contre l’hégémonie des GAFAM et les féministes qui veulent accéder à l’autonomie et l’empowerment, les liens ne sont pas évidents.
Digital labour et travail domestique
De la même manière le digital labour7 s’inscrit dans cette continuité de l’exploitation surveillée.
Le travail des femmes, permanent et invisible, fait tourner la société en assurant la stabilité du foyer et celle, émotionnelle, du travailleur, et donc toutes les coulisses de la société capitaliste8.
Ce travail est volontaire, non par charité, mais par dépendance. En travaillant pour leur mari, les femmes bénéficient de son statut et de ressources auxquelles elles ne peuvent pas accéder par elles-mêmes. De la même manière que les utilisateurs de Google Maps fournissent leurs données à un système dont ils dépendent entièrement et auquel ils ne peuvent pas construire d’alternatives.
Il est bien sûr possible de chercher, autant que faire se peut, des alternatives à cette situation de dépendance. En utilisant Mastodon plutôt que Twitter, Diaspora plutôt que Facebook, un fournisseur d’email associatif plutôt que Gmail… Ce faisant, les utilisateurs gagnent en indépendance, mais se privent d’un certain nombre de fonctionnalités auxquelles ont accès la majeure partie de la société. Ce faisant, ils créent un réseau, parallèle et minoritaire, et dépensent plus d’énergie et de ressources pour accéder aux fonctionnalités dont ils ont besoin, y compris en termes d’accès au réseau social ou aux informations.
Les femmes de la renaissance, pouvaient, si elles le souhaitaient, ne pas se marier. Elles devenaient alors le plus souvent vagabondes, étaient privées de ressources financières, puisque moins payées que leurs collègues masculins, voire privées d’un accès à un travail, les reléguant à des métiers en périphérie de la société : prostituées, vendeuses itinérantes, … Privées de la sécurité (relative) garantie par le système familial, elles s’exposaient également à de nombreux risques, allant jusqu’à l’accusation de sorcellerie (et donc à la condamnation à mort). Elles intégraient alors des réseaux souterrains d’entraide et d’échanges de services, qui compensaient maigrement les discriminations sociales et économiques liées à leur statut.
Les femmes mariées, elles, contribuaient (et continuent à contribuer) à la force de travail de la société. Comme les micro-travailleurs du clic aident les intelligences artificielles ou décodent du texte sur des Captcha, les femmes aidaient leurs maris à accomplir leur travail, suppléant à toutes les tâches qu’ils ne pouvaient réaliser seuls. Elles animaient la vie du foyer, le tenant propre et rangé, prenant soin qu’il soit accueillant, qu’il y ait à manger, … Tout comme les utilisateurs sont amenés à prendre soin de leurs réseaux, en participant bénévolement à la modération des forums et discussions auxquels ils participent (coucou Webedia), en alimentant de leurs contenus les différentes plateformes à leur disposition, …
Conclusion
Tant que le travail du care et de la création de contenu exploitable (tu le vois le lien avec la procréation ?) ne pourra être effectué par les robots, il restera l’apanage des femmes et, de plus en plus, il s’agira de mettre tout le monde au travail, grâce à la subdivision en micro-tâches, de l’éducation des IA à l’animation de la communauté. On pourrait penser à une démocratisation de ce travail invisible et sous-valué.
Pourtant, on reste encore dans une configuration où le travail technique reste un milieu ultra masculin, où sont reconnus et parfois rémunérés les développeurs et administrateurs systèmes, tandis que le travail invisible et quotidien, traditionnellement féminin, se répartit sur tous les « prolétaires du clic », dont le travail n’est pas ou peu rémunéré, sauf à être dans les bons cercles, à avoir le bon réseau social, bref la bonne classe sociale qui permet d’avoir de la street cred et de monnayer la reconnaissance sociale.
Entre rapports de genre et rapports de classe, les relations de pouvoir dans le monde numérique ne semble pas pouvoir se passer des outils du féminisme intersectionnel et, plus largement, d’une analyse matérialiste des rapports de pouvoirs entre tous les acteurs du Net.
Retrouver la publication originale de cette tribune sur ce blog.
2. Sur l’échange des femmes ou Théorie de l’Alliance, voir sur Wikipédia.
3. S. Federici, Caliban et la sorcière. Femmes, corps et accumulation primitive (2014).
4. Pour plus d’infos sur l’histoire de ce slogan, voir Wikipédia.
5. Voir à ce sujet les nombreux témoignages sur les violences gynécologiques, qu’elles viennent d’étudiants en médecine ou de services de gynéco-obstétrique/maternité.
08 juin 2018 - Force est de constater bien des ponts entre les discours des défenseurs des libertés numériques et les analyses féministes intersectionnelles. Les descriptions de l’exploitation de nos données et de notre travail par les GAFAM et autres géants du Net font écho à celles de l’exploitation des femmes et des personnes racisées et minorisées. Faire le pont entre ces analyses pourrait-il nous permettre d’appuyer notre militantisme sur les réflexions et les outils créés contre la domination patriarcale et raciste, pour les adapter aux situations d’exploitation économique capitaliste plus larges ?
Utilisation des données personnelles et échange des femmes
On connait bien, parmi les militants de la défense des libertés numériques, la formule « Si c’est gratuit, c’est toi le produit ! », un adage qui cherche à visibiliser la ressource économique que constitue l’exploitation des données personnelles des utilisateurs par les sites internet, et en particulier les GAFAM.
Alors les GAFAM utiliseraient les données personnelles pour vendre des profils utilisateurs. C’est marrant, ça me rappelle d’autres situations.
Au XVIIème et XVIIIème siècle se développent les agences matrimoniales.1 Elles sont alimentées par les familles ou les employés de maison qui leur vendent des informations sur les jeunes filles à marier dans le foyer. Les agences matrimoniales récupèrent, trient, reformulent et enfin revendent ces informations sous forme de service de mise en relation pour les jeunes gens qui cherchent une épouse.
L’analyse du mariage comme mise en vente des femmes n’est pas une idée neuve. En 1947, Claude Lévi-Strauss développe la théorie générale de l’échange,2 c’est-à-dire l’idée que notre société est basée sur le principe fondamental de l’échange des femmes entre les familles. Celles-ci tissent des liens, développent leur capital économique et leur pouvoir politique en mariant les jeunes filles. Elles s’échangent ainsi les femmes, leur force de travail lorsqu’elles aident leurs maris, leur travail de tenue de la maison, de procréation, d’intimité, … Dans Caliban et la sorcière : Femmes, corps et accumulation primitive3, Sylvia Federici montre que cette exploitation des femmes se développe en même temps que le système capitaliste, comme base même de ce système où les individus sont répartis entre classes sociales où certains dépendent d’autres. Les travailleurs dépendent des propriétaires des moyens de production, les femmes dépendent des hommes, les esclaves racisés des colonies dépendent des maîtres blancs.
Revenons à l’exemple des agences matrimoniales. C’est donc tout un marché qui s’organise. Les femmes sont mises en valeur à travers la publication de leur dot, puis par les petites annonces et les agences.
Un peu plus tard, au XIXème siècle, la culture épistolaire se développe : les gens commencent à écrire et à échanger des lettres ou à tenir des journaux intimes dans lesquelles ils se racontent. Les petites annonces sont désormais écrites par les gens eux-mêmes qui se mettent en valeur, présentent leur meilleur profil, et cherchent à rencontrer la bonne personne. Facebook much ?
Les technologies numériques que nous utilisons aujourd’hui, Facebook, Instagram, Twitter, LinkedIn, ne sont donc que la continuité de cette dynamique de nous mettre en avant sous notre plus beau jour pour trouver la bonne personne. Mais cette fois, il ne s’agit plus de vendre uniquement des femmes ou des personnes racisées, mais bien n’importe quel profil utilisateur, y compris ceux des hommes blancs, cisgenres et hétérosexuels de classe bourgeoise, si habitués à pouvoir choisir plutôt qu’à être choisis.
Espace numérique et espace intime
L’espace numérique est devenu notre nouvel espace intime : celui dans lequel nous vivons quotidiennement, où nous nous racontons à nous-mêmes, à nos amis, à nos proches, et parfois à un public plus large.
De la même manière que les femmes, bien que reléguées au foyer, sont observées, surveillées dans toutes leurs actions, les utilisateurs sont étudiés, analysés, contraints à suivre les règles de la plateforme et de la communauté dans laquelle ils évoluent.
La frontière entre « privé » et « public » est ténue. Ainsi, les questions dites « privées » de la contraception, de l’avortement, du viol conjugal ont été débattues dans l’espace public. Ainsi, encore aujourd’hui, des manifestations et des débats publics continuent de discuter de ce que chacun fait chez lui, du droit à certaines sexualités ou à certaines familles d’être reconnues.
De la même manière, on juge aujourd’hui sur SnapChat de l’apparence des jeunes filles, Facebook sait qui nous avons invité chez nous et nos commentaires apparaissent sur Youporn.
On entend parfois que l’espace numérique brouille la frontière entre privé et public, et pourtant on pourrait plutôt dire qu’il rend évidente la sentence politique des féministes de la seconde vague : « le privé est politique4 ». L’espace intime, et celui des femmes en particulier, est depuis longtemps l’affaire de tous, et il est, en particulier, l’affaire d’experts masculins (politiques, médecins, …) qui savent mieux qu’elles-mêmes ce dont elles ont besoin, et ne se privent pas de les examiner constamment, parfois sans leur consentement5.
La vie privée de chacun est désormais l’affaire des algorithmes et des publicitaires. Les assistants personnels et autres mouchards s’introduisent chez nous, écoutent en permanence tout ce que nous disons (sinon comment entendre « ok Google » lorsqu’il est prononcé ?), analysent nos comportements et nous proposent des solutions avant même que nous y pensions6.
De la même manière que la mise sous tutelle des femmes s’est faite pour le bien de la société, pour les protéger et les préserver, ces nouvelles technologies sont présentées sous l’angle des services qu’elles nous rendent et de la productivité qu’elles nous apportent.
Pourtant, en pratique, entre les défenseurs de la liberté qui luttent contre l’hégémonie des GAFAM et les féministes qui veulent accéder à l’autonomie et l’empowerment, les liens ne sont pas évidents.
Digital labour et travail domestique
De la même manière le digital labour7 s’inscrit dans cette continuité de l’exploitation surveillée.
Le travail des femmes, permanent et invisible, fait tourner la société en assurant la stabilité du foyer et celle, émotionnelle, du travailleur, et donc toutes les coulisses de la société capitaliste8.
Ce travail est volontaire, non par charité, mais par dépendance. En travaillant pour leur mari, les femmes bénéficient de son statut et de ressources auxquelles elles ne peuvent pas accéder par elles-mêmes. De la même manière que les utilisateurs de Google Maps fournissent leurs données à un système dont ils dépendent entièrement et auquel ils ne peuvent pas construire d’alternatives.
Il est bien sûr possible de chercher, autant que faire se peut, des alternatives à cette situation de dépendance. En utilisant Mastodon plutôt que Twitter, Diaspora plutôt que Facebook, un fournisseur d’email associatif plutôt que Gmail… Ce faisant, les utilisateurs gagnent en indépendance, mais se privent d’un certain nombre de fonctionnalités auxquelles ont accès la majeure partie de la société. Ce faisant, ils créent un réseau, parallèle et minoritaire, et dépensent plus d’énergie et de ressources pour accéder aux fonctionnalités dont ils ont besoin, y compris en termes d’accès au réseau social ou aux informations.
Les femmes de la renaissance, pouvaient, si elles le souhaitaient, ne pas se marier. Elles devenaient alors le plus souvent vagabondes, étaient privées de ressources financières, puisque moins payées que leurs collègues masculins, voire privées d’un accès à un travail, les reléguant à des métiers en périphérie de la société : prostituées, vendeuses itinérantes, … Privées de la sécurité (relative) garantie par le système familial, elles s’exposaient également à de nombreux risques, allant jusqu’à l’accusation de sorcellerie (et donc à la condamnation à mort). Elles intégraient alors des réseaux souterrains d’entraide et d’échanges de services, qui compensaient maigrement les discriminations sociales et économiques liées à leur statut.
Les femmes mariées, elles, contribuaient (et continuent à contribuer) à la force de travail de la société. Comme les micro-travailleurs du clic aident les intelligences artificielles ou décodent du texte sur des Captcha, les femmes aidaient leurs maris à accomplir leur travail, suppléant à toutes les tâches qu’ils ne pouvaient réaliser seuls. Elles animaient la vie du foyer, le tenant propre et rangé, prenant soin qu’il soit accueillant, qu’il y ait à manger, … Tout comme les utilisateurs sont amenés à prendre soin de leurs réseaux, en participant bénévolement à la modération des forums et discussions auxquels ils participent (coucou Webedia), en alimentant de leurs contenus les différentes plateformes à leur disposition, …
Conclusion
Tant que le travail du care et de la création de contenu exploitable (tu le vois le lien avec la procréation ?) ne pourra être effectué par les robots, il restera l’apanage des femmes et, de plus en plus, il s’agira de mettre tout le monde au travail, grâce à la subdivision en micro-tâches, de l’éducation des IA à l’animation de la communauté. On pourrait penser à une démocratisation de ce travail invisible et sous-valué.
Pourtant, on reste encore dans une configuration où le travail technique reste un milieu ultra masculin, où sont reconnus et parfois rémunérés les développeurs et administrateurs systèmes, tandis que le travail invisible et quotidien, traditionnellement féminin, se répartit sur tous les « prolétaires du clic », dont le travail n’est pas ou peu rémunéré, sauf à être dans les bons cercles, à avoir le bon réseau social, bref la bonne classe sociale qui permet d’avoir de la street cred et de monnayer la reconnaissance sociale.
Entre rapports de genre et rapports de classe, les relations de pouvoir dans le monde numérique ne semble pas pouvoir se passer des outils du féminisme intersectionnel et, plus largement, d’une analyse matérialiste des rapports de pouvoirs entre tous les acteurs du Net.
Retrouver la publication originale de cette tribune sur ce blog.
2. Sur l’échange des femmes ou Théorie de l’Alliance, voir sur Wikipédia.
3. S. Federici, Caliban et la sorcière. Femmes, corps et accumulation primitive (2014).
4. Pour plus d’infos sur l’histoire de ce slogan, voir Wikipédia.
5. Voir à ce sujet les nombreux témoignages sur les violences gynécologiques, qu’elles viennent d’étudiants en médecine ou de services de gynéco-obstétrique/maternité.
";s:7:"dateiso";s:15:"20180608_172109";}s:15:"20180605_170905";a:7:{s:5:"title";s:67:"Surveillance : Macron lâche la bride des services de renseignement";s:4:"link";s:72:"https://www.laquadrature.net/fr/surveillance-macron-lache-bride-services";s:4:"guid";s:37:"10538 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 05 Jun 2018 15:09:05 +0000";s:11:"description";s:31079:"
5 juin 2018 — Alors que La Quadrature du Net dénonçait il y a quelques semaines l'instauration de nouvelles mesures de surveillance au nom de la lutte contre la cybercriminalité dans la loi de programmation militaire en cours d'examen au Parlement, le gouvernement d'Emmanuel Macron persiste et signe.
Cette fois, il s'agit de toucher à la loi renseignement, en ouvrant aux services de renseignement intérieurs (notamment la DGSI) les montagnes de données accumulées par la DGSE dans le cadre de son dispositif de surveillance massive des communications Internet dites « internationales ». Et parce qu'il est toujours préférable de contourner le débat public lorsqu'on touche à la surveillance d'État, c'est en catimini, par voie d'amendement, que le gouvernement a choisi de procéder, non sans compter le soutien de quelques parlementaires complices.
Déni de réalité, déni démocratique
Le 22 mai dernier au Sénat, la ministre des Armées Florence Parly présente dans l'hémicycle un amendement au projet de loi de programmation militaire, déjà adopté en première lecture à l'Assemblée. À première vue, c'est sensible, puisqu'il s'agit de toucher au livre VIII du code de la sécurité intérieure, celui qui encadre les activités des services de renseignement. Mais la ministre se veut rassurante :
« Le Gouvernement ne souhaite évidemment pas, par le biais d’un amendement au détour du projet de loi relatif à la programmation militaire, remettre sur le métier la loi relative au renseignement. C’est un chantier qui nous occupera plutôt en 2020 et auquel il paraît indispensable d’associer étroitement la délégation parlementaire au renseignement, la DPR.
Je vous propose donc, mesdames, messieurs les sénateurs, de permettre simplement une utilisation plus rationnelle des données légalement recueillies dans le cadre de la surveillance des communications internationale. Nous ne donnons pas aux services de nouveaux moyens de collecte ni ne modifions en profondeur les équilibres retenus en 2015 ».
Il s'agit donc d'être « rationnel » sans toucher aux « équilibres retenus en 2015 » – équilibres déjà bien précaires et dûment attaqués devant les juridictions françaises et européennes1. Un petit patch bureaucratique pour faire en sorte de fluidifier le travail des services et qui, comme nous l'apprend la ministre, a été validé par la Commission nationale de contrôle des techniques de renseignement (la CNCTR) et par le Conseil d'État dans leurs avis respectifs sur l'amendement proposé.
Sauf que ces propos tiennent plus du déni de réalité, voire d'une volonté manifeste de tromper son monde. Car loin d'être anecdotique, l'amendement transforme radicalement les fameux « équilibres » de la loi renseignement.
Surveillance intérieure / surveillance extérieure
Pour le comprendre, quelques rappels sont de rigueur.
Traditionnellement, les activités de surveillance d'un État envers les personnes résidant sur son territoire sont plus étroitement encadrées que les activités de surveillance dite « internationale », c'est-à-dire celle touchant des personnes situées hors du territoire national. C'est donc dans le cadre des activités de surveillance internationale que les programmes de surveillance les plus « massifs » se sont d'abord développés (par exemple le programme UPSTREAM de la NSA, le programme TEMPORA du GCHQ britannique, ou le programme similaire lancé à partir de 2008 par la DGSE française pour collecter à grande échelle le trafic Internet au niveau des câbles sous-marins, et l'exploiter à l'envie par la suite2).
Dans les hautes sphères de l'État, ce principe continue d'être défendu. Ainsi, dans son rapport annuel de 2014 sur les libertés à l'ère numérique, le Conseil d'État notait :
« Le fait que les garanties entourant l’interception des communications soient moindres lorsqu’elles se situent à l’étranger plutôt que sur le territoire se justifie (...). (...) Dès lors que les personnes situées à l’étranger échappent à la juridiction de l’État, l’interception de leurs communications n’est pas susceptible de porter atteinte à leurs droits dans la même mesure que si elles se situaient sur le territoire ; elles ne peuvent en particulier faire l’objet de mesures juridiques contraignantes qui se fonderaient sur les éléments collectés »3.
C'est en vertu de ces arguments que, en 2015, la loi renseignement a prévu un régime juridique beaucoup plus lâche pour la surveillance internationale : le Premier ministre autorise l'interception non-ciblée de vastes quantités de données associées à une région du monde, à des organisations, groupes de personne, etc. ; ces données sont conservées pendant beaucoup plus longtemps que dans le cadre de la surveillance nationale ; elles peuvent faire l'objet d'analyse « en masse » des données via des traitements « Big Data » (ce que, soit dit en passant, la DGSI a également commencé à faire depuis quelques mois grâce aux algorithmes de Palantir sur les données saisies dans le cadre de l'état d'urgence, et ce en dehors de tout cadre juridique4).
Or, comme le rappelait dès 2013 la coalition internationale « Necessary and Proportionate » en réponse aux révélations d'Edward Snowden, cette distinction national/international n'a plus lieu d'être. À l'heure où les communications Internet sont par nature transfrontières (même lorsque j'échange un mail avec ma voisine, il est probable qu'il transite via l'étranger), et où les doctrines du renseignement font de moins en moins la différence entre menace extérieure et « ennemi intérieur », les arguments qui la fondent sont caducs. En outre, comme le rappelaient La Quadrature du Net, FFDN et FDN dans leur mémoire envoyé en 2015 au Conseil constitutionnel alors que celui-ci se penchait sur la loi renseignement, cette distinction revient au plan juridique à bafouer l'universalité des droits5. De notre point de vue, il s'agirait donc d'abolir tout simplement le régime dérogatoire de surveillance internationale pour faire appliquer à toutes et tous le régime le plus protecteur : celui associé à la surveillance nationale.
L'extension du régime dérogatoire de la surveillance internationale
Mais, comme on pouvait le redouter, non seulement le régime de la surveillance internationale tient bon, mais il est en fait en train de devenir le dénominateur commun pour l'ensemble du champ du renseignement.
Certes, dès 2015, la loi renseignement ouvrait la voix à de telles évolutions. Les dispositions régulant les usages du puissant système de surveillance de la DGSE prévoyaient déjà la possibilité de surveiller des communications « rattachables au territoire national » (via leurs identifiants techniques comme l'adresse IP ou le numéro de téléphone) dès lors que les communications en question traversaient les frontières. Mais à ce jour ces formes de surveillance étaient uniquement possible pour les résidents français situés hors du territoire national.
Ici, il s'agit d'aller encore plus loin. En vertu de l'amendement adopté au Sénat, et comme l'explique la ministre :
« Nous voulons d’abord permettre l’exploitation des données d’un identifiant technique rattachable au territoire national interceptées dans le cadre de la surveillance des communications internationales, alors même que son utilisateur est en France6.»
Il s'agit notamment d'ouvrir aux services de renseignement intérieur les vannes du vaste système de surveillance déployé par la DGSE depuis 2008, et dans lequel l'État a depuis investi près de 1,5 milliards d'euros. Cela permet en effet d'accéder à quantité de données qui, dans le cadre strictement national, étaient plus difficilement exploitables7.
Remonter le passé pour confirmer des suspicions
Mais ce n'est pas tout. Le gouvernement a également souhaité autoriser des opérations de surveillance dites de « levée de doute ». Et la ministre d'expliquer :
« La levée de doute prendra la forme d’une vérification ponctuelle sur les données de connexion légalement interceptées dans le cadre de la surveillance des communications internationales.
Il s’agit d’opérations très rapides, non répétées et susceptibles de mettre en évidence un graphe relationnel ou la présence à l’étranger d’une personne, qui pourra alors être surveillée si elle présente une menace. Dès que la vérification fera apparaître la nécessité d’une surveillance, l’exploitation des communications ne pourra être poursuivie que via les techniques de renseignement inscrites dans la loi de 2015 ».
En gros, les services utilisent un ou plusieurs « sélecteurs » ou « identifiants » correspondant à des personnes ou groupes de personnes situés à l'étranger, avec lesquels on va sonder les bases de données pour établir le graphe social et tenter de faire émerger les données de suspects résidant en France8. On peut ensuite se livrer à une surveillance plus poussée de ces suspects dans le cadre du régime de surveillance nationale (en demandant par exemple une autorisation pour procéder à une interception de sécurité)9.
L'amendement inaugure également deux régimes dérogatoires à ce dispositif de « levée de doute », qui permettent non pas de constituer ces graphes à partir d'identifiants « étrangers », mais à partir d'identifiants directement rattachables au territoire national : l'un en cas de « menace terroriste urgente », l'autre s'agissant « d'éléments de cyberattaques susceptibles de porter atteinte aux intérêts fondamentaux de la Nation »10.
Au plan opérationnel, ces opérations de levée de doutes poursuivent la même logique « exploratoire » que les boîtes noires de l'article L. 851-3 ou la surveillance en temps réel des données de connexion du L. 851-2 (elle aussi sont des manières de repérer des signaux faibles, en préalable d'une surveillance plus poussée). Sauf qu'il s'agit cette fois de sonder les données conservées massivement dans les data-centers de la DGSE, et non de faire de la surveillance de flux en « temps réel ». Pour rappel, une fois collectées, les métadonnées des résidents français sont conservées quatre ans par les services...
La fuite en avant de la surveillance
Quand un outil technique existe, il n'y a aucune raison de ne pas l'utiliser à fond... C'est en tous cas la position des caciques du renseignement et des responsables politiques qui président à ces activités secrètes, et qui estiment nécessaire de mettre au service du renseignement intérieur les vastes dispositifs de surveillance de la DGSE. La fin justifie les moyens, et tant pis pour l'État de droit.
Ni le gouvernement, ni la CNCTR, ni le Conseil d'État n'ont donc de problème à s'asseoir sur les arguments qu'ils invoquaient il y a tout juste trois ans pour justifier l'instauration d'un régime dérogatoire pour la surveillance internationale11, à savoir que celle ci ne concernait que des personnes situées hors du territoire, et donc échappant a priori au pouvoir coercitif de l'État. Aujourd'hui, ils rendent ce régime dérogatoire toujours plus poreux à la surveillance des résidents français, en permettant au renseignement intérieur de piocher allégrement dans les bases de données de la DGSE. Avec cet amendement, il devient par exemple possible de retracer d'un seul coup l'historique des communications d'un résident français en remontant quatre ans en arrière, là où le régime de surveillance nationale permettait de récolter des métadonnées vieilles d'un an maximum auprès des opérateurs et de quantité d'hébergeurs. On change clairement de dimension.
Le plus choquant, c'est peut être que le gouvernement refuse de reconnaître l'importance de ces évolutions, en prétendant qu'il ne s'agit que de quelques aménagements techniques. Cette manière de procéder du gouvernement Macron – qui semble chercher à étouffer à tout prix le débat – devrait justifier à elle seule que les parlementaires s'opposent à cet amendement scélérat (la Commission mixte paritaire composée de députés et de sénateurs se réunit bientôt pour finaliser le texte).
Malgré quelques maigres avancées en termes de transparence dont témoigne notamment le dernier rapport de la CNCTR, cette affaire illustre bien l'immaturité démocratique persistante du renseignement français. Alors que la ministre promet une révision plus en profondeur de la loi renseignement pour 2020, on peut d'ores et déjà s'attendre au pire...
4. C'est apparemment cette collaboration DGSI-Palantir qui a poussé les rédacteurs du rapport Villani sur l'intelligence artificielle (IA) à envisager des « dérogations » pour promouvoir des « expérimentations » sur l'usage de l'IA dans le champ du renseignement. Il n'est pas question de les encadrer dans la loi mais de les faire sous le contrôle d'autorités comme la CNCTR, ce qui est tout simplement illégal.
6. Nous soulignons. L'amendement est rédigé comme suit :
V. – Par dérogation au troisième alinéa de l’article L. 854-1 et pour la défense ou la promotion des finalités mentionnées aux 1° , 2° , 4° , 6° et 7° de l’article L. 811-3, le Premier ministre ou l’un de ses délégués peut, dans les conditions prévues au III, délivrer une autorisation d’exploitation de communications, ou de seules données de connexion interceptées, de numéros d’abonnement ou d’identifiants techniques rattachables au territoire national dont l’utilisateur communique depuis ce territoire.
« Le nombre maximal des autorisations d’exploitation, en vigueur simultanément et portant sur des correspondances, est arrêté par le Premier ministre, après avis de la Commission nationale de contrôle des techniques de renseignement. La décision fixant ce contingent et sa répartition entre les ministres mentionnés au premier alinéa de l’article L. 821-2 sont portées à la connaissance de la commission ».
(...)
« Les autorisations prévues à l’article L. 851-1, à l’article L. 851-2 et au I de l’article L. 852-1 peuvent valoir, lorsque la décision d’autorisation le prévoit, autorisation d’exploitation des communications, ou des seules données de connexion, interceptées dans le cadre de la mise en œuvre de mesures de surveillance des communications internationales, dans la limite de la portée de ces autorisations et dans le respect des garanties qui les entourent. »
7. L'exposé des motifs évoque notamment le fait que, si « les données interceptées [par la DGSE] sont partielles », elles présentent un intérêt d’autant plus important qu’y figurent des données que l’on ne peut obtenir par réquisition auprès des opérateurs, notamment celles des messageries cryptées ». On peut ainsi supposer que le relevé des seules données de connexion dans le système de la DGSE permet de retracer l'ensemble d'un historique de navigation Internet (protocoles utilisés, services consultés, etc.) alors que du côté d'un opérateur fixe dans le cadre de la surveillance nationale, permettra seulement d'identifier l'internaute concerné et les adresses IP utilisées ainsi que ses « fadettes » téléphoniques.
8. « IV. – L’autorisation prévue au III vaut autorisation d’effectuer au sein des données de connexion interceptées des vérifications ponctuelles aux seules fins de détecter une menace pour les intérêts fondamentaux de la Nation liée aux relations entre des numéros d’abonnement ou des identifiants techniques rattachables au territoire français et des zones géographiques, organisations ou personnes mentionnés au 3° du III.
9. (...) « Lorsque les vérifications ponctuelles mentionnées aux alinéas précédents font apparaître la nécessité d’une surveillance, l’exploitation des communications, ou des seules données de connexion interceptées, ne peut être poursuivie que sur le fondement d’une autorisation obtenue en application des chapitres I ou II du présent titre ou du V du présent article, dans le respect des règles qui leur sont propres.
10. « A la seule fin de détecter, de manière urgente, une menace terroriste, cette vérification ponctuelle peut porter sur les communications de numéros d’abonnement ou d’identifiants techniques rattachables au territoire national. Ces numéros et identifiants sont immédiatement communiqués au Premier ministre et à la Commission nationale de contrôle des techniques de renseignement, pour les besoins du contrôle prévu à l’article L. 854-9.
« Des vérifications ponctuelles peuvent également être mises en œuvre pour détecter sur les communications d’identifiants techniques rattachables au territoire national, à des fins d’analyse technique, des éléments de cyberattaques susceptibles de porter atteinte aux intérêts fondamentaux de la Nation mentionnés au 1° de l’article L. 811-3.
11. Comble de l'hypocrisie, cet argument est d'ailleurs rappelé par le gouvernement dans l'exposé des motifs de l'amendement ! D'après le texte en effet, « les exigences liées à l'exercice des libertés constitutionnellement garanties ne peuvent être les mêmes pour une personne résidant sur le territoire de la République et pour une personne résidant à l'étranger. Celle-ci échappant à la juridiction de l'Etat, elle ne peut en particulier faire l'objet de mesures juridiques contraignantes qui se fonderaient sur les éléments collectés ».
";s:7:"content";s:31082:"
5 juin 2018 — Alors que La Quadrature du Net dénonçait il y a quelques semaines l'instauration de nouvelles mesures de surveillance au nom de la lutte contre la cybercriminalité dans la loi de programmation militaire en cours d'examen au Parlement, le gouvernement d'Emmanuel Macron persiste et signe.
Cette fois, il s'agit de toucher à la loi renseignement, en ouvrant aux services de renseignement intérieurs (notamment la DGSI) les montagnes de données accumulées par la DGSE dans le cadre de son dispositif de surveillance massive des communications Internet dites « internationales ». Et parce qu'il est toujours préférable de contourner le débat public lorsqu'on touche à la surveillance d'État, c'est en catimini, par voie d'amendement, que le gouvernement a choisi de procéder, non sans compter le soutien de quelques parlementaires complices.
Déni de réalité, déni démocratique
Le 22 mai dernier au Sénat, la ministre des Armées Florence Parly présente dans l'hémicycle un amendement au projet de loi de programmation militaire, déjà adopté en première lecture à l'Assemblée. À première vue, c'est sensible, puisqu'il s'agit de toucher au livre VIII du code de la sécurité intérieure, celui qui encadre les activités des services de renseignement. Mais la ministre se veut rassurante :
« Le Gouvernement ne souhaite évidemment pas, par le biais d’un amendement au détour du projet de loi relatif à la programmation militaire, remettre sur le métier la loi relative au renseignement. C’est un chantier qui nous occupera plutôt en 2020 et auquel il paraît indispensable d’associer étroitement la délégation parlementaire au renseignement, la DPR.
Je vous propose donc, mesdames, messieurs les sénateurs, de permettre simplement une utilisation plus rationnelle des données légalement recueillies dans le cadre de la surveillance des communications internationale. Nous ne donnons pas aux services de nouveaux moyens de collecte ni ne modifions en profondeur les équilibres retenus en 2015 ».
Il s'agit donc d'être « rationnel » sans toucher aux « équilibres retenus en 2015 » – équilibres déjà bien précaires et dûment attaqués devant les juridictions françaises et européennes1. Un petit patch bureaucratique pour faire en sorte de fluidifier le travail des services et qui, comme nous l'apprend la ministre, a été validé par la Commission nationale de contrôle des techniques de renseignement (la CNCTR) et par le Conseil d'État dans leurs avis respectifs sur l'amendement proposé.
Sauf que ces propos tiennent plus du déni de réalité, voire d'une volonté manifeste de tromper son monde. Car loin d'être anecdotique, l'amendement transforme radicalement les fameux « équilibres » de la loi renseignement.
Surveillance intérieure / surveillance extérieure
Pour le comprendre, quelques rappels sont de rigueur.
Traditionnellement, les activités de surveillance d'un État envers les personnes résidant sur son territoire sont plus étroitement encadrées que les activités de surveillance dite « internationale », c'est-à-dire celle touchant des personnes situées hors du territoire national. C'est donc dans le cadre des activités de surveillance internationale que les programmes de surveillance les plus « massifs » se sont d'abord développés (par exemple le programme UPSTREAM de la NSA, le programme TEMPORA du GCHQ britannique, ou le programme similaire lancé à partir de 2008 par la DGSE française pour collecter à grande échelle le trafic Internet au niveau des câbles sous-marins, et l'exploiter à l'envie par la suite2).
Dans les hautes sphères de l'État, ce principe continue d'être défendu. Ainsi, dans son rapport annuel de 2014 sur les libertés à l'ère numérique, le Conseil d'État notait :
« Le fait que les garanties entourant l’interception des communications soient moindres lorsqu’elles se situent à l’étranger plutôt que sur le territoire se justifie (...). (...) Dès lors que les personnes situées à l’étranger échappent à la juridiction de l’État, l’interception de leurs communications n’est pas susceptible de porter atteinte à leurs droits dans la même mesure que si elles se situaient sur le territoire ; elles ne peuvent en particulier faire l’objet de mesures juridiques contraignantes qui se fonderaient sur les éléments collectés »3.
C'est en vertu de ces arguments que, en 2015, la loi renseignement a prévu un régime juridique beaucoup plus lâche pour la surveillance internationale : le Premier ministre autorise l'interception non-ciblée de vastes quantités de données associées à une région du monde, à des organisations, groupes de personne, etc. ; ces données sont conservées pendant beaucoup plus longtemps que dans le cadre de la surveillance nationale ; elles peuvent faire l'objet d'analyse « en masse » des données via des traitements « Big Data » (ce que, soit dit en passant, la DGSI a également commencé à faire depuis quelques mois grâce aux algorithmes de Palantir sur les données saisies dans le cadre de l'état d'urgence, et ce en dehors de tout cadre juridique4).
Or, comme le rappelait dès 2013 la coalition internationale « Necessary and Proportionate » en réponse aux révélations d'Edward Snowden, cette distinction national/international n'a plus lieu d'être. À l'heure où les communications Internet sont par nature transfrontières (même lorsque j'échange un mail avec ma voisine, il est probable qu'il transite via l'étranger), et où les doctrines du renseignement font de moins en moins la différence entre menace extérieure et « ennemi intérieur », les arguments qui la fondent sont caducs. En outre, comme le rappelaient La Quadrature du Net, FFDN et FDN dans leur mémoire envoyé en 2015 au Conseil constitutionnel alors que celui-ci se penchait sur la loi renseignement, cette distinction revient au plan juridique à bafouer l'universalité des droits5. De notre point de vue, il s'agirait donc d'abolir tout simplement le régime dérogatoire de surveillance internationale pour faire appliquer à toutes et tous le régime le plus protecteur : celui associé à la surveillance nationale.
L'extension du régime dérogatoire de la surveillance internationale
Mais, comme on pouvait le redouter, non seulement le régime de la surveillance internationale tient bon, mais il est en fait en train de devenir le dénominateur commun pour l'ensemble du champ du renseignement.
Certes, dès 2015, la loi renseignement ouvrait la voix à de telles évolutions. Les dispositions régulant les usages du puissant système de surveillance de la DGSE prévoyaient déjà la possibilité de surveiller des communications « rattachables au territoire national » (via leurs identifiants techniques comme l'adresse IP ou le numéro de téléphone) dès lors que les communications en question traversaient les frontières. Mais à ce jour ces formes de surveillance étaient uniquement possible pour les résidents français situés hors du territoire national.
Ici, il s'agit d'aller encore plus loin. En vertu de l'amendement adopté au Sénat, et comme l'explique la ministre :
« Nous voulons d’abord permettre l’exploitation des données d’un identifiant technique rattachable au territoire national interceptées dans le cadre de la surveillance des communications internationales, alors même que son utilisateur est en France6.»
Il s'agit notamment d'ouvrir aux services de renseignement intérieur les vannes du vaste système de surveillance déployé par la DGSE depuis 2008, et dans lequel l'État a depuis investi près de 1,5 milliards d'euros. Cela permet en effet d'accéder à quantité de données qui, dans le cadre strictement national, étaient plus difficilement exploitables7.
Remonter le passé pour confirmer des suspicions
Mais ce n'est pas tout. Le gouvernement a également souhaité autoriser des opérations de surveillance dites de « levée de doute ». Et la ministre d'expliquer :
« La levée de doute prendra la forme d’une vérification ponctuelle sur les données de connexion légalement interceptées dans le cadre de la surveillance des communications internationales.
Il s’agit d’opérations très rapides, non répétées et susceptibles de mettre en évidence un graphe relationnel ou la présence à l’étranger d’une personne, qui pourra alors être surveillée si elle présente une menace. Dès que la vérification fera apparaître la nécessité d’une surveillance, l’exploitation des communications ne pourra être poursuivie que via les techniques de renseignement inscrites dans la loi de 2015 ».
En gros, les services utilisent un ou plusieurs « sélecteurs » ou « identifiants » correspondant à des personnes ou groupes de personnes situés à l'étranger, avec lesquels on va sonder les bases de données pour établir le graphe social et tenter de faire émerger les données de suspects résidant en France8. On peut ensuite se livrer à une surveillance plus poussée de ces suspects dans le cadre du régime de surveillance nationale (en demandant par exemple une autorisation pour procéder à une interception de sécurité)9.
L'amendement inaugure également deux régimes dérogatoires à ce dispositif de « levée de doute », qui permettent non pas de constituer ces graphes à partir d'identifiants « étrangers », mais à partir d'identifiants directement rattachables au territoire national : l'un en cas de « menace terroriste urgente », l'autre s'agissant « d'éléments de cyberattaques susceptibles de porter atteinte aux intérêts fondamentaux de la Nation »10.
Au plan opérationnel, ces opérations de levée de doutes poursuivent la même logique « exploratoire » que les boîtes noires de l'article L. 851-3 ou la surveillance en temps réel des données de connexion du L. 851-2 (elle aussi sont des manières de repérer des signaux faibles, en préalable d'une surveillance plus poussée). Sauf qu'il s'agit cette fois de sonder les données conservées massivement dans les data-centers de la DGSE, et non de faire de la surveillance de flux en « temps réel ». Pour rappel, une fois collectées, les métadonnées des résidents français sont conservées quatre ans par les services...
La fuite en avant de la surveillance
Quand un outil technique existe, il n'y a aucune raison de ne pas l'utiliser à fond... C'est en tous cas la position des caciques du renseignement et des responsables politiques qui président à ces activités secrètes, et qui estiment nécessaire de mettre au service du renseignement intérieur les vastes dispositifs de surveillance de la DGSE. La fin justifie les moyens, et tant pis pour l'État de droit.
Ni le gouvernement, ni la CNCTR, ni le Conseil d'État n'ont donc de problème à s'asseoir sur les arguments qu'ils invoquaient il y a tout juste trois ans pour justifier l'instauration d'un régime dérogatoire pour la surveillance internationale11, à savoir que celle ci ne concernait que des personnes situées hors du territoire, et donc échappant a priori au pouvoir coercitif de l'État. Aujourd'hui, ils rendent ce régime dérogatoire toujours plus poreux à la surveillance des résidents français, en permettant au renseignement intérieur de piocher allégrement dans les bases de données de la DGSE. Avec cet amendement, il devient par exemple possible de retracer d'un seul coup l'historique des communications d'un résident français en remontant quatre ans en arrière, là où le régime de surveillance nationale permettait de récolter des métadonnées vieilles d'un an maximum auprès des opérateurs et de quantité d'hébergeurs. On change clairement de dimension.
Le plus choquant, c'est peut être que le gouvernement refuse de reconnaître l'importance de ces évolutions, en prétendant qu'il ne s'agit que de quelques aménagements techniques. Cette manière de procéder du gouvernement Macron – qui semble chercher à étouffer à tout prix le débat – devrait justifier à elle seule que les parlementaires s'opposent à cet amendement scélérat (la Commission mixte paritaire composée de députés et de sénateurs se réunit bientôt pour finaliser le texte).
Malgré quelques maigres avancées en termes de transparence dont témoigne notamment le dernier rapport de la CNCTR, cette affaire illustre bien l'immaturité démocratique persistante du renseignement français. Alors que la ministre promet une révision plus en profondeur de la loi renseignement pour 2020, on peut d'ores et déjà s'attendre au pire...
4. C'est apparemment cette collaboration DGSI-Palantir qui a poussé les rédacteurs du rapport Villani sur l'intelligence artificielle (IA) à envisager des « dérogations » pour promouvoir des « expérimentations » sur l'usage de l'IA dans le champ du renseignement. Il n'est pas question de les encadrer dans la loi mais de les faire sous le contrôle d'autorités comme la CNCTR, ce qui est tout simplement illégal.
6. Nous soulignons. L'amendement est rédigé comme suit :
V. – Par dérogation au troisième alinéa de l’article L. 854-1 et pour la défense ou la promotion des finalités mentionnées aux 1° , 2° , 4° , 6° et 7° de l’article L. 811-3, le Premier ministre ou l’un de ses délégués peut, dans les conditions prévues au III, délivrer une autorisation d’exploitation de communications, ou de seules données de connexion interceptées, de numéros d’abonnement ou d’identifiants techniques rattachables au territoire national dont l’utilisateur communique depuis ce territoire.
« Le nombre maximal des autorisations d’exploitation, en vigueur simultanément et portant sur des correspondances, est arrêté par le Premier ministre, après avis de la Commission nationale de contrôle des techniques de renseignement. La décision fixant ce contingent et sa répartition entre les ministres mentionnés au premier alinéa de l’article L. 821-2 sont portées à la connaissance de la commission ».
(...)
« Les autorisations prévues à l’article L. 851-1, à l’article L. 851-2 et au I de l’article L. 852-1 peuvent valoir, lorsque la décision d’autorisation le prévoit, autorisation d’exploitation des communications, ou des seules données de connexion, interceptées dans le cadre de la mise en œuvre de mesures de surveillance des communications internationales, dans la limite de la portée de ces autorisations et dans le respect des garanties qui les entourent. »
7. L'exposé des motifs évoque notamment le fait que, si « les données interceptées [par la DGSE] sont partielles », elles présentent un intérêt d’autant plus important qu’y figurent des données que l’on ne peut obtenir par réquisition auprès des opérateurs, notamment celles des messageries cryptées ». On peut ainsi supposer que le relevé des seules données de connexion dans le système de la DGSE permet de retracer l'ensemble d'un historique de navigation Internet (protocoles utilisés, services consultés, etc.) alors que du côté d'un opérateur fixe dans le cadre de la surveillance nationale, permettra seulement d'identifier l'internaute concerné et les adresses IP utilisées ainsi que ses « fadettes » téléphoniques.
8. « IV. – L’autorisation prévue au III vaut autorisation d’effectuer au sein des données de connexion interceptées des vérifications ponctuelles aux seules fins de détecter une menace pour les intérêts fondamentaux de la Nation liée aux relations entre des numéros d’abonnement ou des identifiants techniques rattachables au territoire français et des zones géographiques, organisations ou personnes mentionnés au 3° du III.
9. (...) « Lorsque les vérifications ponctuelles mentionnées aux alinéas précédents font apparaître la nécessité d’une surveillance, l’exploitation des communications, ou des seules données de connexion interceptées, ne peut être poursuivie que sur le fondement d’une autorisation obtenue en application des chapitres I ou II du présent titre ou du V du présent article, dans le respect des règles qui leur sont propres.
10. « A la seule fin de détecter, de manière urgente, une menace terroriste, cette vérification ponctuelle peut porter sur les communications de numéros d’abonnement ou d’identifiants techniques rattachables au territoire national. Ces numéros et identifiants sont immédiatement communiqués au Premier ministre et à la Commission nationale de contrôle des techniques de renseignement, pour les besoins du contrôle prévu à l’article L. 854-9.
« Des vérifications ponctuelles peuvent également être mises en œuvre pour détecter sur les communications d’identifiants techniques rattachables au territoire national, à des fins d’analyse technique, des éléments de cyberattaques susceptibles de porter atteinte aux intérêts fondamentaux de la Nation mentionnés au 1° de l’article L. 811-3.
11. Comble de l'hypocrisie, cet argument est d'ailleurs rappelé par le gouvernement dans l'exposé des motifs de l'amendement ! D'après le texte en effet, « les exigences liées à l'exercice des libertés constitutionnellement garanties ne peuvent être les mêmes pour une personne résidant sur le territoire de la République et pour une personne résidant à l'étranger. Celle-ci échappant à la juridiction de l'Etat, elle ne peut en particulier faire l'objet de mesures juridiques contraignantes qui se fonderaient sur les éléments collectés ».
";s:7:"dateiso";s:15:"20180605_170905";}s:15:"20180528_154448";a:7:{s:5:"title";s:51:"Dépôt des plaintes collectives contre les GAFAM !";s:4:"link";s:51:"https://www.laquadrature.net/fr/depot_plainte_gafam";s:4:"guid";s:37:"10532 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 28 May 2018 13:44:48 +0000";s:11:"description";s:4063:"
28 mai 2018 - La Quadrature du Net vient d'envoyer à la CNIL cinq plaintes contre Facebook, Google (Gmail, Youtube et Search), Apple (iOS et son méga-cookie), Amazon et LinkedIn.
Voilà six semaines que nous avons lancé notre campagne pour vous inviter à rejoindre nos plaintes contre les GAFAM. Et ces six semaines ont suffi à réunir plus de 12 000 d'entre vous autour de ces plaintes collectives ! Pour comparer, en une année entière, celle de 2017, la CNIL a été saisie de 8 360 plaintes individuelles.
Où allons-nous, maintenant ? D'ici un mois au mieux, la CNIL devrait rendre une première décision pour répartir les différentes plaintes entre les autorités de plusieurs États européens. C'est désormais la règle avec le règlement général sur la protection des données (RGPD) : si une entreprise collecte des données sur plusieurs pays, les CNIL de tous ces pays doivent collaborer pour trouver une décision commune (ce qui évite le forum shopping, et pourrait donc être une assez bonne nouveauté si tout se passe bien). La CNIL d'un de ces États (celui où l'entreprise a le centre de ses activités dans l'Union européenne) est ainsi désignée « autorité chef de file » et est chargée de conduire l'instruction et d'animer cette coopération.
Mis à part la plainte dirigée contre Amazon qui partira au Luxembourg, toutes les autres seront très probablement réceptionnées par l'autorité irlandaise. Celle-ci ayant déjà pas mal à faire avec les instructions en cours contre les nombreux GAFAM qu'elle surveille habituellement, il nous a semblé plus sage de ne pas immédiatement la submerger de toutes nos plaintes : mieux vaut obtenir de bonnes décisions ciblées et faire jurisprudence le plus rapidement possible.
Nous avons donc choisi d'ouvrir le feu en attaquant 7 des 12 services initialement visés, et d'attendre un peu de voir comment les choses évoluent avant de lancer la procédure contre les 5 services restants (Whatsapp, Instagram, Android, Outlook et Skype). La procédure de coopération entre les CNIL européennes prendra de bien nombreux mois : inutile de se précipiter dès le début :)
Les premières plaintes sont accessibles en ligne et, évidemment, librement réutilisables par n'importe qui voulant s'en inspirer pour attaquer des GAFAM ou tant d'autres :
Il faut aussi remercier les dizaines d'entre vous qui avez participé à la rédaction collective de ces plaintes bien complexes ! Merci ! Et un grand merci encore à toutes celles et ceux qui ont su faire tant parler de la campagne au cours de ces dernières semaines !
Enfin, pour voir au-delà de nos avancées à nous, saluons l'action initiée par nos amis de chez NOYB (None Of Your Business) qui, le 25 mai dernier, dès l'entrée en application du RGPD, ont déposé quatre plaintes un peu partout en Europe contre Android, Instagram, Whatsapp et Facebook, se fondant sur le même argument que celui ayant animé toute nos actions : exiger un « consentement libre » pour rejeter l'idée d'une marchandisation de nos données personnelles. Bravo à vous !
";s:7:"content";s:4063:"
28 mai 2018 - La Quadrature du Net vient d'envoyer à la CNIL cinq plaintes contre Facebook, Google (Gmail, Youtube et Search), Apple (iOS et son méga-cookie), Amazon et LinkedIn.
Voilà six semaines que nous avons lancé notre campagne pour vous inviter à rejoindre nos plaintes contre les GAFAM. Et ces six semaines ont suffi à réunir plus de 12 000 d'entre vous autour de ces plaintes collectives ! Pour comparer, en une année entière, celle de 2017, la CNIL a été saisie de 8 360 plaintes individuelles.
Où allons-nous, maintenant ? D'ici un mois au mieux, la CNIL devrait rendre une première décision pour répartir les différentes plaintes entre les autorités de plusieurs États européens. C'est désormais la règle avec le règlement général sur la protection des données (RGPD) : si une entreprise collecte des données sur plusieurs pays, les CNIL de tous ces pays doivent collaborer pour trouver une décision commune (ce qui évite le forum shopping, et pourrait donc être une assez bonne nouveauté si tout se passe bien). La CNIL d'un de ces États (celui où l'entreprise a le centre de ses activités dans l'Union européenne) est ainsi désignée « autorité chef de file » et est chargée de conduire l'instruction et d'animer cette coopération.
Mis à part la plainte dirigée contre Amazon qui partira au Luxembourg, toutes les autres seront très probablement réceptionnées par l'autorité irlandaise. Celle-ci ayant déjà pas mal à faire avec les instructions en cours contre les nombreux GAFAM qu'elle surveille habituellement, il nous a semblé plus sage de ne pas immédiatement la submerger de toutes nos plaintes : mieux vaut obtenir de bonnes décisions ciblées et faire jurisprudence le plus rapidement possible.
Nous avons donc choisi d'ouvrir le feu en attaquant 7 des 12 services initialement visés, et d'attendre un peu de voir comment les choses évoluent avant de lancer la procédure contre les 5 services restants (Whatsapp, Instagram, Android, Outlook et Skype). La procédure de coopération entre les CNIL européennes prendra de bien nombreux mois : inutile de se précipiter dès le début :)
Les premières plaintes sont accessibles en ligne et, évidemment, librement réutilisables par n'importe qui voulant s'en inspirer pour attaquer des GAFAM ou tant d'autres :
Il faut aussi remercier les dizaines d'entre vous qui avez participé à la rédaction collective de ces plaintes bien complexes ! Merci ! Et un grand merci encore à toutes celles et ceux qui ont su faire tant parler de la campagne au cours de ces dernières semaines !
Enfin, pour voir au-delà de nos avancées à nous, saluons l'action initiée par nos amis de chez NOYB (None Of Your Business) qui, le 25 mai dernier, dès l'entrée en application du RGPD, ont déposé quatre plaintes un peu partout en Europe contre Android, Instagram, Whatsapp et Facebook, se fondant sur le même argument que celui ayant animé toute nos actions : exiger un « consentement libre » pour rejeter l'idée d'une marchandisation de nos données personnelles. Bravo à vous !
";s:7:"dateiso";s:15:"20180528_154448";}s:15:"20180525_130949";a:7:{s:5:"title";s:48:"Le RGPD va rebooter Internet : ouvrons le combat";s:4:"link";s:38:"https://www.laquadrature.net/fr/25_mai";s:4:"guid";s:37:"10521 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 25 May 2018 11:09:49 +0000";s:11:"description";s:14965:"
Tribune de Marne et Arthur, instigateurs de la campagne de plaintes collectives contre les GAFAM
25 mai 2018 - Avant-hier, Emmanuel Macron recevait son homologue Mark Zuckerberg, symbole défait d'un monde dont le glas a sonné ce matin. Sous les traits forcés du dynamisme et de l'innovation, Macron, ne comprenant rien à son époque, fait la cour à des puissances dont le modèle, aussi dépassé qu'illégal, prendra bientôt fin. Les seules structures qui compteront à l'avenir seront les nôtres : celles de l'Internet libre et décentralisé, établies et régulées par le peuple lui-même. C'est la voie qu'a ouvert le RGPD : prenons-la sans détour.
Pour comprendre ce qui commence aujourd'hui avec l'entrée en application du règlement général sur la protection des données (RGPD), repartons d'abord dans le passé... il y a 5 ans, presque jour pour jour.
RGPD, fruit de la plus violente campagne de lobbying américaine
Le 27 mai 2013, La Quadrature du Net publiait son analyse principale en faveur d'un « consentement explicite » dans le RGPD, qui était alors en pleine discussion au Parlement européen. Cette revendication était alors notre combat principal et, aux côtés de nos associations alliées (voir notre campagne Naked Citizens, lancée le 25 avril 2013), nous l'avons gagné.
Ainsi, 5 ans plus tard, depuis ce matin, une entreprise ne peut plus justifier de nous surveiller au motif que nous y aurions « consenti » en oubliant de décocher une case obscure rangée en fin de formulaire ou derrière divers menus (stratégie éculée pour dérober l'accord d'une personne). C'est la victoire du « consentement explicite », c'est ce que continuent de violer Google, Apple ou Amazon, et c'est notamment ce que nous invoquons avec 11 000 autres personnes dans les plaintes collectives que nous déposerons lundi prochain devant la CNIL (et que vous pouvez encore rejoindre).
Avec le recul, ce « consentement explicite », cette arme que nous nous sommes donnés il y a 5 ans, cette victoire, semble irréelle. De l'aveu des parlementaires européens, l'Union européenne n'avait jamais connu de campagne de lobbying aussi intense et brutale que sur le RGPD : c'est toute la Silicon Valley qui descendait dans le Parlement, suivi de sa myriade de syndicats, de groupements, de Think Tanks™ et de serfs européens. Nous avions d'ailleurs recensé les milliers de pages qu'ils envoyaient au Parlement, et le site LobbyPlag les avait analysées pour révéler quels eurodéputés en déposaient et défendaient les propositions. Dans un premier temps, cet effort titanesque de lobbying a largement payé : au 19 mars 2013, chacune des 4 commissions consultatives du Parlement européen avait rendu un avis affaiblissant largement la protection de nos libertés.
Heureusement, le débat a subitement changé de ton lorsque, le 6 juin 2013, Edward Snowden a commencé à révéler les pratiques des renseignements américains. La première de ses révélations publiées, sur le programme PRISM, impliquait directement les mêmes entreprises américaines qui remportaient jusqu'ici le débat européen... Notre victoire doit probablement beaucoup à ces circonstances.
Le 21 octobre 2016, le Parlement européen arrêtait sa première position officielle : les pires de nos inquiétudes en avaient enfin disparues, et nous gagnions sur le consentement explicite. À l'époque, nous regrettions pourtant amèrement les nombreuses failles qui, existantes depuis la première réglementation européenne de 1995, avaient été maintenues dans RGPD (et y sont encore aujourd’hui). Au premier rang d'entre elle : l'« intérêt légitime » (nous y revenons ci-dessous).
Peu de nouveautés
Définitivement signé le 27 avril 2016, le RGPD aura finalement apporté peu de protections nouvelles pour nos libertés. En plus du « consentement explicite » que nous avions réussi à obtenir, les avancées, bien que considérables, sont surtout procédurales : les CNIL pourront prononcer des sanctions à hauteur de 20 millions d'euros ou 4% du chiffre d'affaire mondial de la société visée (la plus haute des deux valeurs est retenue) et, pour les pousser à agir fermement, elles pourront être saisies par des plaintes collectives réunissant des milliers de personnes (c'est ce que nous faisons !).
À côté de ça, tous les grands principes de la protection de données (conditions de licéité, données sensibles, loyautés, etc.) ainsi que la majorité de nos « droits » (d'accéder à nos données, de les rectifier, etc.) ont été repris presque à l'identique de la directive européenne initiale de 1995. Le règlement crée bien aussi un nouveau droit à la portabilité, mais son intérêt pratique reste encore à trouver.
De plus, comme on l'a vu, le RGPD ne s'est pas contenté d'hériter des forces de la directive de 1995, il a aussi hérité de sa faille principale : il autorise toute entreprise à collecter et utiliser des données personnelles si elle y trouve un « intérêt légitime » (un intérêt économique, structurel...) et que la poursuite de cet intérêt ne porte pas une « atteinte disproportionnée » aux intérêts des personnes concernées. Oui, ce « critère » est particulièrement flou et tordu, et c'est hélas bien son but : « pour l'instant, vous avez le droit de faire ce que vous voulez, et on viendra vérifier plus tard, si on a le temps, que vous n'ayez pas trop dépassé les bornes ».
Heureusement, les CNIL européennes (réunies au sein de « groupe de l'article 29 ») ont pris position, dès 2014, pour affirmer que l'analyse comportementale à des fins de ciblage publicitaire ne devraient pas pouvoir constituer un tel « intérêt légitime », et ne devrait donc être autorisée qu'avec notre consentement (voir son avis 06/2014, p. 45). C'est un des arguments que nous opposons notamment à Google dans nos plaintes collectives - car celui-ci ose bel et bien invoquer son « intérêt légitime » pour justifier la surveillance de masse dont il tire sa fortune.
Une arme puissante
Mais alors, si le RGPD apporte si peu de nouveautés, pourquoi y trouverions-nous l'espoir de changements majeurs ? Son principal effet, en vérité, n'est pas tant d'avoir modifié le droit que d'en permettre enfin l'application.
En théorie, depuis longtemps, le droit des données personnelles pourrait être une arme puissante pour nous protéger : l'analyse comportementale n'est possible qu'avec notre consentement (qui doit désormais être explicite) et, surtout, ce consentement doit être libre.
Insistons encore une fois sur la notion de consentement libre, qui est au cœur de nos plaintes collectives. C'est bien là que se trouve le germe du changement à venir : le droit des données personnelles prévoit, depuis plusieurs années (voir dernièrement la décision rendue en France par la CNIL sur Whatsapp, fin 2017) que notre consentement n'est pas valide s'il est une condition pour accéder à un service. Le consentement n'est pas « libre » s'il est donné sous la menace de subir une conséquence négative. Il n'est pas valide s'il est assimilé à la contrepartie d'un contrat, à un prix.
Ce principe est simple à comprendre : céder ses données, c'est renoncer à son droit fondamental à la protection de la vie privée, à la liberté de conscience, à l'intégrité. Or, heureusement, nos principes démocratiques s'opposent à la marchandisation de nos libertés fondamentales (sans quoi la moindre « égalité des droits » ne bénéficierait qu'à ceux pouvant se l'acheter).
Pour résumer, depuis plusieurs années, les modèles économiques de Facebook ou Google n'ont, juridiquement, aucune raison d'exister : ils se financent grâce à une analyse comportementale de masse à des fins publicitaire. Or cette analyse n'est possible qu'avec notre consentement. Nous devrions donc pouvoir accéder à leur service tout en refusant de donner ce consentement : mais si nous avions véritablement cette possibilité, la très grande majorité d'entre nous refuserait cette surveillance.
Leur modèle est illégal et juridiquement absurde depuis longtemps. Le seul problème, en vérité, c'est que personne n'avait le pouvoir, ou la volonté, de les arrêter. C'est cela, et surtout cela, qui a changé ce matin.
Alors que, en France par exemple, jusqu'en 2016, la CNIL ne pouvait prononcer des sanctions qu'à hauteur de 150 000 €, ce qui était inutile contre Google ou Facebook (qui ont d'ailleurs bien été condamnés à payer cette somme), le montant de l'amende pourra désormais atteindre 4 % de leur chiffre d'affaire mondial. Et, au cas où les CNIL manqueraient de la volonté pour ce faire, les plaintes collectives sont maintenant là pour, enfin, rendre la population actrice de ce processus : si les CNIL, saisies par des milliers de personnes sur une même plainte, n'agissent pas, elles perdront toute légitimité.
Nous pouvons enfin oublier notre sentiment de « à quoi bon lutter contre ces géants ? ». Si cette amertume était entièrement justifiée hier, elle ne l'est plus aujourd'hui. Pour eux, la fête est finie. Elle commence pour nous.
Retour à l'Internet des origines
Le RGPD laisse l'espoir de voir enfin le droit protéger nos données contre des géants qui, y trouvant leur fortune, ont entièrement remodelé Internet.
Internet, dans ses principes fondamentaux, repose sur la décentralisation : la puissance de calcul, le stockage et l'usage de bande passante sont répartis sur un nombre infini de points du réseaux (nos ordinateurs et téléphones ainsi qu'une multitude de serveurs) dont l'interconnexion et le travail collectif ne dépendent d'aucune autorité centrale. C'est ce qui lui permet d'être si résilient, de voir constamment apparaître de nouvelles structures et de nouveaux usages, dont chacune et chacun peut être l'acteur, et ainsi d'offrir une alternative libre et vivante à notre monde physique, si bordé et normé qu'il est par des organisations aussi centralisées que rigides, incapables de s'adapter et de répondre aux préoccupations de la population.
C'est cet idéal des origines qui a conduit à l'essor d'Internet, pendant que le Minitel français, hyper centralisé, connaissait le cuisant échec dont nous nous réjouissons encore. Et pourtant, sur ce même Internet, nous avons vu apparaître Facebook, Youtube, Instagram ou Twitter, qui ne sont rien d'autre que de nouveaux Minitels (pour une comparaison utile, on peut revoir la conférence « Minitel 2.0 » dans laquelle Benjamin Bayart défendait la neutralité du Net - que nous avons d'ailleurs fini par obtenir, ici encore !) .
Sur ces nouveaux Minitels, nos relations, nos créations et nos débats sont entièrement régulés par des autorités centrales, selon leurs propres critères qui, chaque fois et afin d’accroître leurs recettes publicitaires, distordent entièrement l'espace public. Symptômes chroniques des effets de cette centralisation, celle-ci conduit à la sur-diffusion de vidéo anxiogènes et polémiques (voir notre analyse sur Google), de fakenews et de débats caricaturaux, stériles (voir notre analyse sur les fakenews). À l'opposé, sur des réseaux décentralisés, de tels contenus ne sont pas mis en avant et, surtout, ne nuisent pas à l'ensemble des internautes, puisque ceux-ci choisissent librement avec qui communiquer et selon quelles règles, en fonction du nœud où ils ont choisit de s'installer sur le réseau.
Comment en est-on arrivé à cette hyper-centralisation de l'Internet ? Il suffit de regarder la source des revenus de ces nouveaux Minitels pour comprendre que l'analyse comportementale à des fins publicitaires a été décisive dans leur essor. Or, ce levier économique, la source financière de cette centralisation, on l'a dit, est aujourd'hui obsolète. À court terme, quand le droit sera enfin appliqué, on voit mal comment Facebook, typiquement, pourra continuer de fournir son service « gratuitement » (sans publicité ciblée) et comment il pourra donc survivre. C'est donc le modèle-même de cette centralisation qui est aujourd'hui remis en cause puisque, historiquement, celle-ci n'a été possible qu'au moyen de pratiques qui ne seront plus possibles.
Évidement, on soulignera que le capitalisme, comme toujours, s'adaptera, et que la centralisation trouvera des nouvelles façons de se financer. Mais force est de constater que ces rebondissements tardent ici à se faire connaître alors que nous, en face, avons déjà notre modèle. Jusqu'à nouvel ordre, c'est donc celui qui primera.
Bref, nous avons déjà gagné.
";s:7:"content";s:14965:"
Tribune de Marne et Arthur, instigateurs de la campagne de plaintes collectives contre les GAFAM
25 mai 2018 - Avant-hier, Emmanuel Macron recevait son homologue Mark Zuckerberg, symbole défait d'un monde dont le glas a sonné ce matin. Sous les traits forcés du dynamisme et de l'innovation, Macron, ne comprenant rien à son époque, fait la cour à des puissances dont le modèle, aussi dépassé qu'illégal, prendra bientôt fin. Les seules structures qui compteront à l'avenir seront les nôtres : celles de l'Internet libre et décentralisé, établies et régulées par le peuple lui-même. C'est la voie qu'a ouvert le RGPD : prenons-la sans détour.
Pour comprendre ce qui commence aujourd'hui avec l'entrée en application du règlement général sur la protection des données (RGPD), repartons d'abord dans le passé... il y a 5 ans, presque jour pour jour.
RGPD, fruit de la plus violente campagne de lobbying américaine
Le 27 mai 2013, La Quadrature du Net publiait son analyse principale en faveur d'un « consentement explicite » dans le RGPD, qui était alors en pleine discussion au Parlement européen. Cette revendication était alors notre combat principal et, aux côtés de nos associations alliées (voir notre campagne Naked Citizens, lancée le 25 avril 2013), nous l'avons gagné.
Ainsi, 5 ans plus tard, depuis ce matin, une entreprise ne peut plus justifier de nous surveiller au motif que nous y aurions « consenti » en oubliant de décocher une case obscure rangée en fin de formulaire ou derrière divers menus (stratégie éculée pour dérober l'accord d'une personne). C'est la victoire du « consentement explicite », c'est ce que continuent de violer Google, Apple ou Amazon, et c'est notamment ce que nous invoquons avec 11 000 autres personnes dans les plaintes collectives que nous déposerons lundi prochain devant la CNIL (et que vous pouvez encore rejoindre).
Avec le recul, ce « consentement explicite », cette arme que nous nous sommes donnés il y a 5 ans, cette victoire, semble irréelle. De l'aveu des parlementaires européens, l'Union européenne n'avait jamais connu de campagne de lobbying aussi intense et brutale que sur le RGPD : c'est toute la Silicon Valley qui descendait dans le Parlement, suivi de sa myriade de syndicats, de groupements, de Think Tanks™ et de serfs européens. Nous avions d'ailleurs recensé les milliers de pages qu'ils envoyaient au Parlement, et le site LobbyPlag les avait analysées pour révéler quels eurodéputés en déposaient et défendaient les propositions. Dans un premier temps, cet effort titanesque de lobbying a largement payé : au 19 mars 2013, chacune des 4 commissions consultatives du Parlement européen avait rendu un avis affaiblissant largement la protection de nos libertés.
Heureusement, le débat a subitement changé de ton lorsque, le 6 juin 2013, Edward Snowden a commencé à révéler les pratiques des renseignements américains. La première de ses révélations publiées, sur le programme PRISM, impliquait directement les mêmes entreprises américaines qui remportaient jusqu'ici le débat européen... Notre victoire doit probablement beaucoup à ces circonstances.
Le 21 octobre 2016, le Parlement européen arrêtait sa première position officielle : les pires de nos inquiétudes en avaient enfin disparues, et nous gagnions sur le consentement explicite. À l'époque, nous regrettions pourtant amèrement les nombreuses failles qui, existantes depuis la première réglementation européenne de 1995, avaient été maintenues dans RGPD (et y sont encore aujourd’hui). Au premier rang d'entre elle : l'« intérêt légitime » (nous y revenons ci-dessous).
Peu de nouveautés
Définitivement signé le 27 avril 2016, le RGPD aura finalement apporté peu de protections nouvelles pour nos libertés. En plus du « consentement explicite » que nous avions réussi à obtenir, les avancées, bien que considérables, sont surtout procédurales : les CNIL pourront prononcer des sanctions à hauteur de 20 millions d'euros ou 4% du chiffre d'affaire mondial de la société visée (la plus haute des deux valeurs est retenue) et, pour les pousser à agir fermement, elles pourront être saisies par des plaintes collectives réunissant des milliers de personnes (c'est ce que nous faisons !).
À côté de ça, tous les grands principes de la protection de données (conditions de licéité, données sensibles, loyautés, etc.) ainsi que la majorité de nos « droits » (d'accéder à nos données, de les rectifier, etc.) ont été repris presque à l'identique de la directive européenne initiale de 1995. Le règlement crée bien aussi un nouveau droit à la portabilité, mais son intérêt pratique reste encore à trouver.
De plus, comme on l'a vu, le RGPD ne s'est pas contenté d'hériter des forces de la directive de 1995, il a aussi hérité de sa faille principale : il autorise toute entreprise à collecter et utiliser des données personnelles si elle y trouve un « intérêt légitime » (un intérêt économique, structurel...) et que la poursuite de cet intérêt ne porte pas une « atteinte disproportionnée » aux intérêts des personnes concernées. Oui, ce « critère » est particulièrement flou et tordu, et c'est hélas bien son but : « pour l'instant, vous avez le droit de faire ce que vous voulez, et on viendra vérifier plus tard, si on a le temps, que vous n'ayez pas trop dépassé les bornes ».
Heureusement, les CNIL européennes (réunies au sein de « groupe de l'article 29 ») ont pris position, dès 2014, pour affirmer que l'analyse comportementale à des fins de ciblage publicitaire ne devraient pas pouvoir constituer un tel « intérêt légitime », et ne devrait donc être autorisée qu'avec notre consentement (voir son avis 06/2014, p. 45). C'est un des arguments que nous opposons notamment à Google dans nos plaintes collectives - car celui-ci ose bel et bien invoquer son « intérêt légitime » pour justifier la surveillance de masse dont il tire sa fortune.
Une arme puissante
Mais alors, si le RGPD apporte si peu de nouveautés, pourquoi y trouverions-nous l'espoir de changements majeurs ? Son principal effet, en vérité, n'est pas tant d'avoir modifié le droit que d'en permettre enfin l'application.
En théorie, depuis longtemps, le droit des données personnelles pourrait être une arme puissante pour nous protéger : l'analyse comportementale n'est possible qu'avec notre consentement (qui doit désormais être explicite) et, surtout, ce consentement doit être libre.
Insistons encore une fois sur la notion de consentement libre, qui est au cœur de nos plaintes collectives. C'est bien là que se trouve le germe du changement à venir : le droit des données personnelles prévoit, depuis plusieurs années (voir dernièrement la décision rendue en France par la CNIL sur Whatsapp, fin 2017) que notre consentement n'est pas valide s'il est une condition pour accéder à un service. Le consentement n'est pas « libre » s'il est donné sous la menace de subir une conséquence négative. Il n'est pas valide s'il est assimilé à la contrepartie d'un contrat, à un prix.
Ce principe est simple à comprendre : céder ses données, c'est renoncer à son droit fondamental à la protection de la vie privée, à la liberté de conscience, à l'intégrité. Or, heureusement, nos principes démocratiques s'opposent à la marchandisation de nos libertés fondamentales (sans quoi la moindre « égalité des droits » ne bénéficierait qu'à ceux pouvant se l'acheter).
Pour résumer, depuis plusieurs années, les modèles économiques de Facebook ou Google n'ont, juridiquement, aucune raison d'exister : ils se financent grâce à une analyse comportementale de masse à des fins publicitaire. Or cette analyse n'est possible qu'avec notre consentement. Nous devrions donc pouvoir accéder à leur service tout en refusant de donner ce consentement : mais si nous avions véritablement cette possibilité, la très grande majorité d'entre nous refuserait cette surveillance.
Leur modèle est illégal et juridiquement absurde depuis longtemps. Le seul problème, en vérité, c'est que personne n'avait le pouvoir, ou la volonté, de les arrêter. C'est cela, et surtout cela, qui a changé ce matin.
Alors que, en France par exemple, jusqu'en 2016, la CNIL ne pouvait prononcer des sanctions qu'à hauteur de 150 000 €, ce qui était inutile contre Google ou Facebook (qui ont d'ailleurs bien été condamnés à payer cette somme), le montant de l'amende pourra désormais atteindre 4 % de leur chiffre d'affaire mondial. Et, au cas où les CNIL manqueraient de la volonté pour ce faire, les plaintes collectives sont maintenant là pour, enfin, rendre la population actrice de ce processus : si les CNIL, saisies par des milliers de personnes sur une même plainte, n'agissent pas, elles perdront toute légitimité.
Nous pouvons enfin oublier notre sentiment de « à quoi bon lutter contre ces géants ? ». Si cette amertume était entièrement justifiée hier, elle ne l'est plus aujourd'hui. Pour eux, la fête est finie. Elle commence pour nous.
Retour à l'Internet des origines
Le RGPD laisse l'espoir de voir enfin le droit protéger nos données contre des géants qui, y trouvant leur fortune, ont entièrement remodelé Internet.
Internet, dans ses principes fondamentaux, repose sur la décentralisation : la puissance de calcul, le stockage et l'usage de bande passante sont répartis sur un nombre infini de points du réseaux (nos ordinateurs et téléphones ainsi qu'une multitude de serveurs) dont l'interconnexion et le travail collectif ne dépendent d'aucune autorité centrale. C'est ce qui lui permet d'être si résilient, de voir constamment apparaître de nouvelles structures et de nouveaux usages, dont chacune et chacun peut être l'acteur, et ainsi d'offrir une alternative libre et vivante à notre monde physique, si bordé et normé qu'il est par des organisations aussi centralisées que rigides, incapables de s'adapter et de répondre aux préoccupations de la population.
C'est cet idéal des origines qui a conduit à l'essor d'Internet, pendant que le Minitel français, hyper centralisé, connaissait le cuisant échec dont nous nous réjouissons encore. Et pourtant, sur ce même Internet, nous avons vu apparaître Facebook, Youtube, Instagram ou Twitter, qui ne sont rien d'autre que de nouveaux Minitels (pour une comparaison utile, on peut revoir la conférence « Minitel 2.0 » dans laquelle Benjamin Bayart défendait la neutralité du Net - que nous avons d'ailleurs fini par obtenir, ici encore !) .
Sur ces nouveaux Minitels, nos relations, nos créations et nos débats sont entièrement régulés par des autorités centrales, selon leurs propres critères qui, chaque fois et afin d’accroître leurs recettes publicitaires, distordent entièrement l'espace public. Symptômes chroniques des effets de cette centralisation, celle-ci conduit à la sur-diffusion de vidéo anxiogènes et polémiques (voir notre analyse sur Google), de fakenews et de débats caricaturaux, stériles (voir notre analyse sur les fakenews). À l'opposé, sur des réseaux décentralisés, de tels contenus ne sont pas mis en avant et, surtout, ne nuisent pas à l'ensemble des internautes, puisque ceux-ci choisissent librement avec qui communiquer et selon quelles règles, en fonction du nœud où ils ont choisit de s'installer sur le réseau.
Comment en est-on arrivé à cette hyper-centralisation de l'Internet ? Il suffit de regarder la source des revenus de ces nouveaux Minitels pour comprendre que l'analyse comportementale à des fins publicitaires a été décisive dans leur essor. Or, ce levier économique, la source financière de cette centralisation, on l'a dit, est aujourd'hui obsolète. À court terme, quand le droit sera enfin appliqué, on voit mal comment Facebook, typiquement, pourra continuer de fournir son service « gratuitement » (sans publicité ciblée) et comment il pourra donc survivre. C'est donc le modèle-même de cette centralisation qui est aujourd'hui remis en cause puisque, historiquement, celle-ci n'a été possible qu'au moyen de pratiques qui ne seront plus possibles.
Évidement, on soulignera que le capitalisme, comme toujours, s'adaptera, et que la centralisation trouvera des nouvelles façons de se financer. Mais force est de constater que ces rebondissements tardent ici à se faire connaître alors que nous, en face, avons déjà notre modèle. Jusqu'à nouvel ordre, c'est donc celui qui primera.
Bref, nous avons déjà gagné.
";s:7:"dateiso";s:15:"20180525_130949";}s:15:"20180521_160910";a:7:{s:5:"title";s:48:"Écrivons ensemble les plaintes contre les GAFAM";s:4:"link";s:44:"https://www.laquadrature.net/fr/plainteGAFAM";s:4:"guid";s:37:"10520 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 21 May 2018 14:09:10 +0000";s:11:"description";s:1543:"
21 mai 2018 — Depuis plus d'un mois, nous vous invitons à rejoindre les 12 plaintes collectives contre les services des GAFAM. Aujourd'hui, nous vous proposons de rédiger ces plaintes avec nous. Pour laisser le temps aux retardataires de nous rejoindre, nous déposerons la plainte le lundi suivant l'entrée en application du RGPD : le 28 mai.
Les plaintes se concentrent volontairement sur une poignée d'arguments ciblés autour des notions de consentement et de surveillance économique. Le projet de plainte que nous publions aujourd'hui reflète ce cadrage : les arguments sont précis et assez courts. De quoi inciter à participer celles et ceux pour qui les rouages juridiques aussi complexes que rigolos ne sont pas un passe-temps relaxant !
Que vous passiez relire l'orthographe et la grammaire, que vous proposiez des reformulations de style ou bien carrément de nouvelles sources ou arguments juridiques, votre participation sera la bienvenue ! Votre participation sera aussi une occasion de plus de rendre ces plaintes pleinement « collectives », d'un bout à l'autre !
21 mai 2018 — Depuis plus d'un mois, nous vous invitons à rejoindre les 12 plaintes collectives contre les services des GAFAM. Aujourd'hui, nous vous proposons de rédiger ces plaintes avec nous. Pour laisser le temps aux retardataires de nous rejoindre, nous déposerons la plainte le lundi suivant l'entrée en application du RGPD : le 28 mai.
Les plaintes se concentrent volontairement sur une poignée d'arguments ciblés autour des notions de consentement et de surveillance économique. Le projet de plainte que nous publions aujourd'hui reflète ce cadrage : les arguments sont précis et assez courts. De quoi inciter à participer celles et ceux pour qui les rouages juridiques aussi complexes que rigolos ne sont pas un passe-temps relaxant !
Que vous passiez relire l'orthographe et la grammaire, que vous proposiez des reformulations de style ou bien carrément de nouvelles sources ou arguments juridiques, votre participation sera la bienvenue ! Votre participation sera aussi une occasion de plus de rendre ces plaintes pleinement « collectives », d'un bout à l'autre !
";s:7:"dateiso";s:15:"20180521_160910";}s:15:"20180518_163817";a:7:{s:5:"title";s:59:"Derrière les assistants vocaux, des humains vous entendent";s:4:"link";s:46:"https://www.laquadrature.net/fr/temoin_cortana";s:4:"guid";s:37:"10510 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 18 May 2018 14:38:17 +0000";s:11:"description";s:16855:"
18 mai 2018 - Cette semaine, nous sommes allés à la rencontre de Julie, qui a travaillé pour une entreprise chargée d' « améliorer » le fonctionnement de Cortana, l’assistant vocal de Microsoft, en écoutant une à une diverses paroles captées par la machine (volontairement ou non).
Nous partageons ici son témoignage édifiant, en vidéo ainsi qu'à l'écrit (en fin d'article).
Comme nous le rappelle Antonio Casilli ci-dessous, ce récit souligne exactement les pratiques très « humaines » que l'on retrouve en masse sous les miroirs trompeurs d'une soi-disant « intelligence artificielle ».
Contre l'emprise des GAFAM sur nos vies, signez les plaintes collectives sur gafam.laquadrature.net
Les humains derrière Cortana, par Antonio Casilli
Antonio Casilli, membre de La Quadrature du Net, est maître de conférences en Digital Humanities à Telecom ParisTech et chercheur associé en sociologie au Centre Edgar-Morin, Ecole des Hautes Etudes en Sciences Sociales, Paris. Voir son site.
Qui écoute vos conversations quand vous utilisez un assistant vocal comme Cortana ? Qui regarde vos requêtes quand vous utilisez un moteur de recherche comme Bing ? « Personne », vous assurent les concepteurs de ces dispositifs, « ce sont des machines ». La réalité est toute autre, comme l'atteste ce témoignage : une jeune femme qui, sans contrat de travail et sans aucun accord de confidentialité, a retranscrit des milliers de conversations privées, recherches d'information, noms et coordonnées personnelles de personnes utilisant des produits Microsoft.
Son métier ? Dresseuse d'IA.
Malgré les allégations de leurs producteurs, les assistants virtuels qui équipent les enceintes connectées trônant dans nos salles à manger ou qui se nichent jusque dans nos poches, installés sur nos smartphones, ne naissent pas intelligents. Ils doivent apprendre à interpréter les requêtes et les habitudes de leurs utilisateurs.
Cet apprentissage est aidé par des êtres humains, qui vérifient la pertinence des réponses des assistants virtuels aux questions de leurs propriétaires. Mais plus souvent encore, ces êtres humains « entraînent » les dispositifs, en leurs fournissant des données déjà préparées, des requêtes avec des réponses toutes faites (ex. « Quelle est la météo aujourd'hui ? » : « Il fait 23 degrés » ou « Il pleut »), des phrases auxquelles ils fournissent des interprétations (ex. savoir dans quel contexte « la flotte » signifie « un ensemble de navires » ou « la pluie »).
Ces dresseurs d'intelligences artificielles sont parfois des télétravailleurs payés à l'heure par des entreprises spécialisées. Dans d'autres cas, ils sont des « travailleurs à la pièce » recrutés sur des services web que l'on appelle des plateformes de micro-travail.
Celle de Microsoft s'appelle UHRS et propose des rémunérations de 3, 2, voire même 1 centime de dollar par micro-tâche (retranscrire un mot, labelliser une image…). Parfois les personnes qui trient vos requêtes, regardent vos photos, écoutent vos propos sont situés dans votre pays, voire dans votre ville (peut-être vos voisins d'en bas ?). D'autres fois, ils sont des travailleurs précaires de pays francophones, comme la Tunisie, le Maroc ou Madagascar (qui s'est dernièrement imposé comme « leader français de l'intelligence artificielle »).
Les logiciels à activation vocale tels Cortana, Siri ou Alexa sont des agents conversationnels qui possèdent une forte composante de travail non-artificiel. Cette implication humaine introduit des risques sociétaux spécifiques. La confidentialité des données personnelles utilisées pour entraîner les solutions intelligentes est à risque. Ces IA présupposent le transfert de quantités importantes de données à caractère personnel et existent dans une zone grise légale et éthique.
Dans la mesure où les usagers des services numériques ignorent la présence d'êtres humains dans les coulisses de l'IA, ils sous-estiment les risques qui pèsent sur leur vie privée. Il est urgent de répertorier les atteintes à la privacy et à la confidentialité associées à cette forme de « digital labor », afin d'en estimer la portée pour informer, sensibiliser, et mieux protéger les personnes les plus exposées.
Témoignage complet de Julie
J'ai travaillé comme transcripteuse ('transcriber') pour améliorer la qualité de la version française de Cortana, "votre assistante personnelle virtuelle" proposée par Microsoft. Je travaillais en télétravail pour une entreprise chinoise qui avait Microsoft pour client. J'ai commencé en Avril 2017 et arrêté en Décembre 2017.
J'ai pu constater directement le type de données que Microsoft collecte via son petit monstre Cortana, car les données audio qu'elle collectait passaient entre nos mains (et nos oreilles !) pour analyse et correction.
Microsoft, voulant améliorer les capacités de compréhension de Cortana, collectait les données des utilisateurs 'consentants'. Donc, quand ces utilisateurs s'adressaient à Cortana, celle-ci collectait, enregistrait ce qu'ils disaient. Ensuite, Microsoft récupérait tout ça, envoyait une partie des enregistrements à la compagnie pour laquelle je travaillais, et celle-ci mettait le tout sur notre plate-forme de télétravail.
Les transcripteurs se connectaient, et écoutaient un par un les enregistrements. Les pistes étaient généralement très courtes, entre 3 et 15 secondes en moyenne (mais pouvaient parfois durer plusieurs minutes). En fonction des projets sur lesquels on travaillait, on devait réaliser entre 120 et 170 transcriptions/heure. Plusieurs milliers de pistes étaient déposées quotidiennement sur notre plate-forme.
On écoutait l'enregistrement audio, ensuite un texte s'affichait, nous montrant ce que Cortana avait compris et retranscrit. Notre travail était de vérifier si elle avait bien compris - si ce n'était pas le cas, on devait corriger le texte, la moindre faute de compréhension, de conjugaison ou d'orthographe. Une autre partie du travail consistait à ajouter des tags dans le texte signalant les événements sonores qui pourraient expliquer pourquoi Cortana avait mal compris ceci ou mieux compris cela.
Je n'ai pas le détail de la suite du processus, mais j'imagine qu'ensuite, les données que nous corrigions étaient envoyées à une équipe de techniciens, programmeurs et autres génies de l'informatique qui s'occupaient de faire comprendre à Cortana comment ne pas répéter les mêmes erreurs.
Je me demandais à chaque fois si ces gens avaient conscience qu'une personne extérieure allaient entendre leurs petits délires sexuels
Les données qu'on écoutait allaient d'Utilisateur A qui dit simplement "Hey Cortana, quelle sera la météo demain?" à Utilisateur B qui demande en chuchotant à Cortana de lui trouver des vidéos porno de telle ou telle catégorie...
Il y avait leurs recherches internet, leurs interactions directes avec Cortana ("Hey Cortana, raconte-moi une blague", "imite la poule", "est-ce que tu m'aimes?", "est-ce que tu ressens la douleur?"…). Les utilisateurs peuvent aussi dicter du texte : messages, documents texte (résumés de cours, comptes-rendus professionnels...), adresses GPS, courriers administratifs (avec par exemple leur numéro de sécurité sociale), etc. ; nous avions accès à tout ça.
Elle peut être connectée à des consoles Xbox, on avait donc aussi des enregistrements provenant de ce service-là. Il y avait notamment des morceaux de communication en ligne (principalement d'ados et d'enfants) qui discutent sur les jeux en réseaux.
On avait également de nombreux extraits de conversations en ligne, sûrement sur Skype, provenant de personnes qui utilisaient un service de traduction instantanée (Microsoft Translator mais peut-être aussi Skype Translator, je ne suis pas certaine).
Nous n'avions jamais l'intégralité des conversations évidemment, elles étaient découpées en petites pistes ; cependant on pouvait tomber sur plusieurs morceaux d'une même conversation dans une même série de transcriptions (c'était suffisant pour dresser un profil basique de l'utilisateur ou de son humeur du moment par exemple).
On avait des conversations diverses, vraiment toutes sortes de choses, notamment souvent les séances sexcams de certains utilisateurs qui avaient besoin d'un service de traduction pour se faire comprendre, et dans ces cas-là les transcriptions étaient très explicites (parfois amusantes, parfois glauques). Je me demandais à chaque fois si ces gens avaient conscience qu'une personne extérieure allaient entendre leurs petits délires sexuels. Cortana ne fait pas le tri...
Enfin, il y avait beaucoup d'enregistrements involontaires, où des personnes discutent entre elles (dans leur voiture, à la maison, avec leurs enfants sur le chemin de l'école...) tandis que Cortana est dans les parages (tablette, téléphone portable, ordinateur, etc.) et s'est déclenchée de manière non-sollicitée et a tout enregistré.
(D'ailleurs, on avait aussi beaucoup d'utilisateurs qui insultaient tout simplement Cortana, car elle s'était déclenchée de façon non-sollicitée, ou avait mal compris une requête... Vous n'imaginez pas le nombre de fois où j'ai entendu "Sale pute Cortana !" )
On avait ainsi accès à énormément de données personnelles, que ce soit des bribes de conversations privées en ligne ou bien hors ligne.
N'importe qui pouvait être engagé
Pour pouvoir être embauché (ils recrutaient en grand nombre), il fallait s'inscrire sur le site de l'entreprise, postuler puis suivre une formation en ligne conclue par un examen final. Si on avait un pourcentage de réussite satisfaisant, on était engagé. Auquel cas, le manager nous faisait créer un compte sur le site internet de télétravail (une plate-forme externe, utilisée par plusieurs compagnies comme celle qui m'avait engagée), et le travail commençait.
Il n'y avait pas besoin d'envoyer son CV, ni aucun entretien individuel avec un responsable ou un manager (ni par téléphone, ni par Skype, ni e-mail, rien). N'importe qui pouvait être engagé et avoir accès aux enregistrements du moment qu'ils en avaient les compétences techniques, que l'examen final avait été réussi. Pourtant, nous avions accès à des informations sensibles et personnelles.
Beaucoup de personnes ignorent ou oublient que les données collectées par Cortana (et autres outils du genre) ne sont pas uniquement traitées par des robots, mais bien aussi par des êtres-humains.
En m'inscrivant sur le site de l'entreprise, j'ai accepté ses conditions d'utilisations en cochant machinalement des petites cases, celles-ci parlaient d'une multitudes de choses, mais à ce que je me souviens il n'y avait pas d'emphase spéciale sur le respect de la vie privée des utilisateurs de nos clients. Et à aucun moment j'ai signé de ma main un contrat de confidentialité.
Ils m'ont pourtant bien demandé de signer et renvoyer un document relatif aux taxes et impôts ; ils auraient pu en faire autant pour le respect de la confidentialité.
Et sur plus d'une cinquantaine de pages d'instructions détaillées sur comment traiter les transcriptions, pas une seule ligne ne mentionnait le respect de la vie privée des utilisateurs. Pas un seul des nombreux e-mails du manager que nous recevions chaque semaine, rien n'a jamais été dédié au respect de la vie privée (en ligne et hors ligne) des utilisateurs.
Et ce dont je parle ici ne concerne pas uniquement les utilisateurs français de Cortana, il y avait des équipes de transcripteurs pour une multitudes de langues (anglais, portugais, espagnol, etc.). On avait le même manager et les mêmes instructions générales.
En théorie, les données étaient anonymes pour les transcripteurs, c'est-à-dire que nous n'avions jamais les identifiants des utilisateurs que nous écoutions, et les pistes étaient généralement distribuées de façon aléatoire et désordonnée, en plus d'être parfois découpées. Cependant, inévitablement il arrivait que les utilisateurs révèlent un numéro de téléphone, une adresse, des coordonnées, date de naissance, numéros importants, événements auxquels ils allaient se rendre, etc.
Certaines voix se reconnaissent facilement, et bien que les pistes étaient aléatoires et dans le désordre, mises bout à bout elles auraient dans quelques cas pu suffire à un transcripteur déterminé pour identifier un utilisateur. De plus, on travaillait tous depuis nos propres ordinateurs, il était donc facile de récupérer les enregistrements qu'on traitait si on le voulait.
Selon moi, ce n'était pas bien sécurisé, surtout quand on considère le fait qu'on avait aussi beaucoup d'enregistrements provenant d'enfants. Mais il faut comprendre que ce genre de traitement de données est de toute façon impossible à sécuriser entièrement (encore moins quand on sous-traite), car des données récoltées massivement ne peuvent pas être triées parfaitement, des informations sensibles passeront toujours.
Beaucoup d'utilisateurs se sentent dépassés par tout ça, et les GAFAM savent exactement comment en tirer parti
Enfin, j'aimerais parler du fait qu'il me semble évident que la plupart des logiciels de reconnaissance vocale et assistants virtuels doivent se construire comme Cortana, donc il est important que les gens mesurent ce qu'utiliser de tels logiciels implique (ce que j'ai décrit n'est assurément pas juste typique à Microsoft).
Avec l'affluence des nouveaux ''assistants personnels virtuels'', le champs des possibles pour la collecte de données s'est développé de manière fulgurante.
Le modèle de Microsoft (et les autres GAFAM) n'est pas basé sur le respect de la vie privée et la non-intrusion, c'est le contraire.
Les outils comme Cortana sont hautement intrusifs et ont accès à une liste impressionnante de données personnelles, qu'ils exploitent et développent simultanément.
La collecte de données qu'ils peuvent permettre peut être utilisée à votre insu, détournée, utilisée contre votre gré, tombée entre de mauvaises mains, être exploitée à des fins auxquelles vous n'avez jamais consciemment donné votre accord…
Personnaliser les paramètres de confidentialité de services de ce genre requiert parfois des compétences en informatique qui dépassent l'utilisateur amateur, et des écrans de fumée font oublier que vous sacrifiez et marchandez votre vie privée à l'aide de formules comme "personnalisation du contenu", "optimisation des résultats", "amélioration de votre expérience et de nos services".
Beaucoup d'utilisateurs se sentent dépassés par tout ça, et les GAFAM savent exactement comment en tirer parti.
Merci beaucoup à Julie pour son témoignage !
Contre l'emprise des GAFAM sur nos vies, signez les plaintes collectives sur gafam.laquadrature.net
";s:7:"content";s:16855:"
18 mai 2018 - Cette semaine, nous sommes allés à la rencontre de Julie, qui a travaillé pour une entreprise chargée d' « améliorer » le fonctionnement de Cortana, l’assistant vocal de Microsoft, en écoutant une à une diverses paroles captées par la machine (volontairement ou non).
Nous partageons ici son témoignage édifiant, en vidéo ainsi qu'à l'écrit (en fin d'article).
Comme nous le rappelle Antonio Casilli ci-dessous, ce récit souligne exactement les pratiques très « humaines » que l'on retrouve en masse sous les miroirs trompeurs d'une soi-disant « intelligence artificielle ».
Contre l'emprise des GAFAM sur nos vies, signez les plaintes collectives sur gafam.laquadrature.net
Les humains derrière Cortana, par Antonio Casilli
Antonio Casilli, membre de La Quadrature du Net, est maître de conférences en Digital Humanities à Telecom ParisTech et chercheur associé en sociologie au Centre Edgar-Morin, Ecole des Hautes Etudes en Sciences Sociales, Paris. Voir son site.
Qui écoute vos conversations quand vous utilisez un assistant vocal comme Cortana ? Qui regarde vos requêtes quand vous utilisez un moteur de recherche comme Bing ? « Personne », vous assurent les concepteurs de ces dispositifs, « ce sont des machines ». La réalité est toute autre, comme l'atteste ce témoignage : une jeune femme qui, sans contrat de travail et sans aucun accord de confidentialité, a retranscrit des milliers de conversations privées, recherches d'information, noms et coordonnées personnelles de personnes utilisant des produits Microsoft.
Son métier ? Dresseuse d'IA.
Malgré les allégations de leurs producteurs, les assistants virtuels qui équipent les enceintes connectées trônant dans nos salles à manger ou qui se nichent jusque dans nos poches, installés sur nos smartphones, ne naissent pas intelligents. Ils doivent apprendre à interpréter les requêtes et les habitudes de leurs utilisateurs.
Cet apprentissage est aidé par des êtres humains, qui vérifient la pertinence des réponses des assistants virtuels aux questions de leurs propriétaires. Mais plus souvent encore, ces êtres humains « entraînent » les dispositifs, en leurs fournissant des données déjà préparées, des requêtes avec des réponses toutes faites (ex. « Quelle est la météo aujourd'hui ? » : « Il fait 23 degrés » ou « Il pleut »), des phrases auxquelles ils fournissent des interprétations (ex. savoir dans quel contexte « la flotte » signifie « un ensemble de navires » ou « la pluie »).
Ces dresseurs d'intelligences artificielles sont parfois des télétravailleurs payés à l'heure par des entreprises spécialisées. Dans d'autres cas, ils sont des « travailleurs à la pièce » recrutés sur des services web que l'on appelle des plateformes de micro-travail.
Celle de Microsoft s'appelle UHRS et propose des rémunérations de 3, 2, voire même 1 centime de dollar par micro-tâche (retranscrire un mot, labelliser une image…). Parfois les personnes qui trient vos requêtes, regardent vos photos, écoutent vos propos sont situés dans votre pays, voire dans votre ville (peut-être vos voisins d'en bas ?). D'autres fois, ils sont des travailleurs précaires de pays francophones, comme la Tunisie, le Maroc ou Madagascar (qui s'est dernièrement imposé comme « leader français de l'intelligence artificielle »).
Les logiciels à activation vocale tels Cortana, Siri ou Alexa sont des agents conversationnels qui possèdent une forte composante de travail non-artificiel. Cette implication humaine introduit des risques sociétaux spécifiques. La confidentialité des données personnelles utilisées pour entraîner les solutions intelligentes est à risque. Ces IA présupposent le transfert de quantités importantes de données à caractère personnel et existent dans une zone grise légale et éthique.
Dans la mesure où les usagers des services numériques ignorent la présence d'êtres humains dans les coulisses de l'IA, ils sous-estiment les risques qui pèsent sur leur vie privée. Il est urgent de répertorier les atteintes à la privacy et à la confidentialité associées à cette forme de « digital labor », afin d'en estimer la portée pour informer, sensibiliser, et mieux protéger les personnes les plus exposées.
Témoignage complet de Julie
J'ai travaillé comme transcripteuse ('transcriber') pour améliorer la qualité de la version française de Cortana, "votre assistante personnelle virtuelle" proposée par Microsoft. Je travaillais en télétravail pour une entreprise chinoise qui avait Microsoft pour client. J'ai commencé en Avril 2017 et arrêté en Décembre 2017.
J'ai pu constater directement le type de données que Microsoft collecte via son petit monstre Cortana, car les données audio qu'elle collectait passaient entre nos mains (et nos oreilles !) pour analyse et correction.
Microsoft, voulant améliorer les capacités de compréhension de Cortana, collectait les données des utilisateurs 'consentants'. Donc, quand ces utilisateurs s'adressaient à Cortana, celle-ci collectait, enregistrait ce qu'ils disaient. Ensuite, Microsoft récupérait tout ça, envoyait une partie des enregistrements à la compagnie pour laquelle je travaillais, et celle-ci mettait le tout sur notre plate-forme de télétravail.
Les transcripteurs se connectaient, et écoutaient un par un les enregistrements. Les pistes étaient généralement très courtes, entre 3 et 15 secondes en moyenne (mais pouvaient parfois durer plusieurs minutes). En fonction des projets sur lesquels on travaillait, on devait réaliser entre 120 et 170 transcriptions/heure. Plusieurs milliers de pistes étaient déposées quotidiennement sur notre plate-forme.
On écoutait l'enregistrement audio, ensuite un texte s'affichait, nous montrant ce que Cortana avait compris et retranscrit. Notre travail était de vérifier si elle avait bien compris - si ce n'était pas le cas, on devait corriger le texte, la moindre faute de compréhension, de conjugaison ou d'orthographe. Une autre partie du travail consistait à ajouter des tags dans le texte signalant les événements sonores qui pourraient expliquer pourquoi Cortana avait mal compris ceci ou mieux compris cela.
Je n'ai pas le détail de la suite du processus, mais j'imagine qu'ensuite, les données que nous corrigions étaient envoyées à une équipe de techniciens, programmeurs et autres génies de l'informatique qui s'occupaient de faire comprendre à Cortana comment ne pas répéter les mêmes erreurs.
Je me demandais à chaque fois si ces gens avaient conscience qu'une personne extérieure allaient entendre leurs petits délires sexuels
Les données qu'on écoutait allaient d'Utilisateur A qui dit simplement "Hey Cortana, quelle sera la météo demain?" à Utilisateur B qui demande en chuchotant à Cortana de lui trouver des vidéos porno de telle ou telle catégorie...
Il y avait leurs recherches internet, leurs interactions directes avec Cortana ("Hey Cortana, raconte-moi une blague", "imite la poule", "est-ce que tu m'aimes?", "est-ce que tu ressens la douleur?"…). Les utilisateurs peuvent aussi dicter du texte : messages, documents texte (résumés de cours, comptes-rendus professionnels...), adresses GPS, courriers administratifs (avec par exemple leur numéro de sécurité sociale), etc. ; nous avions accès à tout ça.
Elle peut être connectée à des consoles Xbox, on avait donc aussi des enregistrements provenant de ce service-là. Il y avait notamment des morceaux de communication en ligne (principalement d'ados et d'enfants) qui discutent sur les jeux en réseaux.
On avait également de nombreux extraits de conversations en ligne, sûrement sur Skype, provenant de personnes qui utilisaient un service de traduction instantanée (Microsoft Translator mais peut-être aussi Skype Translator, je ne suis pas certaine).
Nous n'avions jamais l'intégralité des conversations évidemment, elles étaient découpées en petites pistes ; cependant on pouvait tomber sur plusieurs morceaux d'une même conversation dans une même série de transcriptions (c'était suffisant pour dresser un profil basique de l'utilisateur ou de son humeur du moment par exemple).
On avait des conversations diverses, vraiment toutes sortes de choses, notamment souvent les séances sexcams de certains utilisateurs qui avaient besoin d'un service de traduction pour se faire comprendre, et dans ces cas-là les transcriptions étaient très explicites (parfois amusantes, parfois glauques). Je me demandais à chaque fois si ces gens avaient conscience qu'une personne extérieure allaient entendre leurs petits délires sexuels. Cortana ne fait pas le tri...
Enfin, il y avait beaucoup d'enregistrements involontaires, où des personnes discutent entre elles (dans leur voiture, à la maison, avec leurs enfants sur le chemin de l'école...) tandis que Cortana est dans les parages (tablette, téléphone portable, ordinateur, etc.) et s'est déclenchée de manière non-sollicitée et a tout enregistré.
(D'ailleurs, on avait aussi beaucoup d'utilisateurs qui insultaient tout simplement Cortana, car elle s'était déclenchée de façon non-sollicitée, ou avait mal compris une requête... Vous n'imaginez pas le nombre de fois où j'ai entendu "Sale pute Cortana !" )
On avait ainsi accès à énormément de données personnelles, que ce soit des bribes de conversations privées en ligne ou bien hors ligne.
N'importe qui pouvait être engagé
Pour pouvoir être embauché (ils recrutaient en grand nombre), il fallait s'inscrire sur le site de l'entreprise, postuler puis suivre une formation en ligne conclue par un examen final. Si on avait un pourcentage de réussite satisfaisant, on était engagé. Auquel cas, le manager nous faisait créer un compte sur le site internet de télétravail (une plate-forme externe, utilisée par plusieurs compagnies comme celle qui m'avait engagée), et le travail commençait.
Il n'y avait pas besoin d'envoyer son CV, ni aucun entretien individuel avec un responsable ou un manager (ni par téléphone, ni par Skype, ni e-mail, rien). N'importe qui pouvait être engagé et avoir accès aux enregistrements du moment qu'ils en avaient les compétences techniques, que l'examen final avait été réussi. Pourtant, nous avions accès à des informations sensibles et personnelles.
Beaucoup de personnes ignorent ou oublient que les données collectées par Cortana (et autres outils du genre) ne sont pas uniquement traitées par des robots, mais bien aussi par des êtres-humains.
En m'inscrivant sur le site de l'entreprise, j'ai accepté ses conditions d'utilisations en cochant machinalement des petites cases, celles-ci parlaient d'une multitudes de choses, mais à ce que je me souviens il n'y avait pas d'emphase spéciale sur le respect de la vie privée des utilisateurs de nos clients. Et à aucun moment j'ai signé de ma main un contrat de confidentialité.
Ils m'ont pourtant bien demandé de signer et renvoyer un document relatif aux taxes et impôts ; ils auraient pu en faire autant pour le respect de la confidentialité.
Et sur plus d'une cinquantaine de pages d'instructions détaillées sur comment traiter les transcriptions, pas une seule ligne ne mentionnait le respect de la vie privée des utilisateurs. Pas un seul des nombreux e-mails du manager que nous recevions chaque semaine, rien n'a jamais été dédié au respect de la vie privée (en ligne et hors ligne) des utilisateurs.
Et ce dont je parle ici ne concerne pas uniquement les utilisateurs français de Cortana, il y avait des équipes de transcripteurs pour une multitudes de langues (anglais, portugais, espagnol, etc.). On avait le même manager et les mêmes instructions générales.
En théorie, les données étaient anonymes pour les transcripteurs, c'est-à-dire que nous n'avions jamais les identifiants des utilisateurs que nous écoutions, et les pistes étaient généralement distribuées de façon aléatoire et désordonnée, en plus d'être parfois découpées. Cependant, inévitablement il arrivait que les utilisateurs révèlent un numéro de téléphone, une adresse, des coordonnées, date de naissance, numéros importants, événements auxquels ils allaient se rendre, etc.
Certaines voix se reconnaissent facilement, et bien que les pistes étaient aléatoires et dans le désordre, mises bout à bout elles auraient dans quelques cas pu suffire à un transcripteur déterminé pour identifier un utilisateur. De plus, on travaillait tous depuis nos propres ordinateurs, il était donc facile de récupérer les enregistrements qu'on traitait si on le voulait.
Selon moi, ce n'était pas bien sécurisé, surtout quand on considère le fait qu'on avait aussi beaucoup d'enregistrements provenant d'enfants. Mais il faut comprendre que ce genre de traitement de données est de toute façon impossible à sécuriser entièrement (encore moins quand on sous-traite), car des données récoltées massivement ne peuvent pas être triées parfaitement, des informations sensibles passeront toujours.
Beaucoup d'utilisateurs se sentent dépassés par tout ça, et les GAFAM savent exactement comment en tirer parti
Enfin, j'aimerais parler du fait qu'il me semble évident que la plupart des logiciels de reconnaissance vocale et assistants virtuels doivent se construire comme Cortana, donc il est important que les gens mesurent ce qu'utiliser de tels logiciels implique (ce que j'ai décrit n'est assurément pas juste typique à Microsoft).
Avec l'affluence des nouveaux ''assistants personnels virtuels'', le champs des possibles pour la collecte de données s'est développé de manière fulgurante.
Le modèle de Microsoft (et les autres GAFAM) n'est pas basé sur le respect de la vie privée et la non-intrusion, c'est le contraire.
Les outils comme Cortana sont hautement intrusifs et ont accès à une liste impressionnante de données personnelles, qu'ils exploitent et développent simultanément.
La collecte de données qu'ils peuvent permettre peut être utilisée à votre insu, détournée, utilisée contre votre gré, tombée entre de mauvaises mains, être exploitée à des fins auxquelles vous n'avez jamais consciemment donné votre accord…
Personnaliser les paramètres de confidentialité de services de ce genre requiert parfois des compétences en informatique qui dépassent l'utilisateur amateur, et des écrans de fumée font oublier que vous sacrifiez et marchandez votre vie privée à l'aide de formules comme "personnalisation du contenu", "optimisation des résultats", "amélioration de votre expérience et de nos services".
Beaucoup d'utilisateurs se sentent dépassés par tout ça, et les GAFAM savent exactement comment en tirer parti.
Merci beaucoup à Julie pour son témoignage !
Contre l'emprise des GAFAM sur nos vies, signez les plaintes collectives sur gafam.laquadrature.net
";s:7:"dateiso";s:15:"20180518_163817";}s:15:"20180517_190755";a:7:{s:5:"title";s:14:"Newsletter #78";s:4:"link";s:45:"https://www.laquadrature.net/fr/newsletter-78";s:4:"guid";s:37:"10509 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 17 May 2018 17:07:55 +0000";s:11:"description";s:43653:"
La newsletter de La Quadrature est enfin de retour !
Pourquoi un tel silence ? L'équipe des salariés de l'association a connu une recomposition importante, après le départ de Chris et d'Adrienne à la fin de l'été 2017. Il a fallu redistribuer les rôles, prendre ses marques en tâtonnant un peu. Et puis l'automne et l'hiver ont été chargés, entre la campagne de dons (un grand merci pour votre soutien renouvelé pour une année !), l'organisation du CCC (https://www.ccc.de/en/) - nouvellement installé à Leipzig - et une actualité politique animée - grâce aux diverses lois imaginées par le gouvernement Macron et à notre nouvelle campagne pour la protection des données personnelles.
Cette newsletter présente donc l'essentiel de l'actualité de ces trois derniers mois (janvier-mars 2018), pour ceux qui nous suivent de loin. Si vous cherchez des infos plus détaillées et surtout plus fréquentes sur nos actions, le bulletin QPSTAG (Que se passe-t-il au Garage ?) est diffusé chaque semaine sur la liste discussion@laquadrature.net. Inscrivez-vous aux listes de diffusion ici : https://wiki.laquadrature.net/Listes_de_discussion
Nouveaux membres
Le 12 mars dernier, nous avons annoncé l'arrivée de nouveaux membres au sein de l'association, avec deux objectifs : acter l'engagement de bénévoles parmi les plus proches et les plus impliqués, et ouvrir l'espace de réflexion de l'association en accueillant des compétences et des sensibilités plus diverses. La première AG de ce nouveau groupe de travail a eu lieu pendant le week-end de Pâques, du samedi 31 mars au lundi 2 avril. Une annonce à lire ici : https://www.laquadrature.net/fr/ouverture_nouveaux_membres
Campagne de dons 2017-2018
Merci beaucoup ! Grâce à vous, nous avons rassemblé assez d'argent pour faire fonctionner l'association jusqu'à la fin de 2018. Le bilan est en ligne sur notre site. Rendez-vous à la fin de l'année pour tenter de prolonger l'action une année encore ! Le bilan de campagne à lire ici :https://www.laquadrature.net/fr/bilan_campagne_dons_2017
Données personnelles sur tous les fronts
C'est le gros sujet de ce début d'année !
Entre l'entrée en application du RGPD à partir du 25 mai, la discussion autour du projet de loi sur les données personnelles, et l'affaire Cambridge Analytica qui met à jour le modèle économique de Facebook et d'innombrables autres sociétés du web, le problème de l'exploitation illégale de nos données personnelles a connu en ce début d'année un gros regain d'intérêt dans les médias. La Quadrature du Net a participé au débat à chaque fois qu'elle en a eu l'occasion.
Données personnelles : le projet de loi
Mi-mars, le projet de loi données personnelles était au Sénat. La commission en charge du dossier a refusé d'amender le texte pour encadrer les activités des services de renseignement, malgré les obligations édictées par la directive européenne. La Quadrature du Net a donc rédigé des amendements et invité les sénateurs et sénatrices de tous bords à les soutenir. Notre appel a été entendu, et nos amendements les plus importants ont été déposés et soutenus. Un seul a été accepté, concernant le chiffrement.
Début avril, après le vote du projet de loi au Sénat, est arrivée l'heure de la commission mixte paritaire, chargée de trouver un accord entre les deux textes votés à l'Assemblée nationale et au Sénat. À la veille de ce moment important, l'Observatoire des Libertés et du Numérique (OLN), dont fait partie La Quadrature du Net, a publié une lettre adressée aux parlementaires. Elle réaffirmait les points cruciaux à nos yeux, comme le droit au chiffrement et à la portabilité des données.
La commission mixte paritaire s'est finalement séparée sans arriver à un accord. Le texte repart donc pour une nouvelle navette entre les deux chambres. Invitation à soutenir nos amendements au Sénat : https://www.laquadrature.net/fr/pjl_rgpd_senat_com
Nos amendements (PDF) : https://www.laquadrature.net/files/amendements_lqdn_pjl_rgpd_27_02_2018.pdf
Lettre ouverte de l'OLN aux membres de la CMP : https://www.laquadrature.net/fr/cmp_pjl_rgpd
Action de groupe contre les GAFAM
Le RGPD entre en application le 25 mai, mais nous avons des doutes sur le fait qu'il soit bien appliqué comme il se doit. Est-ce que des entreprises comme Facebook ont vraiment l'intention de cesser cette surveillance de masse dont elles tirent tous leurs profits ? On en doutait alors on a pris les devants. Le 16 avril, on a lancé une campagne visant à récolter un maximum de mandats pour mener UNE ACTION DE GROUPE CONTRE LES GAFAM !!! La CNIL pourra, à partir du 24 mai, sanctionner à hauteur de 4% du chiffre d'affaires mondial mais si on veut qu'elle agisse il faut qu'on soit nombreux à rejoindre l'action de groupe.
Rejoignez l'action : gafam.laquadrature.net !!!!
Sur le site vous trouverez chaque semaine une vidéo expliquant pourquoi on attaque chacun des GAFAM et un texte d'analyse lié.
Vous pouvez aussi créer et partager vos affiches ici : https://gafam.laquadrature.net/#poster
Rejoignez-nous dans notre action (pour rappel, les particuliers donnant mandat à La Quadrature dans le cadre de cette action de groupe ne prennent aucun risque personnel, que ce soit sur un plan juridique ou financier) et faites circuler l'information autour de vous !
Données personnelles : ePrivacy
Certaines dispositions du RGPD, protectrices pour les utilisateurs, gênent beaucoup les entreprises privées qui prospèrent actuellement sur l'exploitation de nos données personnelles. Certaines d'entre elles (publicitaires et groupes de presse en tête) ont donc écrit au gouvernement français (PDF) pour le supplier de réintroduire dans le règlement ePrivacy (toujours en discussion) des dispositions qui leur permettraient de continuer leur juteux business. « L’économie de la donnée est un pilier de la croissance, de la création d’emplois et du progrès » : le gouvernement de la « Start-up Nation » n'a pas dû être très difficile à convaincre avec de telles phrases. La Quadrature adresse à son tour une lettre ouverte aux ministres. Un lettre ouverte à lire ici : https://www.laquadrature.net/fr/eprivacy_marchandisation
Surveillance : Marseille, ville laboratoire
La mairie de Marseille veut déployer un « observatoire Big Data de la tranquillité publique », confié à une entreprise privée : ce grand fourre-tout sécuritaire agrègera des informations venues des services de police, des pompiers, de la justice, de la sécurité routière, de la vidéosurveillance urbaine, des hôpitaux et même de la météo pour prédire les zones d'espace et de temps où des faits de délinquances sont susceptibles d'avoir lieu. Les habitants seront aussi invités à alimenter la base de données, à l'aide d'une application mobile, dans le genre de celle que lance de son côté la ville de Nice (Reporty).
Félix Tréguer, président de La Quadrature du Net et habitant de Marseille, a exercé le droit d'accès aux documents administratifs que détient chaque citoyen pour obtenir le Cahier des Clauses Techniques Particulières qui décrit le objectifs et les moyens du dispositif. Il livre son analyse. Une tribune à lire ici : https://www.laquadrature.net/fr/surveillance_big_data_marseille
Opérateurs téléphoniques : que savent-ils de nous ?
Les opérateurs téléphoniques collectent une grande quantité de données personnelles à travers nos téléphones (métadata de nos échanges, géolocalisation, etc.) : mais lesquelles précisément, et sont-ils prêts à le reconnaître ? Pour le savoir, quatre bénévoles de La Quadrature du Net ont écrit aux quatre grands opérateurs mobiles français (Orange, Free Mobile, Bouygues Telecom et SFR) pour leur demander l'accès, autorisé par la loi, aux données personnelles détenues par leurs fournisseurs téléphoniques respectifs. Trois mois plus tard, aucune réponse satisfaisante. Mais l'étape suivante était prévue : quatre plaintes ont donc été déposées auprès de la CNIL, une contre chaque opérateur. On attend désormais les réponses... Une histoire à suivre, à lire ici : https://www.laquadrature.net/fr/conservation_operateurs
Au secours, les recours !
Quand une loi est votée, on peut encore la changer : il suffit de l'attaquer devant le Conseil constitutionnel – et de gagner. C'est ce à quoi s'emploient La Quadrature du Net, FDN et la Fédération FDN, dans le groupe informel des Exégètes amateurs. Mais cet hiver, deux recours devant le Conseil constitutionnel ont reçu un jugement défavorable.
D'abord, le « recours Chambord », jugement rendu le 2 février dernier : il s'agissait de rendre à tous le droit de photographier les monuments nationaux. Malheureusement, le Conseil constitutionnel a confirmé le « droit à l'image » consenti en 2016 aux gestionnaires de ces momuments. Une décision que Lionel Maurel, membre fondateur de La Quadrature du Net, analyse en détail dans ses conséquences.
Le 4 mars, le Conseil constitutionnel a rejeté le recours déposé pour contester l'obligation faite à une personne gardée à vue de remettre à la police ses clefs de chiffrement. Une décision assortie de conditions (l'aval d'un juge, en particulier), mais une déception expliquée dans notre analyse. Décision Chiffrement : texte du recours https://www.laquadrature.net/fr/conseil-constitutionnel-clefs-chiffrement et décision du Conseil constitutionnel https://www.laquadrature.net/fr/le-conseil-constitutionnel-restreint-le-...
Décision Chambord : https://www.laquadrature.net/fr/apres-d%C3%A9cision-chambord-comment-sortir-d-un-domaine-public-residuel
FAKE NEWS, FAUX DÉBAT
Emmanuel Macron veut une loi pour interdire les « fake news », les fausses nouvelles et les manipulations médiatiques en ligne qui ont connu leur heure de gloire au moment de l'élection de Donald Trump aux États-Unis d'Amérique. La Commission européenne se pose elle aussi la question de savoir si elle peut aussi légiférer de son côté. La Quadrature du Net a donc répondu à sa consultation, pour dire non : la question des fake news est un faux problème, il s'agit avant tout d'un problème de logique économique desplateformes et des réseaux sociaux. Une réponse à consultation à lire ici : https://www.laquadrature.net/fr/consultation_fake_news
Il existe de nombreuses façons de participer à l'action menée par La Quadrature du Net. Vous pouvez aider La Quadrature en parlant de ses publications autour de vous, et en les diffusant sur vos blogs, Twitter,Diaspora*, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à nos listes de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
La Quadrature du Net a aussi besoin d'aide pour un grand nombre de tâches quotidiennes, par exemple pour l'édition de sa revue de presse, des traductions, la mise à jour de son wiki, des créations graphiques ou sonores… Si vous en avez la capacité, vous pouvez contribuer à améliorer les outils comme Memopol, < ahref="http://respectmynet.eu/">Respect My Net, ou le Piphone,ContrôleTes Données, ou bien nous proposer de nouveaux projets sur notre GitLab. N'hésitez pas à nous contacter pour avoir plus d'information à ce sujet.
Enfin, si vous en avez les moyens, vous pouvez également nous souteniren effectuant un don.
6 : réunion de préparation pour la campagne de dons 2018 : venez nous aider à imaginer notre campagne de dons de fin d'année ! (Au Garage, 60 rue des Orteaux, Paris, 19h)
8 : Quadrapéro au Garage (60 rue des Orteaux, Paris, 19h)
12 : Conférence de l'OLN sur les données personnelles, avec Lionel Maurel, Antonio Casilli, membres de La Quadrature du Net, et Arthur Messaud
28-29 juin - 1er juillet : PSES - conférence "Actions de groupe contre les GAFAM" le 1er juillet à 15h (Arthur) : https://programme.passageenseine.fr/
Why such a long silence? The paid staff went through important changes after Chris and Adrienne left at the end of summer 2017, and the arrival of Myriam (administrator) and Marine (art and communication director). We needed time to reassign roles and find our bearings with a bit of fumbling... Autumn and winter were busy times: our support campaign (thanks again for another year of support!), the organisation of our tea-house at the CCC (now taking place at Leipzig (https://www.ccc.de/en/ ), and lively political developments - thanks to various laws conceived by the Macron government and to our new campaign to protect privacy.
This newsletter presents a summary of key points from the past three months (January-March 2018) for those following us from afar. If you're looking for more precise and frequent information about our actions, our weekly newletter in French, QPSTAG ("Que se passe-t-il au garage ?" or "What's on at the garage?") is sent out from discussion@laquadrature.net. Subscribe to mailing-lists here: https://wiki.laquadrature.net/Listes_de_discussion/en
New members
Last 12 March, we announced the arrival of new members in the core of the association. Here are their two objectives: to engage volunteers among those closest and most involved in LQdN, and to open a space for reflection within the Association by accommodating more diverse skills and sensibilities. The first general meeting of this new taskforce took place over the Easter weekend, from Saturday, March 31 to Monday, April 2. Read our announcement: https://www.laquadrature.net/en/node/10444
Donation Campaign 2017-2018
Thanks a lot! We have collected enough money to go forward until the end of 2018. The result is available on our site. We will meet again at the end of the year to try to keep this going for another year! \o/ Read the campaign's results here: https://www.laquadrature.net/en/Founding%20campaign%202017
Personal Data On All Fronts
Between the implementation of the RGPD from May 25, the discussion of the bill on personal data in the French Parliament, and the Facebook-Cambridge Analytica scandal that revealed Facebook's economic model to the general public: the problem of the illegal exploitation of our personal data has seen a big revival of interest in the media since the beginning of the year. La Quadrature du Net took part in the debate at every opportunity.
Personal Data: a French bill under discussion
In mid-March, the bill concerning personal data was examined in the French Senate. The commission in charge of the bill refused every amendment in the provisions regarding aiming at overseeing the activities of French intelligence services, in spite of the obligations laid down by the European directive. La Quadrature du Net wrote amendments and invited senators of both wings to defend them during the discussion. Our call was heard and our main amendments were supported. But only one of them was adopted (regarding cryptography).
In the beginning of April, after the bill was voted by the Senate, a commission was in charge of finding an agreement between the two bills voted by the Assemblée Nationale and the Senate. The day before this important meeting, the OLN (Observatoire des Libertés et du Numérique) published an open letter to members of the two chambers. It states again several points important to us, such as the right to encrypt and the portability of data.
The commission parted without coming to an agreement, and so the draft bill will go back and forth again between the two chambers. Call for our amendments (in French): https://www.laquadrature.net/fr/pjl_rgpd_senat_com
Our amendments (PDF in French): https://www.laquadrature.net/files/amendements_lqdn_pjl_rgpd_27_02_2018.pdf
Open letter to the members of the French Parliament: https://www.laquadrature.net/fr/cmp_pjl_rgpd (in French)
Extrajudicial Class Action Against the GAFAM
The GDPR comes into effect on the 25th of May, but we doubt that it will be properly applied. Do companies such as Facebook and Google really intend to stop the mass surveillance from which they make their money? So we have decided to take pre-emptive action, and have begun collecting individual mandates in order to file a class action against the GAFAM. French citizens are invited to join the action here: https://gafam.laquadrature.net (in French)
Personal Data : ePrivacy
Certain provisions of the GDPR which protect European citizens' private lives are a real impediment for private companies that live off the exploitation of personal data. Some of them (mainly advertising and press companies) pleaded their case with the French government and asked them to reinstate in future regulation a set of provisions allowing the safety of their profitable businesses. The government of the self-designated "Start-Up Nation" was easily convinced. La Quadrature du Net adresses its own open letter (FR) to the ministers. Read the open letter here: https://www.laquadrature.net/fr/eprivacy_marchandisation (in French)
Marseille, A Laboratory for Surveillance
The mayor of Marseille, France's third major city, wants to build a "Big Data Observatory For Public Security" and has handed the project to a private company: this catch-all will gather information from the police, fire departments, road safety, legal bodies, CCTV, hospitals and even weather services to predict locales and times where delinquency is likely to take place. Residents of the city are also invited to feed a database through a mobile application very similar to Reporty, the app acquired by the city of Nice.
Félix Tréguer, founding member of La Quadrature du Net, managed to obtain access to the documents describing the objectives and means of the project. Read his analysis here: https://www.laquadrature.net/fr/surveillance_big_data_marseille (in French)
Mobile Phone Operators: What Do They really Know?
Mobile phone operators collect a huge amount of personal data (metadata from our voice or text conversations, localisation, etc.). But which ones precisely? Are they ready to reveal and acknowledge the true extent of their databases? For the record, four members of La Quadrature du Net asked their own mobile operators (Orange, Free Mobile, Bouygues Telecom et SFR) access, authorised by law, to mail them the personal data held by their telephone providers. Three months later, the four operators had not given a satisfactory response. But the next step had already been planned: four cases have been filed against them with the CNIL, the French data protection authority. We're waiting now for the replies... Read the whole story here: https://www.laquadrature.net/fr/conservation_operateurs (in French)
Litigations
When a law is voted, you can still change it: but you have to plead before the Constitutional Council–and win... This is the purpose of the Exégètes amateurs, an informal group of law experts from La Quadrature du Net, FDN and FFDN. But last winter, two of their actions were rejected by the French constitutional court.
First, on 2 February, the "Chambord" action: the point was to give back to every citizen the right to take a picture of a public monument and share it freely. Unfortunately, The Constitutional Council confirmed the "right to the image" granted in 2016 to the administrators of such monuments. Lionel Maurel, active member of SavoirsCom1 and founding member of La Quadrature du Net, analyses the consequences of this decision (FR).
On 4 March, the Council rejected a recourse intending to contest the obligation that a person placed in custody give the encryption key of their mobile phone to the police. The decision comes with a few conditions (such as the prior approval of a civil or criminal judge), but we explain why it is still a disappointment (FR).
Fake news, phony debate
Emmanuel Macron wants to forbid "fake news", and other types of online media manipulations that were popularised during the American presidential campaign won by Donald Trump. The European Commission also wonders if it can legislate on the matter: La Quadrature du Net answered the European consultation. The answer is no, "fake news" are a phony debate, the real problem is the click-bait favoring business model of platforms and social neworks. Read the extensive answer here : https://www.laquadrature.net/en/node/10435
La newsletter de La Quadrature est enfin de retour !
Pourquoi un tel silence ? L'équipe des salariés de l'association a connu une recomposition importante, après le départ de Chris et d'Adrienne à la fin de l'été 2017. Il a fallu redistribuer les rôles, prendre ses marques en tâtonnant un peu. Et puis l'automne et l'hiver ont été chargés, entre la campagne de dons (un grand merci pour votre soutien renouvelé pour une année !), l'organisation du CCC (https://www.ccc.de/en/) - nouvellement installé à Leipzig - et une actualité politique animée - grâce aux diverses lois imaginées par le gouvernement Macron et à notre nouvelle campagne pour la protection des données personnelles.
Cette newsletter présente donc l'essentiel de l'actualité de ces trois derniers mois (janvier-mars 2018), pour ceux qui nous suivent de loin. Si vous cherchez des infos plus détaillées et surtout plus fréquentes sur nos actions, le bulletin QPSTAG (Que se passe-t-il au Garage ?) est diffusé chaque semaine sur la liste discussion@laquadrature.net. Inscrivez-vous aux listes de diffusion ici : https://wiki.laquadrature.net/Listes_de_discussion
Nouveaux membres
Le 12 mars dernier, nous avons annoncé l'arrivée de nouveaux membres au sein de l'association, avec deux objectifs : acter l'engagement de bénévoles parmi les plus proches et les plus impliqués, et ouvrir l'espace de réflexion de l'association en accueillant des compétences et des sensibilités plus diverses. La première AG de ce nouveau groupe de travail a eu lieu pendant le week-end de Pâques, du samedi 31 mars au lundi 2 avril. Une annonce à lire ici : https://www.laquadrature.net/fr/ouverture_nouveaux_membres
Campagne de dons 2017-2018
Merci beaucoup ! Grâce à vous, nous avons rassemblé assez d'argent pour faire fonctionner l'association jusqu'à la fin de 2018. Le bilan est en ligne sur notre site. Rendez-vous à la fin de l'année pour tenter de prolonger l'action une année encore ! Le bilan de campagne à lire ici :https://www.laquadrature.net/fr/bilan_campagne_dons_2017
Données personnelles sur tous les fronts
C'est le gros sujet de ce début d'année !
Entre l'entrée en application du RGPD à partir du 25 mai, la discussion autour du projet de loi sur les données personnelles, et l'affaire Cambridge Analytica qui met à jour le modèle économique de Facebook et d'innombrables autres sociétés du web, le problème de l'exploitation illégale de nos données personnelles a connu en ce début d'année un gros regain d'intérêt dans les médias. La Quadrature du Net a participé au débat à chaque fois qu'elle en a eu l'occasion.
Données personnelles : le projet de loi
Mi-mars, le projet de loi données personnelles était au Sénat. La commission en charge du dossier a refusé d'amender le texte pour encadrer les activités des services de renseignement, malgré les obligations édictées par la directive européenne. La Quadrature du Net a donc rédigé des amendements et invité les sénateurs et sénatrices de tous bords à les soutenir. Notre appel a été entendu, et nos amendements les plus importants ont été déposés et soutenus. Un seul a été accepté, concernant le chiffrement.
Début avril, après le vote du projet de loi au Sénat, est arrivée l'heure de la commission mixte paritaire, chargée de trouver un accord entre les deux textes votés à l'Assemblée nationale et au Sénat. À la veille de ce moment important, l'Observatoire des Libertés et du Numérique (OLN), dont fait partie La Quadrature du Net, a publié une lettre adressée aux parlementaires. Elle réaffirmait les points cruciaux à nos yeux, comme le droit au chiffrement et à la portabilité des données.
La commission mixte paritaire s'est finalement séparée sans arriver à un accord. Le texte repart donc pour une nouvelle navette entre les deux chambres. Invitation à soutenir nos amendements au Sénat : https://www.laquadrature.net/fr/pjl_rgpd_senat_com
Nos amendements (PDF) : https://www.laquadrature.net/files/amendements_lqdn_pjl_rgpd_27_02_2018.pdf
Lettre ouverte de l'OLN aux membres de la CMP : https://www.laquadrature.net/fr/cmp_pjl_rgpd
Action de groupe contre les GAFAM
Le RGPD entre en application le 25 mai, mais nous avons des doutes sur le fait qu'il soit bien appliqué comme il se doit. Est-ce que des entreprises comme Facebook ont vraiment l'intention de cesser cette surveillance de masse dont elles tirent tous leurs profits ? On en doutait alors on a pris les devants. Le 16 avril, on a lancé une campagne visant à récolter un maximum de mandats pour mener UNE ACTION DE GROUPE CONTRE LES GAFAM !!! La CNIL pourra, à partir du 24 mai, sanctionner à hauteur de 4% du chiffre d'affaires mondial mais si on veut qu'elle agisse il faut qu'on soit nombreux à rejoindre l'action de groupe.
Rejoignez l'action : gafam.laquadrature.net !!!!
Sur le site vous trouverez chaque semaine une vidéo expliquant pourquoi on attaque chacun des GAFAM et un texte d'analyse lié.
Vous pouvez aussi créer et partager vos affiches ici : https://gafam.laquadrature.net/#poster
Rejoignez-nous dans notre action (pour rappel, les particuliers donnant mandat à La Quadrature dans le cadre de cette action de groupe ne prennent aucun risque personnel, que ce soit sur un plan juridique ou financier) et faites circuler l'information autour de vous !
Données personnelles : ePrivacy
Certaines dispositions du RGPD, protectrices pour les utilisateurs, gênent beaucoup les entreprises privées qui prospèrent actuellement sur l'exploitation de nos données personnelles. Certaines d'entre elles (publicitaires et groupes de presse en tête) ont donc écrit au gouvernement français (PDF) pour le supplier de réintroduire dans le règlement ePrivacy (toujours en discussion) des dispositions qui leur permettraient de continuer leur juteux business. « L’économie de la donnée est un pilier de la croissance, de la création d’emplois et du progrès » : le gouvernement de la « Start-up Nation » n'a pas dû être très difficile à convaincre avec de telles phrases. La Quadrature adresse à son tour une lettre ouverte aux ministres. Un lettre ouverte à lire ici : https://www.laquadrature.net/fr/eprivacy_marchandisation
Surveillance : Marseille, ville laboratoire
La mairie de Marseille veut déployer un « observatoire Big Data de la tranquillité publique », confié à une entreprise privée : ce grand fourre-tout sécuritaire agrègera des informations venues des services de police, des pompiers, de la justice, de la sécurité routière, de la vidéosurveillance urbaine, des hôpitaux et même de la météo pour prédire les zones d'espace et de temps où des faits de délinquances sont susceptibles d'avoir lieu. Les habitants seront aussi invités à alimenter la base de données, à l'aide d'une application mobile, dans le genre de celle que lance de son côté la ville de Nice (Reporty).
Félix Tréguer, président de La Quadrature du Net et habitant de Marseille, a exercé le droit d'accès aux documents administratifs que détient chaque citoyen pour obtenir le Cahier des Clauses Techniques Particulières qui décrit le objectifs et les moyens du dispositif. Il livre son analyse. Une tribune à lire ici : https://www.laquadrature.net/fr/surveillance_big_data_marseille
Opérateurs téléphoniques : que savent-ils de nous ?
Les opérateurs téléphoniques collectent une grande quantité de données personnelles à travers nos téléphones (métadata de nos échanges, géolocalisation, etc.) : mais lesquelles précisément, et sont-ils prêts à le reconnaître ? Pour le savoir, quatre bénévoles de La Quadrature du Net ont écrit aux quatre grands opérateurs mobiles français (Orange, Free Mobile, Bouygues Telecom et SFR) pour leur demander l'accès, autorisé par la loi, aux données personnelles détenues par leurs fournisseurs téléphoniques respectifs. Trois mois plus tard, aucune réponse satisfaisante. Mais l'étape suivante était prévue : quatre plaintes ont donc été déposées auprès de la CNIL, une contre chaque opérateur. On attend désormais les réponses... Une histoire à suivre, à lire ici : https://www.laquadrature.net/fr/conservation_operateurs
Au secours, les recours !
Quand une loi est votée, on peut encore la changer : il suffit de l'attaquer devant le Conseil constitutionnel – et de gagner. C'est ce à quoi s'emploient La Quadrature du Net, FDN et la Fédération FDN, dans le groupe informel des Exégètes amateurs. Mais cet hiver, deux recours devant le Conseil constitutionnel ont reçu un jugement défavorable.
D'abord, le « recours Chambord », jugement rendu le 2 février dernier : il s'agissait de rendre à tous le droit de photographier les monuments nationaux. Malheureusement, le Conseil constitutionnel a confirmé le « droit à l'image » consenti en 2016 aux gestionnaires de ces momuments. Une décision que Lionel Maurel, membre fondateur de La Quadrature du Net, analyse en détail dans ses conséquences.
Le 4 mars, le Conseil constitutionnel a rejeté le recours déposé pour contester l'obligation faite à une personne gardée à vue de remettre à la police ses clefs de chiffrement. Une décision assortie de conditions (l'aval d'un juge, en particulier), mais une déception expliquée dans notre analyse. Décision Chiffrement : texte du recours https://www.laquadrature.net/fr/conseil-constitutionnel-clefs-chiffrement et décision du Conseil constitutionnel https://www.laquadrature.net/fr/le-conseil-constitutionnel-restreint-le-...
Décision Chambord : https://www.laquadrature.net/fr/apres-d%C3%A9cision-chambord-comment-sortir-d-un-domaine-public-residuel
FAKE NEWS, FAUX DÉBAT
Emmanuel Macron veut une loi pour interdire les « fake news », les fausses nouvelles et les manipulations médiatiques en ligne qui ont connu leur heure de gloire au moment de l'élection de Donald Trump aux États-Unis d'Amérique. La Commission européenne se pose elle aussi la question de savoir si elle peut aussi légiférer de son côté. La Quadrature du Net a donc répondu à sa consultation, pour dire non : la question des fake news est un faux problème, il s"agit avant tout d'un problème de logique économique desplateformes et des réseaux sociaux. Une réponse à consultation à lire ici : https://www.laquadrature.net/fr/consultation_fake_news
Il existe de nombreuses façons de participer à l'action menée par La Quadrature du Net. Vous pouvez aider La Quadrature en parlant de ses publications autour de vous, et en les diffusant sur vos blogs, Twitter,Diaspora*, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à nos listes de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
La Quadrature du Net a aussi besoin d'aide pour un grand nombre de tâches quotidiennes, par exemple pour l'édition de sa revue de presse, des traductions, la mise à jour de son wiki, des créations graphiques ou sonores… Si vous en avez la capacité, vous pouvez contribuer à améliorer les outils comme Memopol, < ahref="http://respectmynet.eu/">Respect My Net, ou le Piphone,ContrôleTes Données, ou bien nous proposer de nouveaux projets sur notre GitLab. N'hésitez pas à nous contacter pour avoir plus d'information à ce sujet.
Enfin, si vous en avez les moyens, vous pouvez également nous souteniren effectuant un don.
6 : réunion de préparation pour la campagne de dons 2018 : venez nous aider à imaginer notre campagne de dons de fin d'année ! (Au Garage, 60 rue des Orteaux, Paris, 19h)
8 : Quadrapéro au Garage (60 rue des Orteaux, Paris, 19h)
12 : Conférence de l'OLN sur les données personnelles, avec Lionel Maurel, Antonio Casilli, membres de La Quadrature du Net, et Arthur Messaud
28-29 juin - 1er juillet : PSES - conférence "Actions de groupe contre les GAFAM" le 1er juillet à 15h (Arthur) : https://programme.passageenseine.fr/
Why such a long silence? The paid staff went through important changes after Chris and Adrienne left at the end of summer 2017, and the arrival of Myriam (administrator) and Marine (art and communication director). We needed time to reassign roles and find our bearings with a bit of fumbling... Autumn and winter were busy times: our support campaign (thanks again for another year of support!), the organisation of our tea-house at the CCC (now taking place at Leipzig (https://www.ccc.de/en/ ), and lively political developments - thanks to various laws conceived by the Macron government and to our new campaign to protect privacy.
This newsletter presents a summary of key points from the past three months (January-March 2018) for those following us from afar. If you're looking for more precise and frequent information about our actions, our weekly newletter in French, QPSTAG ("Que se passe-t-il au garage ?" or "What's on at the garage?") is sent out from discussion@laquadrature.net. Subscribe to mailing-lists here: https://wiki.laquadrature.net/Listes_de_discussion/en
New members
Last 12 March, we announced the arrival of new members in the core of the association. Here are their two objectives: to engage volunteers among those closest and most involved in LQdN, and to open a space for reflection within the Association by accommodating more diverse skills and sensibilities. The first general meeting of this new taskforce took place over the Easter weekend, from Saturday, March 31 to Monday, April 2. Read our announcement: https://www.laquadrature.net/en/node/10444
Donation Campaign 2017-2018
Thanks a lot! We have collected enough money to go forward until the end of 2018. The result is available on our site. We will meet again at the end of the year to try to keep this going for another year! \o/ Read the campaign's results here: https://www.laquadrature.net/en/Founding%20campaign%202017
Personal Data On All Fronts
Between the implementation of the RGPD from May 25, the discussion of the bill on personal data in the French Parliament, and the Facebook-Cambridge Analytica scandal that revealed Facebook's economic model to the general public: the problem of the illegal exploitation of our personal data has seen a big revival of interest in the media since the beginning of the year. La Quadrature du Net took part in the debate at every opportunity.
Personal Data: a French bill under discussion
In mid-March, the bill concerning personal data was examined in the French Senate. The commission in charge of the bill refused every amendment in the provisions regarding aiming at overseeing the activities of French intelligence services, in spite of the obligations laid down by the European directive. La Quadrature du Net wrote amendments and invited senators of both wings to defend them during the discussion. Our call was heard and our main amendments were supported. But only one of them was adopted (regarding cryptography).
In the beginning of April, after the bill was voted by the Senate, a commission was in charge of finding an agreement between the two bills voted by the Assemblée Nationale and the Senate. The day before this important meeting, the OLN (Observatoire des Libertés et du Numérique) published an open letter to members of the two chambers. It states again several points important to us, such as the right to encrypt and the portability of data.
The commission parted without coming to an agreement, and so the draft bill will go back and forth again between the two chambers. Call for our amendments (in French): https://www.laquadrature.net/fr/pjl_rgpd_senat_com
Our amendments (PDF in French): https://www.laquadrature.net/files/amendements_lqdn_pjl_rgpd_27_02_2018.pdf
Open letter to the members of the French Parliament: https://www.laquadrature.net/fr/cmp_pjl_rgpd (in French)
Extrajudicial Class Action Against the GAFAM
The GDPR comes into effect on the 25th of May, but we doubt that it will be properly applied. Do companies such as Facebook and Google really intend to stop the mass surveillance from which they make their money? So we have decided to take pre-emptive action, and have begun collecting individual mandates in order to file a class action against the GAFAM. French citizens are invited to join the action here: https://gafam.laquadrature.net (in French)
Personal Data : ePrivacy
Certain provisions of the GDPR which protect European citizens' private lives are a real impediment for private companies that live off the exploitation of personal data. Some of them (mainly advertising and press companies) pleaded their case with the French government and asked them to reinstate in future regulation a set of provisions allowing the safety of their profitable businesses. The government of the self-designated "Start-Up Nation" was easily convinced. La Quadrature du Net adresses its own open letter (FR) to the ministers. Read the open letter here: https://www.laquadrature.net/fr/eprivacy_marchandisation (in French)
Marseille, A Laboratory for Surveillance
The mayor of Marseille, France's third major city, wants to build a "Big Data Observatory For Public Security" and has handed the project to a private company: this catch-all will gather information from the police, fire departments, road safety, legal bodies, CCTV, hospitals and even weather services to predict locales and times where delinquency is likely to take place. Residents of the city are also invited to feed a database through a mobile application very similar to Reporty, the app acquired by the city of Nice.
Félix Tréguer, founding member of La Quadrature du Net, managed to obtain access to the documents describing the objectives and means of the project. Read his analysis here: https://www.laquadrature.net/fr/surveillance_big_data_marseille (in French)
Mobile Phone Operators: What Do They really Know?
Mobile phone operators collect a huge amount of personal data (metadata from our voice or text conversations, localisation, etc.). But which ones precisely? Are they ready to reveal and acknowledge the true extent of their databases? For the record, four members of La Quadrature du Net asked their own mobile operators (Orange, Free Mobile, Bouygues Telecom et SFR) access, authorised by law, to mail them the personal data held by their telephone providers. Three months later, the four operators had not given a satisfactory response. But the next step had already been planned: four cases have been filed against them with the CNIL, the French data protection authority. We're waiting now for the replies... Read the whole story here: https://www.laquadrature.net/fr/conservation_operateurs (in French)
Litigations
When a law is voted, you can still change it: but you have to plead before the Constitutional Council–and win... This is the purpose of the Exégètes amateurs, an informal group of law experts from La Quadrature du Net, FDN and FFDN. But last winter, two of their actions were rejected by the French constitutional court.
First, on 2 February, the "Chambord" action: the point was to give back to every citizen the right to take a picture of a public monument and share it freely. Unfortunately, The Constitutional Council confirmed the "right to the image" granted in 2016 to the administrators of such monuments. Lionel Maurel, active member of SavoirsCom1 and founding member of La Quadrature du Net, analyses the consequences of this decision (FR).
On 4 March, the Council rejected a recourse intending to contest the obligation that a person placed in custody give the encryption key of their mobile phone to the police. The decision comes with a few conditions (such as the prior approval of a civil or criminal judge), but we explain why it is still a disappointment (FR).
Fake news, phony debate
Emmanuel Macron wants to forbid "fake news", and other types of online media manipulations that were popularised during the American presidential campaign won by Donald Trump. The European Commission also wonders if it can legislate on the matter: La Quadrature du Net answered the European consultation. The answer is no, "fake news" are a phony debate, the real problem is the click-bait favoring business model of platforms and social neworks. Read the extensive answer here : https://www.laquadrature.net/en/node/10435
";s:7:"dateiso";s:15:"20180517_190755";}s:15:"20180511_165538";a:7:{s:5:"title";s:25:"Pourquoi attaquer Apple ?";s:4:"link";s:46:"https://www.laquadrature.net/fr/attaquer_apple";s:4:"guid";s:37:"10504 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 11 May 2018 14:55:38 +0000";s:11:"description";s:15416:"
11 Mai 2018 - Le troisième monstre qu'on attaque, c'est Apple. Il est bien différent de ses deux frères déjà traités ici (Google et Facebook), car il ne centre pas ses profits sur l'exploitation de nos données personnelles. Ce géant-là est avant tout un géant de la communication, il sait donc bien se donner une image d'élève modèle alors qu'il n'est pas irréprochable... ni inattaquable !
Contre l'emprise des GAFAM sur nos vies, allez dès maintenant sur gafam.laquadrature.net signer les plaintes collectives que nous déposerons le 25 mai devant la CNIL.
L'entreprise Apple
Apple, c'est 200 milliards d'euros de chiffre d'affaires annuel et tout autant de réserve en trésorerie (pour comparer, le budget annuel de l'État français est d'environ 300 milliards). En bourse, l'ensemble des actions de l'entreprise vaudrait maintenant 1 000 milliards de dollars, ce qui en fait la première capitalisation boursière du monde.
Fondée en 1976, notamment par Steeve Jobs et bien avant l'avènement d'Internet, l'entreprise se centre sur la vente de ses propres ordinateurs, équipés de systèmes d'exploitation qu'elle développe elle-même.
En 1984, Apple annonce le lancement de son Macintosh au moyen d'une publicité vidéo réalisée par Ridley Scott, naïvement intitulée « 1984 » et posant l'entreprise en rempart contre une future société de surveillance (la vidéo originale est disponible sur YouTube, mais nous lui préférons le détournement qu'en ont fait nos amis de la Startuffe Nation !). Tout comme le slogan interne de Google, « Don't be evil », la posture prise en 1984 par Apple n'est finalement qu'une sinistre anti-prophétie : l'entreprise jouera bien un rôle décisif dans la transformation des outils numériques en moyens d'enfermement et de contrôle.
Par la suite, Apple ne cessera d'ailleurs pas de briller par ses stratégies de communication aussi confuses qu'insidieuses : sa fameuse injonction « Think different » ne nous disant surtout pas « de quoi » il s'agirait penser différemment, elle nous demande surtout, en vérité, de penser différemment « de nous-même » (de notre singularité) pour « penser Apple » et nous fondre dans un « cool » finalement très commun.
En 2007, il y a à peine plus de 10 ans, sort l'iPhone. Ses ventes ont placé l'entreprise dans sa situation économique actuelle, représentant désormais 70% de son chiffre d'affaire (les 30% restants étant à peu près équitablement répartis entre les ventes d'iPad, de Mac et de services). Aujourd'hui, environ un smartphone sur cinq vendu dans le monde l'est par Apple.
Le modèle Apple
Le modèle économique d'Apple, centré sur la vente au public de ses seules machines, repose sur l'enfermement de ses clients : s'assurer que ceux-ci n'achèteront que du matériel Apple. Pour cela, l'entreprise entend garder tout contrôle sur l'utilisation que ses clients peuvent faire des produits qu'ils ont achetés.
Les systèmes d'exploitation livrés avec les machines Apple - iOS et Mac OS - sont ainsi de pures boites noires : leur code source est gardé secret, empêchant qu'on puisse prendre connaissance de leur fonctionnement pour l'adapter à nos besoins, en dehors du contrôle d'Apple.
Son App Store est aussi une parfaite illustration de cette prison dorée : Apple limite les logiciels téléchargeables selon ses propres critères, s'assurant que ses utilisateurs n'aient accès qu'à des services tiers « de qualité » - conformes à son modèle économique et à sa stratégie d'enfermement (Apple prenant au passage 30% du prix de vente des applications payantes, il a d'ailleurs tout intérêt à favoriser celles-ci).
Enfin, une fois que ses utilisateurs ont payé pour utiliser divers logiciels non-libres via l'App Store, il devient bien difficile pour eux, économiquement, de se tourner vers d'autres systèmes qu'Apple, où l'accès à certains de ces logiciels ne serait plus possible - et où l'argent dépensé pour les acheter serait perdu.
L'emprisonnement est parfait.
Un enfermement (aussi) matériel
Hélas, le modèle d'enfermement d'Apple ne se limite pas aux logiciels : la connectique des iPhones n'est pas compatible avec le standard Micro-USB utilisé par tous les autres constructeurs, obligeant ainsi à acheter des câbles spécifiques. De même, les derniers iPhones n'ont pas de prise jack pour le casque audio, obligeant à acheter un adaptateur supplémentaire si on ne souhaite pas utiliser les écouteurs Bluetooth d'Apple.
La dernière caricature en date de ce modèle est la nouvelle enceinte d'Apple, HomePod, qui requiert un iPhone pour s'installer et ne peut jouer que de la musique principalement fournie par les services d'Apple (iTunes, Apple Music...).
Enfin, une fois qu'Apple peut entièrement contrôler l'utilisation de ses appareils, la route lui est grande ouverte pour en programmer l'obsolescence et pousser à l'achat d'appareils plus récents. Ainsi, l'hiver dernier, accusée par des observateurs extérieurs, l'entreprise a été contrainte de reconnaître que des mises à jour avaient volontairement ralenti les anciens modèles de ses téléphones.
Apple a expliqué que ce changement visait à protéger les téléphones les plus anciens dont la batterie était usée. Mais sa réponse, qu'elle soit sincère ou non, ne fait que souligner le véritable problème : ses iPhone sont conçus pour ne pas permettre une réparation ou un changement de batterie simple. Ralentir les vieux modèles n'était « utile » que dans la mesure où ceux-ci n'étaient pas conçus pour durer.
Vie privée : un faux ami
Apple vendant surtout du matériel, la surveillance de masse n'est a priori pas aussi utile pour lui que pour les autres GAFAM. L'entreprise en profite donc pour se présenter comme un défenseur de la vie privée.
Par exemple sur son navigateur Web, Safari, les cookies tiers, qui sont utilisés pour retracer l'activité d'une personne sur différents sites Internet, sont bloqués par défaut. L'entreprise présente cela comme une mesure de protection de la vie privée, et c'est vrai, mais c'est aussi pour elle une façon de ramener le marché de la publicité vers le secteur des applications mobiles, où non seulement le traçage n'est pas bloqué mais, au contraire, directement offert par Apple.
C'est ce que nous attaquons.
Une définition « hors-loi » des données personnelles
Dans son « engagement de confidentialité », qu'on est obligé d'accepter pour utiliser ses services, Apple s'autorise à utiliser nos données personnelles dans certains cas limités, se donnant l'image d'un entreprise respectueuse de ses utilisateurs.
Pourtant, aussitôt, Apple s'autorise à « collecter, utiliser, transférer et divulguer des données non-personnelles à quelque fin que ce soit », incluant parmi ces données :
« le métier, la langue, le code postal, l’indicatif régional, l’identifiant unique de l’appareil, l’URL de référence » ;
« la localisation et le fuseau horaire dans lesquels un produit Apple est utilisé » ;
l'utilisation des services Apple, « y compris les recherches que vous effectuez », ces informations n'étant pas associées à l'adresse IP de l'utilisateur, « sauf dans de très rares cas pour assurer la qualité de nos services en ligne ».
Cette liste révèle que la définition des « données personnelles » retenue par Apple est bien différente de celle retenue par le droit européen. En droit européen, une information est une donnée personnelle du moment qu'elle peut être associée à une personne unique, peu importe que l'identité de cette personne soit connue ou non. Or, l'identifiant unique de l'appareil, l'adresse IP ou, dans bien des cas aussi, les recherches effectuées ou la localisation, sont bien associables à une personne unique par elles-mêmes.
Ainsi, l'entreprise a beau jeu de préciser que « si nous associons des données non-personnelles à des données personnelles, les données ainsi combinées seront traitées comme des données à caractère personnel ». En effet, les données qu'elle dit « non-personnelles » et qu'elle associe ensembles constituent déja des données personnelles, que le droit européen interdit d'utiliser « à quelque fin que ce soit ». C'est bien pourtant ce qu'Apple nous demande d'accepter pour utiliser ses services (et sans qu'on sache dans quelle mesure il utilise ou utilisera un jour ce blanc-seing).
Le méga-cookie Apple
En dehors de l'immense incertitude quant aux pouvoirs qu'Apple s'arroge via sa définition erronée des « données non-personnelles », un danger est déjà parfaitement actuel : l'identifiant publicitaire unique qu'Apple fournit à chaque application.
Comme nous l'avions déjà vu pour Google (le fonctionnement est identique), Apple associe à chaque appareil un identifiant unique à fins publicitaires. Cet identifiant est librement accessible par chaque application installée (l'utilisateur n'est pas invité à en autoriser l'accès au cas par cas - l'accès est automatiquement donné).
Cet identifiant, encore plus efficace qu'un simple « cookie », permet d'individualiser chaque utilisateur et, ainsi, de retracer parfaitement ses activités sur l'ensemble de ses applications. Apple fournit donc à des entreprises tierces un outil décisif pour établir le profil de chaque utilisateur - pour sonder notre esprit afin de mieux nous manipuler, de nous soumettre la bonne publicité au bon moment (exactement de la même façon que nous le décrivions au sujet de Facebook).
On comprend facilement l'intérêt qu'en tire Apple : attirer sur ses plateformes le plus grand nombre d'applications, afin que celles-ci attirent le plus grand nombre d'utilisateurs, qui se retrouveront enfermés dans le système Apple.
Tel que déjà évoqué, les entreprises tierces sont d'autant plus incitées à venir sur l'App Store depuis que Apple les empêche de recourir aux juteux « cookies tiers » sur le Web - que Safari bloque par défaut. En effet, à quoi bon se battre contre Apple pour surveiller la population sur des sites internets alors que cette même entreprise offre gratuitement les moyens de le faire sur des applications ? La protection offerte par Safari apparaît dès lors sous des traits biens cyniques.
Un identifiant illégal
Contrairement au méga-cookie offert par Google sur Android, celui d'Apple est désactivable : l'utilisateur peut lui donner comme valeur « 0 ». Ce faisant, Apple prétend « laisser le choix » de se soumettre ou non à la surveillance massive qu'il permet.
Or, ce choix est largement illusoire : au moment de l'acquisition et de l'installation d'un appareil, le méga-cookie d'Apple est activé par défaut, et l'utilisateur n'est pas invité à faire le moindre choix à son sujet. Ce n'est qu'ultérieurement, s'il a connaissance de l'option appropriée et en comprend le fonctionnement et l'intérêt, que l'utilisateur peut vraiment faire ce choix. Et Apple sait pertinemment que la plupart de ses clients n'auront pas cette connaissance ou cette compréhension, et qu'aucun choix ne leur aura donc été véritablement donné.
C'est pourtant bien ce qu'exige la loi. La directive « ePrivacy » exige le consentement de l'utilisateur pour accéder aux informations contenues sur sa machine, tel que ce méga-cookie. Le règlement général sur la protection des données (RGPD) exige que ce consentement soit donné de façon explicite, par un acte positif dont le seul but est d'accepter l'accès aux données. Or, Apple ne demande jamais ce consentement, le considérant comme étant donné par défaut.
Pour respecter la loi, il devrait, au moment de l'installation de la machine, exiger que l'utilisateur choisisse s'il veut ou non que lui soit associé un identifiant publicitaire unique. Si l'utilisateur refuse, il doit pouvoir terminer l'installation et utiliser librement l'appareil. C'est ce que nous exigerons collectivement devant la CNIL.
D'ailleurs, la solution que nous exigeons est bien celle qui avait été retenue par Microsoft, l'été dernier, pour mettre Windows 10 en conformité avec la loi lorsque la CNIL lui faisait des reproches semblables à ceux que nous formulons aujourd'hui. Si Apple souhaite véritablement respecter les droits de ses utilisateurs, tel qu'il le prétend aujourd'hui hypocritement, la voie lui est donc clairement ouverte.
S'il ne prend pas cette voie, il sera le GAFAM dont la sanction, d'un montant maximum de 8 milliards d'euros, sera, pour l'Europe, la plus rentable. De quoi commencer à rééquilibrer les conséquences de son évasion fiscale, qui lui a déjà valu en 2016 une amende de 13 milliards d'euros, encore en attente de paiement (pour approfondir cet aspect, plus éloigné de notre action centrée sur les données personnelles, voir les actions conduites par ATTAC).
Contre l'emprise des GAFAM sur nos vies, allez dès maintenant sur gafam.laquadrature.net signer les plaintes collectives que nous déposerons le 25 mai devant la CNIL.
";s:7:"content";s:15416:"
11 Mai 2018 - Le troisième monstre qu'on attaque, c'est Apple. Il est bien différent de ses deux frères déjà traités ici (Google et Facebook), car il ne centre pas ses profits sur l'exploitation de nos données personnelles. Ce géant-là est avant tout un géant de la communication, il sait donc bien se donner une image d'élève modèle alors qu'il n'est pas irréprochable... ni inattaquable !
Contre l'emprise des GAFAM sur nos vies, allez dès maintenant sur gafam.laquadrature.net signer les plaintes collectives que nous déposerons le 25 mai devant la CNIL.
L'entreprise Apple
Apple, c'est 200 milliards d'euros de chiffre d'affaires annuel et tout autant de réserve en trésorerie (pour comparer, le budget annuel de l'État français est d'environ 300 milliards). En bourse, l'ensemble des actions de l'entreprise vaudrait maintenant 1 000 milliards de dollars, ce qui en fait la première capitalisation boursière du monde.
Fondée en 1976, notamment par Steeve Jobs et bien avant l'avènement d'Internet, l'entreprise se centre sur la vente de ses propres ordinateurs, équipés de systèmes d'exploitation qu'elle développe elle-même.
En 1984, Apple annonce le lancement de son Macintosh au moyen d'une publicité vidéo réalisée par Ridley Scott, naïvement intitulée « 1984 » et posant l'entreprise en rempart contre une future société de surveillance (la vidéo originale est disponible sur YouTube, mais nous lui préférons le détournement qu'en ont fait nos amis de la Startuffe Nation !). Tout comme le slogan interne de Google, « Don't be evil », la posture prise en 1984 par Apple n'est finalement qu'une sinistre anti-prophétie : l'entreprise jouera bien un rôle décisif dans la transformation des outils numériques en moyens d'enfermement et de contrôle.
Par la suite, Apple ne cessera d'ailleurs pas de briller par ses stratégies de communication aussi confuses qu'insidieuses : sa fameuse injonction « Think different » ne nous disant surtout pas « de quoi » il s'agirait penser différemment, elle nous demande surtout, en vérité, de penser différemment « de nous-même » (de notre singularité) pour « penser Apple » et nous fondre dans un « cool » finalement très commun.
En 2007, il y a à peine plus de 10 ans, sort l'iPhone. Ses ventes ont placé l'entreprise dans sa situation économique actuelle, représentant désormais 70% de son chiffre d'affaire (les 30% restants étant à peu près équitablement répartis entre les ventes d'iPad, de Mac et de services). Aujourd'hui, environ un smartphone sur cinq vendu dans le monde l'est par Apple.
Le modèle Apple
Le modèle économique d'Apple, centré sur la vente au public de ses seules machines, repose sur l'enfermement de ses clients : s'assurer que ceux-ci n'achèteront que du matériel Apple. Pour cela, l'entreprise entend garder tout contrôle sur l'utilisation que ses clients peuvent faire des produits qu'ils ont achetés.
Les systèmes d'exploitation livrés avec les machines Apple - iOS et Mac OS - sont ainsi de pures boites noires : leur code source est gardé secret, empêchant qu'on puisse prendre connaissance de leur fonctionnement pour l'adapter à nos besoins, en dehors du contrôle d'Apple.
Son App Store est aussi une parfaite illustration de cette prison dorée : Apple limite les logiciels téléchargeables selon ses propres critères, s'assurant que ses utilisateurs n'aient accès qu'à des services tiers « de qualité » - conformes à son modèle économique et à sa stratégie d'enfermement (Apple prenant au passage 30% du prix de vente des applications payantes, il a d'ailleurs tout intérêt à favoriser celles-ci).
Enfin, une fois que ses utilisateurs ont payé pour utiliser divers logiciels non-libres via l'App Store, il devient bien difficile pour eux, économiquement, de se tourner vers d'autres systèmes qu'Apple, où l'accès à certains de ces logiciels ne serait plus possible - et où l'argent dépensé pour les acheter serait perdu.
L'emprisonnement est parfait.
Un enfermement (aussi) matériel
Hélas, le modèle d'enfermement d'Apple ne se limite pas aux logiciels : la connectique des iPhones n'est pas compatible avec le standard Micro-USB utilisé par tous les autres constructeurs, obligeant ainsi à acheter des câbles spécifiques. De même, les derniers iPhones n'ont pas de prise jack pour le casque audio, obligeant à acheter un adaptateur supplémentaire si on ne souhaite pas utiliser les écouteurs Bluetooth d'Apple.
La dernière caricature en date de ce modèle est la nouvelle enceinte d'Apple, HomePod, qui requiert un iPhone pour s'installer et ne peut jouer que de la musique principalement fournie par les services d'Apple (iTunes, Apple Music...).
Enfin, une fois qu'Apple peut entièrement contrôler l'utilisation de ses appareils, la route lui est grande ouverte pour en programmer l'obsolescence et pousser à l'achat d'appareils plus récents. Ainsi, l'hiver dernier, accusée par des observateurs extérieurs, l'entreprise a été contrainte de reconnaître que des mises à jour avaient volontairement ralenti les anciens modèles de ses téléphones.
Apple a expliqué que ce changement visait à protéger les téléphones les plus anciens dont la batterie était usée. Mais sa réponse, qu'elle soit sincère ou non, ne fait que souligner le véritable problème : ses iPhone sont conçus pour ne pas permettre une réparation ou un changement de batterie simple. Ralentir les vieux modèles n'était « utile » que dans la mesure où ceux-ci n'étaient pas conçus pour durer.
Vie privée : un faux ami
Apple vendant surtout du matériel, la surveillance de masse n'est a priori pas aussi utile pour lui que pour les autres GAFAM. L'entreprise en profite donc pour se présenter comme un défenseur de la vie privée.
Par exemple sur son navigateur Web, Safari, les cookies tiers, qui sont utilisés pour retracer l'activité d'une personne sur différents sites Internet, sont bloqués par défaut. L'entreprise présente cela comme une mesure de protection de la vie privée, et c'est vrai, mais c'est aussi pour elle une façon de ramener le marché de la publicité vers le secteur des applications mobiles, où non seulement le traçage n'est pas bloqué mais, au contraire, directement offert par Apple.
C'est ce que nous attaquons.
Une définition « hors-loi » des données personnelles
Dans son « engagement de confidentialité », qu'on est obligé d'accepter pour utiliser ses services, Apple s'autorise à utiliser nos données personnelles dans certains cas limités, se donnant l'image d'un entreprise respectueuse de ses utilisateurs.
Pourtant, aussitôt, Apple s'autorise à « collecter, utiliser, transférer et divulguer des données non-personnelles à quelque fin que ce soit », incluant parmi ces données :
« le métier, la langue, le code postal, l’indicatif régional, l’identifiant unique de l’appareil, l’URL de référence » ;
« la localisation et le fuseau horaire dans lesquels un produit Apple est utilisé » ;
l'utilisation des services Apple, « y compris les recherches que vous effectuez », ces informations n'étant pas associées à l'adresse IP de l'utilisateur, « sauf dans de très rares cas pour assurer la qualité de nos services en ligne ».
Cette liste révèle que la définition des « données personnelles » retenue par Apple est bien différente de celle retenue par le droit européen. En droit européen, une information est une donnée personnelle du moment qu'elle peut être associée à une personne unique, peu importe que l'identité de cette personne soit connue ou non. Or, l'identifiant unique de l'appareil, l'adresse IP ou, dans bien des cas aussi, les recherches effectuées ou la localisation, sont bien associables à une personne unique par elles-mêmes.
Ainsi, l'entreprise a beau jeu de préciser que « si nous associons des données non-personnelles à des données personnelles, les données ainsi combinées seront traitées comme des données à caractère personnel ». En effet, les données qu'elle dit « non-personnelles » et qu'elle associe ensembles constituent déja des données personnelles, que le droit européen interdit d'utiliser « à quelque fin que ce soit ». C'est bien pourtant ce qu'Apple nous demande d'accepter pour utiliser ses services (et sans qu'on sache dans quelle mesure il utilise ou utilisera un jour ce blanc-seing).
Le méga-cookie Apple
En dehors de l'immense incertitude quant aux pouvoirs qu'Apple s'arroge via sa définition erronée des « données non-personnelles », un danger est déjà parfaitement actuel : l'identifiant publicitaire unique qu'Apple fournit à chaque application.
Comme nous l'avions déjà vu pour Google (le fonctionnement est identique), Apple associe à chaque appareil un identifiant unique à fins publicitaires. Cet identifiant est librement accessible par chaque application installée (l'utilisateur n'est pas invité à en autoriser l'accès au cas par cas - l'accès est automatiquement donné).
Cet identifiant, encore plus efficace qu'un simple « cookie », permet d'individualiser chaque utilisateur et, ainsi, de retracer parfaitement ses activités sur l'ensemble de ses applications. Apple fournit donc à des entreprises tierces un outil décisif pour établir le profil de chaque utilisateur - pour sonder notre esprit afin de mieux nous manipuler, de nous soumettre la bonne publicité au bon moment (exactement de la même façon que nous le décrivions au sujet de Facebook).
On comprend facilement l'intérêt qu'en tire Apple : attirer sur ses plateformes le plus grand nombre d'applications, afin que celles-ci attirent le plus grand nombre d'utilisateurs, qui se retrouveront enfermés dans le système Apple.
Tel que déjà évoqué, les entreprises tierces sont d'autant plus incitées à venir sur l'App Store depuis que Apple les empêche de recourir aux juteux « cookies tiers » sur le Web - que Safari bloque par défaut. En effet, à quoi bon se battre contre Apple pour surveiller la population sur des sites internets alors que cette même entreprise offre gratuitement les moyens de le faire sur des applications ? La protection offerte par Safari apparaît dès lors sous des traits biens cyniques.
Un identifiant illégal
Contrairement au méga-cookie offert par Google sur Android, celui d'Apple est désactivable : l'utilisateur peut lui donner comme valeur « 0 ». Ce faisant, Apple prétend « laisser le choix » de se soumettre ou non à la surveillance massive qu'il permet.
Or, ce choix est largement illusoire : au moment de l'acquisition et de l'installation d'un appareil, le méga-cookie d'Apple est activé par défaut, et l'utilisateur n'est pas invité à faire le moindre choix à son sujet. Ce n'est qu'ultérieurement, s'il a connaissance de l'option appropriée et en comprend le fonctionnement et l'intérêt, que l'utilisateur peut vraiment faire ce choix. Et Apple sait pertinemment que la plupart de ses clients n'auront pas cette connaissance ou cette compréhension, et qu'aucun choix ne leur aura donc été véritablement donné.
C'est pourtant bien ce qu'exige la loi. La directive « ePrivacy » exige le consentement de l'utilisateur pour accéder aux informations contenues sur sa machine, tel que ce méga-cookie. Le règlement général sur la protection des données (RGPD) exige que ce consentement soit donné de façon explicite, par un acte positif dont le seul but est d'accepter l'accès aux données. Or, Apple ne demande jamais ce consentement, le considérant comme étant donné par défaut.
Pour respecter la loi, il devrait, au moment de l'installation de la machine, exiger que l'utilisateur choisisse s'il veut ou non que lui soit associé un identifiant publicitaire unique. Si l'utilisateur refuse, il doit pouvoir terminer l'installation et utiliser librement l'appareil. C'est ce que nous exigerons collectivement devant la CNIL.
D'ailleurs, la solution que nous exigeons est bien celle qui avait été retenue par Microsoft, l'été dernier, pour mettre Windows 10 en conformité avec la loi lorsque la CNIL lui faisait des reproches semblables à ceux que nous formulons aujourd'hui. Si Apple souhaite véritablement respecter les droits de ses utilisateurs, tel qu'il le prétend aujourd'hui hypocritement, la voie lui est donc clairement ouverte.
S'il ne prend pas cette voie, il sera le GAFAM dont la sanction, d'un montant maximum de 8 milliards d'euros, sera, pour l'Europe, la plus rentable. De quoi commencer à rééquilibrer les conséquences de son évasion fiscale, qui lui a déjà valu en 2016 une amende de 13 milliards d'euros, encore en attente de paiement (pour approfondir cet aspect, plus éloigné de notre action centrée sur les données personnelles, voir les actions conduites par ATTAC).
Contre l'emprise des GAFAM sur nos vies, allez dès maintenant sur gafam.laquadrature.net signer les plaintes collectives que nous déposerons le 25 mai devant la CNIL.
";s:7:"dateiso";s:15:"20180511_165538";}s:15:"20180503_182038";a:7:{s:5:"title";s:26:"Pourquoi attaquer Google ?";s:4:"link";s:47:"https://www.laquadrature.net/fr/attaquer_google";s:4:"guid";s:37:"10498 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 03 May 2018 16:20:38 +0000";s:11:"description";s:25216:"
03 Mai 2018 - Deuxième titan de l'Internet que nous attaquons, Google est plus subtil dans sa surveillance. La stratégie est différente de celle de Facebook mais tout autant contraire à nos libertés. Démystifions cela.
L'entreprise
Fondée il y a 20 ans par Larry Page et Sergueï Brin, créateurs du moteur de recherche Google, l'entreprise compte aujourd'hui 74 000 salariés et 90,6 milliards d'euros de chiffre d'affaire. Son modèle économique n'est pas exclusivement basé sur la publicité, bien que ses revenus publicitaires représentent 86 % de son chiffre d'affaires.
Aujourd'hui, Google est une filiale d'Alphabet, la maison-mère d'un groupe implanté partout dans le monde1. Ses services se sont multipliés : gestion des e-mails avec Gmail, du calendrier avec Agenda, stockage et édition de documents avec Drive et Gsuite, mobile avec Android, publication de vidéos avec Youtube, etc.
Ce que Google sait de nous
Google soumet presque tous ses services à un corpus unique de « règles de confidentialité » qui prévoient que l'entreprise peut collecter :
nom, photo, adresse e-mail et numéro de téléphone renseignés par les personnes ayant un compte Google ;
identifiant de l'appareil ;
informations sur l'utilisation des services (vidéos, images consultées, quand et comment) et l'historique de navigation ;
les requêtes de recherches (sur Google search, Youtube, Maps, etc.) ;
le numéro de téléphone des personnes appelées ou contactées par SMS, l'heure, la date et la durée des appels, ainsi que la liste des contacts ajoutés ;
l'adresse IP depuis laquelle les services sont utilisés ;
la localisation des appareils, définie à partir de l'adresse IP, de signaux GPS, des points d'accès WiFi et des antennes-relais téléphoniques à proximité ;
d'autres informations collectées par les partenaires de Google.
Google explique utiliser toutes ces données pour mieux cibler ses utilisateurs afin de leur proposer les publicités les plus à même de les convaincre, au bon moment. Comme nous l'avons vu avec Facebook, l'analyse en masse d'informations d'apparence anodines permet d'établir des corrélations censées cerner en détail l'intimité de chaque personne.
Même si Google permet de limiter l'interconnexion de certains types de données brutes (localisation, recherches effectuées et vidéos consultées), il ne laisse aucun contrôle sur tous les autres types de données. Surtout, il ne permet pas de bloquer l'analyse faite sur les données dérivées (nos profils), qui sont pourtant les plus sensibles, et que nous sommes contraints d'abandonner à Google pour utiliser ses services. L'accès aux services Google implique l'obligation de céder ces informations personnelles. Cet abandon résultant d'un consentement non-libre, l'analyse de ces données est illicite — c'est ce que nous attaquons.
La chimère du contrôle
Il ne faut pas se tromper sur le soi-disant contrôle que Google nous laisserait sur l'interconnexion de certains types de données (localisation, recherches, vidéos). Par défaut, Google récupère et croise une quantité monstrueuse de données. Il ne suffit pas que l'entreprise nous donne la possibilité de limiter certaines mesures pour que celles-ci deviennent licites. Qui a déjà activé les options limitant la collecte de données personnelles par Google ? L'entreprise tente de s'acheter une image en laissant à l'utilisateur, par un acte volontaire, cette possibilité, en sachant pertinemment que la majorité des utilisateur ne le feront pas. Le consentement est alors dérobé.
Heureusement, le règlement général sur la protection des données (RGPD) a parfaitement anticipé cette tentative de contourner notre volonté. Il prévoit précisément que, pour être valide, notre consentement doit être explicite : « il ne saurait dès lors y avoir de consentement en cas de silence, de cases cochées par défaut ou d'inactivité » (considérant 32). Or, les mesures de surveillance sur lesquelles Google feint de nous laisser un certain contrôle sont « acceptées » par défaut au moyen de cases précochées. Puisqu'elles ne reposent pas sur un consentement explicite, ces mesures sont illicites — nous l'attaquons aussi.
Gmail
Google s'autorise à analyser le contenu des e-mails de ses utilisateurs, envoyés comme reçus. L'entreprise se permet ainsi clairement d'analyser les correspondances de ses utilisateurs. Plus sournois encore, Google lit les conversations avec les correspondants des utilisateurs de Gmail alors que ceux-ci n'ont jamais donné leur consentement et n'ont même jamais été informés de cette surveillance.
De plus, même si Google a annoncé (EN) ne plus souhaiter analyser le contenu des e-mails à des fins publicitaires, ses « règles » continuent à l'y autoriser — rendant ses déclarations bien superficielles.
Dans tous les cas, en dehors de l'analyse à des fins publicitaires, Google entend bien continuer à analyser les contenus des e-mails pour « nourrir » ses algorithmes de prédiction (et les algorithmes de Google sont, sur le long terme, probablement ce que l'entreprise a de plus précieux).
Ainsi, sur Gmail, l'entreprise présente ses algorithmes comme des assistants à la gestion des rendez-vous et des correspondances et en affiche fièrement l'ambition : remplacer les humains dans la multitude de choix qu'elle juge « secondaires » (avec qui parler, quand, pour dire quoi), pour que l'humanité reste concentrée sur ce à quoi elle devrait être dédiée - être productive.
Enfin, s'agissant de son activité traditionnelle — la publicité —, Google ne se cache pas de continuer à analyser les métadonnées des e-mails (qui parle avec qui, quand, à quelle fréquence) pour identifier plus précisément ses utilisateurs et leurs contacts. Cette analyse se retrouve également dans l'application maison de messageries instantanées, Allo : les messages sont par défaut enregistrés sur les serveurs de Google. Pire, les messages vocaux sont écoutés et transcrits par Google et l'utilisateur ne peut pas s'y opposer.
Ces métadonnées, qui sont créées « par des machines, pour des machines », sont bien plus simples à analyser automatiquement que le contenu des e-mails (écrit par des humains, et donc soumis à la subtilité du langage) tout en pouvant révéler des informations au moins aussi intimes : savoir que vous écrivez subitement à un cancerologue peut révéler plus d'informations sur votre état de santé que le détail de ce que vous lui dites, par exemple.
Ici, au cœur de l'activité de Google, plus question de laisser à l'utilisateur le moindre contrôle sur ce qui peut être ou non analysé — pour utiliser Gmail, nous devons entièrement céder notre droit fondamental à la confidentialité de nos communications (ainsi que celui de nos correspondants, malgré eux).
Google nous piste sur le Web
16 % du chiffre d'affaires de Google proviennent de ses activités d'entremetteur publicitaire, qui consiste à mettre en relation des annonceurs avec « plus de deux millions » de sites ou blogs tiers qui souhaitent se rémunérer par la publicité ciblée. Sur chacun de ces sites, c'est Google qui affiche techniquement chaque publicité, et cet affichage lui permet de déposer les cookies et autres pisteurs grâce auxquels il peut retracer la navigation de tout internaute (inscrit ou non à ses services). Ici encore, nous n'avons jamais consenti de façon valide à ce pistage.
De l'exacte même façon, Google nous piste sur les innombrables sites qui ont recours au service Google Analytics. Ce service aide les sites à analyser l'identité de leurs visiteurs, tout en laissant Google accéder aux mêmes informations.
Une simple analyse de trafic2 sur des sites comme lemonde.fr, lefigaro.fr, hadopi.fr ou defense.gouv.fr permet par exemple de constater qu'en accédant à ces sites, diverses requêtes sont envoyées à doubleclick.net (la régie publicitaire de Google) et/ou google-analytics.com, permettant à Google de connaître ne serait-ce que notre adresse IP, la configuration unique de notre navigateur et l'adresse URL de chaque page visitée sur chacun de ces sites.
Les responsables de ces sites sont tout autant responsables que Google de ce pistage illégal - nous nous en prendrons à eux plus tard - par lequel le géant publicitaire peut encore plus précisément nous ficher.
Enfin, Google compte bien étendre sa présence sur l'ensemble du Web en régulant lui-même la publicité : en configurant son navigateur Google Chrome (utilisé par 60 % des internautes) pour qu'il bloque partout sur le Web les publicités qui ne correspondraient pas aux critères (de format, d'ergonomie...) décidés par l'entreprise. Le message est ainsi clair : « si vous voulez faire de la publicité en ligne, utilisez les services Google, vous vous éviterez bien des soucis ! »
D'une pierre trois coups, Google passe d'une part pour un défenseur de la vie privée (puisqu'il bloque certaines publicités intrusives), incite d'autre part les internautes à désactiver les bloqueurs tiers (tel que uBlocks Origin qui neutralise efficacement nombre de traçeurs de Google) puisque que Google Chrome en intègre un par défaut, et incite enfin encore plus d'éditeurs de page Web à afficher ses publicités et donc à intégrer ses traçeurs, partout, tout le temps.
Youtube
La plus grosse plateforme vidéo d'Internet (et le second site le plus visité au monde, d'après Alexa), Youtube, appartient à Google.
Youtube ne se contente pas seulement d'héberger des vidéos : il s'agit d'un véritable média social de contenus multimédia, qui met en relation des individus et régule ces relations.
En effet, lorsqu'une vidéo est visionnée sur Youtube, dans 70 % des cas, l'utilisateur à été amené à cliquer sur cette vidéo via l'algorithme de recommandation de Youtube. Un ancien employé de Youtube, Guillaume Chaslot3, expose les conséquences de cet algorithme. Le but de l'algorithme n'est pas de servir l'utilisateur mais de servir la plateforme, c'est-à-dire de faire en sorte que l'on reste le plus longtemps possible sur la plateforme, devant les publicités. L'employé raconte que lors de la mise en ligne d'une vidéo, celle-ci est d'abord montrée à un échantillon de personnes et n'est recommandée aux autres utilisateurs que si elle a retenu cet échantillon de spectateurs suffisamment longtemps devant l'écran.
Cet algorithme ne se pose pas la question du contenu - de sa nature, de son message… En pratique, cependant, l'ancien employé constate que les contenus les plus mis en avant se trouvent être les contenus agressifs, diffamants, choquants ou complotistes. Guillaume Chaslot compare : « C'est comme une bagarre dans la rue, les gens s'arrêtent pour regarder. »
Nécessairement, on comprend que, en réponse à cet algorithme, de nombreux créateurs de contenus se soient spontanément adaptés, proposant des contenus de plus en plus agressifs.
Dans le but de faire le maximum de vues, Youtube surveille donc le moindre des faits et gestes des utilisateurs afin de les mettre dans la condition la plus propice à recevoir de la publicité et afin de les laisser exposés à cette publicité le plus longtemps possible… mais ce n'est pas tout !
Youtube, désirant ne pas perdre une seconde de visionnage de ses utilisateurs, ne prend pas le risque de leur recommander des contenus trop extravagants et se complait à les laisser dans leur zone de confort. L'ancien employé déclare qu'ils ont refusé plusieurs fois de modifier l'algorithme de façon à ce que celui-ci ouvre l'utilisateur à des contenus inhabituels. Dans ces conditions, le débat public est entièrement déformé, les discussions les plus subtiles ou précises, jugées peu rentables, s'exposant à une censure par enterrement.
De plus, Youtube bénéficie du statut d'hébergeur et n'est donc pas considéré comme étant a priori responsable des propos tenus sur sa plateforme. En revanche, il est tenu de retirer un contenu « manifestement illicite » si celui-ci lui a été notifié. Compte tenu de la quantité de contenus que brasse Youtube, il a décidé d'automatiser la censure des contenus potentiellement « illicites », portant atteinte au droit de certains « auteurs », au moyen de son RobotCopyright, appelé « ContentID ». Pour être reconnu « auteur » sur la plateforme, il faut répondre à des critères fixés par Youtube. Une fois qu'un contenu est protégé par ce droit attribué par Youtube (en pratique, il s'agit en majorité de grosses chaînes de télévision), la plateforme se permet de démonétiser ou supprimer les vidéos réutilisant le contenu « protégé » à la demande de leur « auteurs ».
Un moyen de censure de plus qui démontre que Youtube ne souhaite pas permettre à chacun de s'exprimer (contrairement à son slogan « Broadcast yourself ») mais cherche simplement à administrer l'espace de débat public pour favoriser la centralisation et le contrôle de l'information. Et pour cause, cette censure et cet enfermement dans un espace de confort est le meilleur moyen d'emprisonner les utilisateurs dans son écosystème au service de la publicité.
Contrairement à ce que Google tente de nous faire croire, la surveillance et la censure ne sont pas la condition inévitable pour s'échanger des vidéos en ligne. On peut parfaitement le faire en total respect de nos droits. PeerTube est une plateforme de partage de vidéos proposant les mêmes fonctionnalités que Youtube mais fonctionne avec des rouages différents. Les vidéos ne sont pas toutes hébergées au même endroit : n'importe qui peut créer son instance et héberger chez lui des vidéos. Les différentes instances sont ensuite connectées entre elles. Chaque instance a donc ses propres règles, il n'y a pas une politique de censure unifiée comme sur Youtube, et surtout ces règles ne sont pas dictées par une logique commerciale.
Infiltration de l'open source sur Android, cheval de Troie de la surveillance
Google porte le logiciel Android, son système d'exploitation pour smartphones. En diffusant des outils réutilisables afin d'« aider » les développeurs à développer des applications mobiles pour Android, Google a réussi à faire largement adopter ses « pratiques » par de nombreux développeurs : les codes diffusés contiennent souvent des pisteurs Google et ceux-ci se retrouvent ainsi intégrés dans de nombreuses applications qui, a priori, n'ont absolument aucune raison de révéler à l'entreprise des informations sur leurs utilisateurs.
Par ailleurs, Google tente régulièrement de s'acheter une image au sein du milieu du logiciel libre. Ainsi, les sources de Android sont libres de droit. Cela ne veut pas dire que son développement est ouvert : Google choisit quasiment seul les directions dans le développement du système.
En outre, en plus du système Android stricto sensu, Google impose aux constructeurs de smartphones d'embarquer sur leurs produits les mouchards que sont ses applications. En effet, le marché des applications étant ce qu'il est, les constructeurs de smartphone considèrent qu'un téléphone Android ne se vendra pas s'il n'intègre pas le Play Store (magasin d'applications) fourni par Google.
Or, pour pourvoir accéder au Play Store, un téléphone doit avoir les applications de surveillance de Google. Ces services Google étendent les possibilités du système et deviennent parfois indispensables pour faire fonctionner un certain nombre d'applications4, permettant à l'entreprise de traquer les utilisateurs de smartphones : la géolocalisation continue de l'utilisateur est récupérée, permettant à Google de connaître les habitudes de déplacement des usagers ; la liste des réseaux WiFi est envoyée à Google quand bien même l'utilisateur a désactivé le WiFi de son téléphone ; le Play Store impose de synchroniser son compte Google, permettant un recoupage encore plus fin des données.
Et, bien évidemment, ces services Google ne sont pas libres. Android devient donc le prétexte open-source pour placer dans la poche de l'utilisateur toute une série d'applications Google dont le but est d'espionner. Cela n'empêche pas l'entreprise de communiquer massivement sur ses projets libres très souvent intéressés, à l'image de son dernier outil libre de tracking.
Enfin, l'intégration du Play Store conduit à attribuer automatiquement un identifiant publicitaire unique à chaque utilisateur. Cet identifiant est gratuitement mis à disposition de toutes les applications et, à la façon d'un « méga-cookie », permet aux applications de tracer le comportement des utilisateurs sur l'ensemble des services utilisés. Ici, les outils de surveillance de Google sont gracieusement offerts à des développeurs tiers afin d'attirer le plus grand nombre d'applications sur Android — où Google, au sommet de cette structure, pourra librement surveiller tout un chacun.
1. Des discussions sont en cours entre Alphabet et la Chine afin que le moteur de recherche Google puisse faire son retour. Après avoir initialement accepté la censure d'État, Google a quitté le pays en 2012 en refusant de se plier aux injonctions de censure. Pourtant, Google semble sur la voie d'un nouveau retournement de veste puisque la réintroduction de l'application mobile Translate s'est faite parce que le gouvernement chinois est autorisé à censurer certains termes.
2. La plupart des navigateurs permettent d'analyser très simplement les requêtes faites sur une page Web pour demander, à ce site ou à un tiers, divers contenus : images, scripts, cookies... Vous pouvez voir ici comment faire sur Firefox ou Chrome (EN).
3. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
4. Paradoxalement, la messagerie chiffrée Signal, pourtant recommandée par un certain nombre de personnalités comme Edward Snowden pour ses vertus en termes de protection de la vie privée, a pendant longtemps requis que les services Google soient installés sur le téléphone. Aujourd'hui encore, même si cette dépendance n'existe plus, l'application se comportera mieux si les services Google sont présents sur le téléphone.
";s:7:"content";s:25216:"
03 Mai 2018 - Deuxième titan de l'Internet que nous attaquons, Google est plus subtil dans sa surveillance. La stratégie est différente de celle de Facebook mais tout autant contraire à nos libertés. Démystifions cela.
L'entreprise
Fondée il y a 20 ans par Larry Page et Sergueï Brin, créateurs du moteur de recherche Google, l'entreprise compte aujourd'hui 74 000 salariés et 90,6 milliards d'euros de chiffre d'affaire. Son modèle économique n'est pas exclusivement basé sur la publicité, bien que ses revenus publicitaires représentent 86 % de son chiffre d'affaires.
Aujourd'hui, Google est une filiale d'Alphabet, la maison-mère d'un groupe implanté partout dans le monde1. Ses services se sont multipliés : gestion des e-mails avec Gmail, du calendrier avec Agenda, stockage et édition de documents avec Drive et Gsuite, mobile avec Android, publication de vidéos avec Youtube, etc.
Ce que Google sait de nous
Google soumet presque tous ses services à un corpus unique de « règles de confidentialité » qui prévoient que l'entreprise peut collecter :
nom, photo, adresse e-mail et numéro de téléphone renseignés par les personnes ayant un compte Google ;
identifiant de l'appareil ;
informations sur l'utilisation des services (vidéos, images consultées, quand et comment) et l'historique de navigation ;
les requêtes de recherches (sur Google search, Youtube, Maps, etc.) ;
le numéro de téléphone des personnes appelées ou contactées par SMS, l'heure, la date et la durée des appels, ainsi que la liste des contacts ajoutés ;
l'adresse IP depuis laquelle les services sont utilisés ;
la localisation des appareils, définie à partir de l'adresse IP, de signaux GPS, des points d'accès WiFi et des antennes-relais téléphoniques à proximité ;
d'autres informations collectées par les partenaires de Google.
Google explique utiliser toutes ces données pour mieux cibler ses utilisateurs afin de leur proposer les publicités les plus à même de les convaincre, au bon moment. Comme nous l'avons vu avec Facebook, l'analyse en masse d'informations d'apparence anodines permet d'établir des corrélations censées cerner en détail l'intimité de chaque personne.
Même si Google permet de limiter l'interconnexion de certains types de données brutes (localisation, recherches effectuées et vidéos consultées), il ne laisse aucun contrôle sur tous les autres types de données. Surtout, il ne permet pas de bloquer l'analyse faite sur les données dérivées (nos profils), qui sont pourtant les plus sensibles, et que nous sommes contraints d'abandonner à Google pour utiliser ses services. L'accès aux services Google implique l'obligation de céder ces informations personnelles. Cet abandon résultant d'un consentement non-libre, l'analyse de ces données est illicite — c'est ce que nous attaquons.
La chimère du contrôle
Il ne faut pas se tromper sur le soi-disant contrôle que Google nous laisserait sur l'interconnexion de certains types de données (localisation, recherches, vidéos). Par défaut, Google récupère et croise une quantité monstrueuse de données. Il ne suffit pas que l'entreprise nous donne la possibilité de limiter certaines mesures pour que celles-ci deviennent licites. Qui a déjà activé les options limitant la collecte de données personnelles par Google ? L'entreprise tente de s'acheter une image en laissant à l'utilisateur, par un acte volontaire, cette possibilité, en sachant pertinemment que la majorité des utilisateur ne le feront pas. Le consentement est alors dérobé.
Heureusement, le règlement général sur la protection des données (RGPD) a parfaitement anticipé cette tentative de contourner notre volonté. Il prévoit précisément que, pour être valide, notre consentement doit être explicite : « il ne saurait dès lors y avoir de consentement en cas de silence, de cases cochées par défaut ou d'inactivité » (considérant 32). Or, les mesures de surveillance sur lesquelles Google feint de nous laisser un certain contrôle sont « acceptées » par défaut au moyen de cases précochées. Puisqu'elles ne reposent pas sur un consentement explicite, ces mesures sont illicites — nous l'attaquons aussi.
Gmail
Google s'autorise à analyser le contenu des e-mails de ses utilisateurs, envoyés comme reçus. L'entreprise se permet ainsi clairement d'analyser les correspondances de ses utilisateurs. Plus sournois encore, Google lit les conversations avec les correspondants des utilisateurs de Gmail alors que ceux-ci n'ont jamais donné leur consentement et n'ont même jamais été informés de cette surveillance.
De plus, même si Google a annoncé (EN) ne plus souhaiter analyser le contenu des e-mails à des fins publicitaires, ses « règles » continuent à l'y autoriser — rendant ses déclarations bien superficielles.
Dans tous les cas, en dehors de l'analyse à des fins publicitaires, Google entend bien continuer à analyser les contenus des e-mails pour « nourrir » ses algorithmes de prédiction (et les algorithmes de Google sont, sur le long terme, probablement ce que l'entreprise a de plus précieux).
Ainsi, sur Gmail, l'entreprise présente ses algorithmes comme des assistants à la gestion des rendez-vous et des correspondances et en affiche fièrement l'ambition : remplacer les humains dans la multitude de choix qu'elle juge « secondaires » (avec qui parler, quand, pour dire quoi), pour que l'humanité reste concentrée sur ce à quoi elle devrait être dédiée - être productive.
Enfin, s'agissant de son activité traditionnelle — la publicité —, Google ne se cache pas de continuer à analyser les métadonnées des e-mails (qui parle avec qui, quand, à quelle fréquence) pour identifier plus précisément ses utilisateurs et leurs contacts. Cette analyse se retrouve également dans l'application maison de messageries instantanées, Allo : les messages sont par défaut enregistrés sur les serveurs de Google. Pire, les messages vocaux sont écoutés et transcrits par Google et l'utilisateur ne peut pas s'y opposer.
Ces métadonnées, qui sont créées « par des machines, pour des machines », sont bien plus simples à analyser automatiquement que le contenu des e-mails (écrit par des humains, et donc soumis à la subtilité du langage) tout en pouvant révéler des informations au moins aussi intimes : savoir que vous écrivez subitement à un cancerologue peut révéler plus d'informations sur votre état de santé que le détail de ce que vous lui dites, par exemple.
Ici, au cœur de l'activité de Google, plus question de laisser à l'utilisateur le moindre contrôle sur ce qui peut être ou non analysé — pour utiliser Gmail, nous devons entièrement céder notre droit fondamental à la confidentialité de nos communications (ainsi que celui de nos correspondants, malgré eux).
Google nous piste sur le Web
16 % du chiffre d'affaires de Google proviennent de ses activités d'entremetteur publicitaire, qui consiste à mettre en relation des annonceurs avec « plus de deux millions » de sites ou blogs tiers qui souhaitent se rémunérer par la publicité ciblée. Sur chacun de ces sites, c'est Google qui affiche techniquement chaque publicité, et cet affichage lui permet de déposer les cookies et autres pisteurs grâce auxquels il peut retracer la navigation de tout internaute (inscrit ou non à ses services). Ici encore, nous n'avons jamais consenti de façon valide à ce pistage.
De l'exacte même façon, Google nous piste sur les innombrables sites qui ont recours au service Google Analytics. Ce service aide les sites à analyser l'identité de leurs visiteurs, tout en laissant Google accéder aux mêmes informations.
Une simple analyse de trafic2 sur des sites comme lemonde.fr, lefigaro.fr, hadopi.fr ou defense.gouv.fr permet par exemple de constater qu'en accédant à ces sites, diverses requêtes sont envoyées à doubleclick.net (la régie publicitaire de Google) et/ou google-analytics.com, permettant à Google de connaître ne serait-ce que notre adresse IP, la configuration unique de notre navigateur et l'adresse URL de chaque page visitée sur chacun de ces sites.
Les responsables de ces sites sont tout autant responsables que Google de ce pistage illégal - nous nous en prendrons à eux plus tard - par lequel le géant publicitaire peut encore plus précisément nous ficher.
Enfin, Google compte bien étendre sa présence sur l'ensemble du Web en régulant lui-même la publicité : en configurant son navigateur Google Chrome (utilisé par 60 % des internautes) pour qu'il bloque partout sur le Web les publicités qui ne correspondraient pas aux critères (de format, d'ergonomie...) décidés par l'entreprise. Le message est ainsi clair : « si vous voulez faire de la publicité en ligne, utilisez les services Google, vous vous éviterez bien des soucis ! »
D'une pierre trois coups, Google passe d'une part pour un défenseur de la vie privée (puisqu'il bloque certaines publicités intrusives), incite d'autre part les internautes à désactiver les bloqueurs tiers (tel que uBlocks Origin qui neutralise efficacement nombre de traçeurs de Google) puisque que Google Chrome en intègre un par défaut, et incite enfin encore plus d'éditeurs de page Web à afficher ses publicités et donc à intégrer ses traçeurs, partout, tout le temps.
Youtube
La plus grosse plateforme vidéo d'Internet (et le second site le plus visité au monde, d'après Alexa), Youtube, appartient à Google.
Youtube ne se contente pas seulement d'héberger des vidéos : il s'agit d'un véritable média social de contenus multimédia, qui met en relation des individus et régule ces relations.
En effet, lorsqu'une vidéo est visionnée sur Youtube, dans 70 % des cas, l'utilisateur à été amené à cliquer sur cette vidéo via l'algorithme de recommandation de Youtube. Un ancien employé de Youtube, Guillaume Chaslot3, expose les conséquences de cet algorithme. Le but de l'algorithme n'est pas de servir l'utilisateur mais de servir la plateforme, c'est-à-dire de faire en sorte que l'on reste le plus longtemps possible sur la plateforme, devant les publicités. L'employé raconte que lors de la mise en ligne d'une vidéo, celle-ci est d'abord montrée à un échantillon de personnes et n'est recommandée aux autres utilisateurs que si elle a retenu cet échantillon de spectateurs suffisamment longtemps devant l'écran.
Cet algorithme ne se pose pas la question du contenu - de sa nature, de son message… En pratique, cependant, l'ancien employé constate que les contenus les plus mis en avant se trouvent être les contenus agressifs, diffamants, choquants ou complotistes. Guillaume Chaslot compare : « C'est comme une bagarre dans la rue, les gens s'arrêtent pour regarder. »
Nécessairement, on comprend que, en réponse à cet algorithme, de nombreux créateurs de contenus se soient spontanément adaptés, proposant des contenus de plus en plus agressifs.
Dans le but de faire le maximum de vues, Youtube surveille donc le moindre des faits et gestes des utilisateurs afin de les mettre dans la condition la plus propice à recevoir de la publicité et afin de les laisser exposés à cette publicité le plus longtemps possible… mais ce n'est pas tout !
Youtube, désirant ne pas perdre une seconde de visionnage de ses utilisateurs, ne prend pas le risque de leur recommander des contenus trop extravagants et se complait à les laisser dans leur zone de confort. L'ancien employé déclare qu'ils ont refusé plusieurs fois de modifier l'algorithme de façon à ce que celui-ci ouvre l'utilisateur à des contenus inhabituels. Dans ces conditions, le débat public est entièrement déformé, les discussions les plus subtiles ou précises, jugées peu rentables, s'exposant à une censure par enterrement.
De plus, Youtube bénéficie du statut d'hébergeur et n'est donc pas considéré comme étant a priori responsable des propos tenus sur sa plateforme. En revanche, il est tenu de retirer un contenu « manifestement illicite » si celui-ci lui a été notifié. Compte tenu de la quantité de contenus que brasse Youtube, il a décidé d'automatiser la censure des contenus potentiellement « illicites », portant atteinte au droit de certains « auteurs », au moyen de son RobotCopyright, appelé « ContentID ». Pour être reconnu « auteur » sur la plateforme, il faut répondre à des critères fixés par Youtube. Une fois qu'un contenu est protégé par ce droit attribué par Youtube (en pratique, il s'agit en majorité de grosses chaînes de télévision), la plateforme se permet de démonétiser ou supprimer les vidéos réutilisant le contenu « protégé » à la demande de leur « auteurs ».
Un moyen de censure de plus qui démontre que Youtube ne souhaite pas permettre à chacun de s'exprimer (contrairement à son slogan « Broadcast yourself ») mais cherche simplement à administrer l'espace de débat public pour favoriser la centralisation et le contrôle de l'information. Et pour cause, cette censure et cet enfermement dans un espace de confort est le meilleur moyen d'emprisonner les utilisateurs dans son écosystème au service de la publicité.
Contrairement à ce que Google tente de nous faire croire, la surveillance et la censure ne sont pas la condition inévitable pour s'échanger des vidéos en ligne. On peut parfaitement le faire en total respect de nos droits. PeerTube est une plateforme de partage de vidéos proposant les mêmes fonctionnalités que Youtube mais fonctionne avec des rouages différents. Les vidéos ne sont pas toutes hébergées au même endroit : n'importe qui peut créer son instance et héberger chez lui des vidéos. Les différentes instances sont ensuite connectées entre elles. Chaque instance a donc ses propres règles, il n'y a pas une politique de censure unifiée comme sur Youtube, et surtout ces règles ne sont pas dictées par une logique commerciale.
Infiltration de l'open source sur Android, cheval de Troie de la surveillance
Google porte le logiciel Android, son système d'exploitation pour smartphones. En diffusant des outils réutilisables afin d'« aider » les développeurs à développer des applications mobiles pour Android, Google a réussi à faire largement adopter ses « pratiques » par de nombreux développeurs : les codes diffusés contiennent souvent des pisteurs Google et ceux-ci se retrouvent ainsi intégrés dans de nombreuses applications qui, a priori, n'ont absolument aucune raison de révéler à l'entreprise des informations sur leurs utilisateurs.
Par ailleurs, Google tente régulièrement de s'acheter une image au sein du milieu du logiciel libre. Ainsi, les sources de Android sont libres de droit. Cela ne veut pas dire que son développement est ouvert : Google choisit quasiment seul les directions dans le développement du système.
En outre, en plus du système Android stricto sensu, Google impose aux constructeurs de smartphones d'embarquer sur leurs produits les mouchards que sont ses applications. En effet, le marché des applications étant ce qu'il est, les constructeurs de smartphone considèrent qu'un téléphone Android ne se vendra pas s'il n'intègre pas le Play Store (magasin d'applications) fourni par Google.
Or, pour pourvoir accéder au Play Store, un téléphone doit avoir les applications de surveillance de Google. Ces services Google étendent les possibilités du système et deviennent parfois indispensables pour faire fonctionner un certain nombre d'applications4, permettant à l'entreprise de traquer les utilisateurs de smartphones : la géolocalisation continue de l'utilisateur est récupérée, permettant à Google de connaître les habitudes de déplacement des usagers ; la liste des réseaux WiFi est envoyée à Google quand bien même l'utilisateur a désactivé le WiFi de son téléphone ; le Play Store impose de synchroniser son compte Google, permettant un recoupage encore plus fin des données.
Et, bien évidemment, ces services Google ne sont pas libres. Android devient donc le prétexte open-source pour placer dans la poche de l'utilisateur toute une série d'applications Google dont le but est d'espionner. Cela n'empêche pas l'entreprise de communiquer massivement sur ses projets libres très souvent intéressés, à l'image de son dernier outil libre de tracking.
Enfin, l'intégration du Play Store conduit à attribuer automatiquement un identifiant publicitaire unique à chaque utilisateur. Cet identifiant est gratuitement mis à disposition de toutes les applications et, à la façon d'un « méga-cookie », permet aux applications de tracer le comportement des utilisateurs sur l'ensemble des services utilisés. Ici, les outils de surveillance de Google sont gracieusement offerts à des développeurs tiers afin d'attirer le plus grand nombre d'applications sur Android — où Google, au sommet de cette structure, pourra librement surveiller tout un chacun.
1. Des discussions sont en cours entre Alphabet et la Chine afin que le moteur de recherche Google puisse faire son retour. Après avoir initialement accepté la censure d'État, Google a quitté le pays en 2012 en refusant de se plier aux injonctions de censure. Pourtant, Google semble sur la voie d'un nouveau retournement de veste puisque la réintroduction de l'application mobile Translate s'est faite parce que le gouvernement chinois est autorisé à censurer certains termes.
2. La plupart des navigateurs permettent d'analyser très simplement les requêtes faites sur une page Web pour demander, à ce site ou à un tiers, divers contenus : images, scripts, cookies... Vous pouvez voir ici comment faire sur Firefox ou Chrome (EN).
3. Guillaume Chaslot a notamment donné un entretien à ce sujet dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018.
4. Paradoxalement, la messagerie chiffrée Signal, pourtant recommandée par un certain nombre de personnalités comme Edward Snowden pour ses vertus en termes de protection de la vie privée, a pendant longtemps requis que les services Google soient installés sur le téléphone. Aujourd'hui encore, même si cette dépendance n'existe plus, l'application se comportera mieux si les services Google sont présents sur le téléphone.
";s:7:"dateiso";s:15:"20180503_182038";}s:15:"20180502_132450";a:7:{s:5:"title";s:40:"Les comptes 2017 de La Quadrature du Net";s:4:"link";s:110:"https://www.laquadrature.net/fr/https%3A/%252Fwww.laquadrature.net/fr/Les-comptes-2017-de-La-Quadrature-du-Net";s:4:"guid";s:37:"10497 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 02 May 2018 11:24:50 +0000";s:11:"description";s:17675:"
La Quadrature du Net a pour habitude de publier sur son site web ses comptes annuels. Voici ceux de l'année 2017, qui ont été approuvés par l'Assemblée Générale du 1 avril 2018.
Commentaire de présentation
La Quadrature du Net est une association déclarée depuis 2013. La campagne de dons de 2016 a été similaire à la précédente, assurant une fois encore une bonne partie du financement sur 2017, notamment grâce aux dons récurrents et ponctuels qui (hors des temps de campagne de dons) représentent plus de 13 000 € par mois. Grâce à ces campagnes de dons et ces dons individuels réguliers, plus de 70% de notre budget est ainsi assuré.
Les dépenses pour 2017 sont assez similaires à celles de 2016, la majorité des dépenses venant des salaires des permanents et stagiaires de l'association, qui permettent d'assurer son activité au jour le jour.
Benjamin Sonntag pour La Quadrature du Net
Les comptes 2017
Banque 2017
%
1. SOLDE EN DEBUT DE MOIS
Encaissement
A1. Dons LQDN
Dons individuels
263 570,53 €
72%
Dons entreprises
11 652,26 €
3%
Dons fondations
79 693,36 €
22%
Remboursements conférences
3 721,51 €
2%
Financement d’un poste aidé
3 496,80 €
2%
Intérêts financiers
567,89 €
-%
2. TOTAL RECETTES
362 702,35 €
100%
B. Décaissements
B1. d'exploitation
B1.1 Dépenses LQDN
Salaires
163 293,02 €
41%
URSSAF & Tickets Restau
141 115,00 €
35%
Local (Loyer, EDF, Tel)
28 234,65 €
7%
Frais Généraux (poste, service, buro...)
5 470,14 €
2%
Équipements (informatique, vidéo …)
4 387,58 €
1%
Transport
17 109,13 €
4%
Campagnes, Communauté
14 676,40 €
4%
Frais bancaires, Assurance
3 199,49 €
1%
Divers (goodies, projets ponctuels...)
13 079,97 €
3%
Prestations de service
7 445,00 €
2%
3. TOTAL DÉPENSES
398 010,38 €
100%
C1. Epargne
Livret A & Instrument Financier
83 178,55 €
Z1. Totaux
Résultat
-35 304,83 €
Compte courant au 31.12.2017
160 294,96 €
Livret A au 31.12.2017
83 178,55 €
Solde trésorerie
243 473,51 €
";s:7:"content";s:17675:"
La Quadrature du Net a pour habitude de publier sur son site web ses comptes annuels. Voici ceux de l'année 2017, qui ont été approuvés par l'Assemblée Générale du 1 avril 2018.
Commentaire de présentation
La Quadrature du Net est une association déclarée depuis 2013. La campagne de dons de 2016 a été similaire à la précédente, assurant une fois encore une bonne partie du financement sur 2017, notamment grâce aux dons récurrents et ponctuels qui (hors des temps de campagne de dons) représentent plus de 13 000 € par mois. Grâce à ces campagnes de dons et ces dons individuels réguliers, plus de 70% de notre budget est ainsi assuré.
Les dépenses pour 2017 sont assez similaires à celles de 2016, la majorité des dépenses venant des salaires des permanents et stagiaires de l'association, qui permettent d'assurer son activité au jour le jour.
19 avril 2018 - Notre campagne d'actions de groupe commence par Facebook, qui est l'illustration la plus flagrante du modèle que nous dénonçons : rémunérer un service en échange de notre vie privée et de notre liberté de conscience. Détaillons aujourd'hui les conséquences de ses activités.
Alors que le RGPD entre en application dans un mois, Facebook campe sur ses positions et défend son modèle économique, annonçant il y a deux jours que ses services resteraient inaccessibles aux utilisateurs refusant d'être ciblés. Les modifications que l'entreprise souhaiterait faire (EN) pour, soi-disant, donner plus de contrôle à ses utilisateurs, apparaissent dès lors comme bien marginales et anecdotiques.
Revenons en détail sur les conséquences du modèle Facebook.
L'entreprise Facebook
Facebook a été créé il y a 14 ans, notamment par Mark Zuckerberg, son actuel directeur général, et emploie 25 000 salariés. Son chiffre d'affaire de 30 milliards d'euros repose à 98 % sur l'affichage publicitaire, proposé à 2,2 milliards d'utilisateurs actifs. Le site Facebook serait le 3ème site Internet le plus visité (classement Alexa), mais l'entreprise détient également WhatsApp et Messenger (services de messageries), ainsi qu'Instagram (réseau de partage de photos et de vidéos, 17ème site Internet le plus visité).
L'entreprise explique sans pudeur son fonctionnement : des personnes qui souhaitent diffuser un message (une publicité, un article, un événement, etc.) désignent à Facebook un public cible, selon certains critères sociaux, économiques ou de comportement, et paient l'entreprise pour qu'elle diffuse ce message à ce public, dans les meilleures conditions.
Ce fonctionnement implique deux choses : connaître chaque utilisateur, puis afficher les messages devant être diffusés, au bon moment et sous le bon format, pour influencer au mieux les personnes ciblées.
les contenus publics (texte, image, vidéo) que l'on diffuse sur la plateforme (c'est le plus évident, mais loin d'être le plus utile à analyser pour l'entreprise) ;
les messages privés envoyés sur Messenger (qui dit quoi, à qui, quand, à quelle fréquence) ;
la liste des personnes, pages et groupes que l'on suit ou « aime », ainsi que la manière dont on interagit avec ;
la façon dont on utilise le service et accède aux contenus (les articles, photos et vidéos qu'on lit, commente ou « aime », à quel moment, à quelle fréquence et pendant combien de temps) ;
des informations sur l'appareil depuis lequel on accède au service (adresse IP, identifiant publicitaire de l'appareil1, nom des applications, fichiers et plugins présents sur l'appareil, mouvements de la souris, points d’accès Wi-Fi et tours de télécommunication à proximité, accès à la localisation GPS et à l'appareil photo).
L'entreprise explique, toujours sans pudeur, analyser ces données pour nous proposer les contenus payés de la façon la plus « adaptée » (comprendre : de la façon la plus subtile, pour passer notre attention).
Comme on le voit, la majorité des données analysées par Facebook ne sont pas celles que l'on publie spontanément, mais celles qui ressortent de nos activités.
De l'analyse de toutes ces données résulte un nouveau jeu d'informations, qui sont les plus importantes pour Facebook et au sujet desquelles l'entreprise ne nous laisse aucun contrôle : l'ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler.
Ce que Facebook sait de nous
En 2013, l'université de Cambridge a conduit l'étude suivante : 58 000 personnes ont répondu à un test de personnalité, puis ce test a été recoupé à tous leurs « j'aime » laissés sur Facebook. En repartant de leurs seuls « j'aime », l'université a ensuite pu estimer leur couleur de peau (avec 95 % de certitude), leurs orientations politique (85 %) et sexuelle (80 %), leur confession religieuse (82 %), s'ils fumaient (73 %), buvaient (70 %) ou consommaient de la drogue (65 %).
Cette démonstration a permis de mettre en lumière le fonctionnement profond de l'analyse de masse : quand beaucoup d'informations peuvent être recoupées s'agissant d'un très grand nombre de personnes (plus de 2 milliards pour Facebook, rappelons-le), de très nombreuses corrélations apparaissent, donnant l'espoir, fondé ou non, de révéler automatiquement (sans analyse humaine) le détail de la personnalité de chaque individu.
Aujourd'hui, Michal Kosinski, le chercheur ayant dirigé cette étude, continue de dénoncer les dangers de l'analyse de masse automatisée : il explique (EN) que, par une telle analyse de masse, de simples photos pourraient révéler l'orientation sexuelle d'une personne, ses opinions politiques, son QI ou ses prédispositions criminelles. Qu'importe la pertinence des corrélations résultant de telles analyses de masse, c'est bien cette méthode qui a été à la source du fonctionnement de Cambridge Analytica, dont les conséquences politiques sont, elles, bien certaines.
Une application aussi révélatrice qu'inquiétante de telles méthodes est l'ambition (EN) affichée par Facebook de détecter automatiquement les personnes présentant des tendances suicidaires. En dehors de cette initiative discutable2, Facebook révèle ici l'ampleur et le détail des informations nous concernant qu'il espère déduire des analyses de masse qu'il conduit.
Comment Facebook nous influence
Une fois que l'entreprise s'est faite une idée si précise de qui nous sommes, de nos envies, de nos craintes, de notre mode de vie et de nos faiblesses, la route est libre pour nous proposer ses messages au bon moment et sous le bon format, quand ils seront les plus à même d'influencer notre volonté.
L'entreprise s'est elle-même vantée de l'ampleur de cette emprise. En 2012, elle a soumis 700 000 utilisateurs à une expérience (sans leur demander leur consentement ni les informer). Facebook modifiait le fil d'actualité de ces personnes de sorte qu'étaient mis en avant certains contenus qui influenceraient leur humeur, espérant les rendre plus joyeuse pour certaines et plus tristes pour d'autres. L'étude concluait que « les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été “exposés” ».
Cette expérience ne fait que révéler le fonctionnement normal de Facebook : afin de nous influencer, il hiérarchise les informations que nous pouvons consulter sur ses services (le « fil d'actualité » ne représente qu'une faible partie des contenus diffusés par les personnes que nous suivons, car ces contenus sont sélectionnés et triés par Facebook).
Cette hiérarchisation de l'information ne se contente pas d'écraser notre liberté de conscience personnelle : elle a aussi pour effet de distordre entièrement le débat public, selon des critères purement économiques et opaques, ce dont la sur-diffusion de « fakenews » n'est qu'un des nombreux symptômes.
Dans son étude annuelle de 2017, le Conseil d'État mettait en garde contre la prétendue neutralité des algorithmes dans la mise en œuvre du tri : les algorithmes sont au service de la maximisation du profit des plateformes et sont dès lors conçus pour favoriser les revenus au détriment de la qualité de l'information.
Pourquoi c'est illégal ?
Dans ses toutes nouvelles conditions d'utilisation, revues pour l'entrée en application du RGPD, Facebook explique qu'il considère être autorisé à surveiller et influencer les utilisateurs au motif que ceux-ci auraient consenti à un contrat qui le prévoirait. Or, en droit, ce contrat ne suffit en aucun cas à rendre légale ces pratiques.
Le RGPD prévoit que notre consentement n'est pas valide, car non-libre, « si l'exécution d'un contrat, y compris la fourniture d'un service, est subordonnée au consentement au traitement de données à caractère personnel qui n'est pas nécessaire à l'exécution dudit contrat » (article 7, §4, et considérant 43 du RGPD, interprétés par le groupe de l'article 29).
Cette exigence d'un consentement libre se répercute sur la validité des dispositions qui, dans le contrat passé avec Facebook, autoriseraient ce dernier à nous surveiller et nous influencer.
En 2017, la CNIL a condamné Facebook à 150 000 euros d'amende pour avoir réalisé ses traitements sans base légale. Elle considérait alors que « l’objet principal du service est la fourniture d’un réseau social [...], que la combinaison des données des utilisateurs à des fins de ciblage publicitaire ne correspond ni à l’objet principal du contrat ni aux attentes raisonnables des utilisateurs [et qu'il incombe donc à Facebook] de veiller à ce que les droits des personnes concernées soient respectés et notamment à ce que l’exécution d’un contrat ne les conduise pas à y renoncer ». Ainsi, la CNIL « estime que les sociétés ne peuvent se prévaloir du recueil du consentement des utilisateurs [ni] de la nécessité liée à l’exécution d’un contrat ».
Puisque le contrat passé avec Facebook n'autorise pas la surveillance décrite ci-dessus, celle-ci est illicite - c'est le cœur de nos actions de groupe ! Malheureusement, les méfaits de Facebook dépassent son propre site.
Comment Facebook collabore avec des tiers
Facebook ne cache plus son activité de traçage un peu partout sur le Web, même s'agissant de personnes n'ayant pas de compte Facebook (qui se voient alors créer un « profil fantôme »).
Les méthodes de pistage sont nombreuses :
des cookies (fichiers enregistrés sur votre appareil permettant à Facebook de vous identifier d'un site à l'autre) ;
des boutons « J'aime » ou « Partager » affichés sur de nombreux sites (ces boutons, hébergés sur les serveurs de Facebook, sont directement téléchargés par l'utilisateur, indiquant ainsi automatiquement à Facebook leur adresse IP, la configuration unique de leur navigateur et l'URL de la page visitée) ;
des pixels invisibles (images transparentes de 1x1 pixel) fonctionnant comme les boutons, dont le seul but est d'être téléchargés pour transmettre à Facebook les informations de connexion ;
Facebook Login, que certains sites ou applications (Tinder, typiquement) utilisent comme outil pour authentifier leurs utilisateurs.
Les personnes ciblées en sont rarement informées ou leur consentement n'est pas obtenu. Facebook se dédouane de cette responsabilité en la faisant peser sur les sites et applications ayant integré ses traçeurs. Bien que ces sites et applications soient bien responsables juridiquement, Facebook l'est tout autant, l'entreprise étant régulièrement condamnée pour ce pistage illicite, sans pour autant y mettre un terme :
en 2015 puis 2018, la CNIL puis la justice belge lui ont demandé d'y mettre un terme, avec une astreinte de 250 000 € par jour ;
en 2017, la CNIL française l'a condamné à 150 000 € d'amende (montant maximum, à l'époque) ;
en 2017, la CNIL espagnole l'a condamné à 1 200 000 € d'amende.
Facebook trace également sur smartphone
L'entreprise ne s'intéresse pas seulement aux habitudes de navigation des internautes. Les applications sur téléphone mobile sont également une cible. En fournissant une série d'outils aux développeurs d'applications, Facebook va s'incruster dans ce nouveau monde. Dès qu'une application veut se connecter à Facebook, pour une raison ou une autre, un certain nombre de données personnelles sont transmises, souvent sans lien direct avec le but initial de l'application et, souvent aussi, sans que l'utilisateur n'en soit même informé.
L'association Exodus Privacy a mis en évidence l'omniprésence de ces traqueurs dans les applications mobiles. Si certains traqueurs affichent leurs intentions (cibler les utilisateurs à des fins publicitaires), d'autres ont un fonctionnement parfaitement opaque. Ainsi, nous avons pu observer que l'application Pregnancy + récolte les informations privées de l'enfant à naître (afin d'accompagner les parents dans la naissance) et les transmet à Facebook (semaine de grossesse et mois de naissance attendu). Sur son site, l'application explique simplement transmettre à des tiers certaines données pour assurer le bon fonctionnement du service… Grâce à Pregnancy +, votre enfant a déjà son compte Facebook avant même d'être né !
Autre exemple flagrant : en analysant les données émises par l'application Diabetes:M, on constate qu'elle envoie à Facebook l'« advertising ID » de l'utilisateur, donnant ainsi à Facebook une liste de personnes atteintes de diabète. Sur son site, l'application se contente d'expliquer travailler avec des réseaux publicitaires, sans autre détail…
WhatsApp et Instagram
Évidemment, la surveillance exercée par Facebook va s'étendre à ses deux grandes filliales : sa messagerie, WhatsApp, et le réseau social d'image et de vidéo, Instagram.
Le rachat de WhatsApp a mis en lumière le comportement de sa maison mère. La Commission européenne a d'abord sanctionné Facebook d'une amende de 110 millions d'euros sur le plan du droit de la concurrence, puis la CNIL française s'est prononcée sur le plan des données personnelles. En décembre dernier, elle a mis en demeure Facebook d'arrêter d'imposer aux utilisateurs de WhatsApp d'accepter que leurs informations soient transférées au réseau social.
Encore une fois, c'est le consentement libre qui faisait défaut : WhatsApp ne pouvait pas être utilisé sans donner son consentement à des mesures purement publicitaires. Ceci est désormais clairement interdit.
Comment Facebook peut-il survivre s'il ne peut plus se financer sur nos données ?
Le modèle économique de Facebook est en train d'être drastiquement remis en cause. Il n'est plus permis de rémunérer un service en contrepartie de libertés fondamentales. Facebook ne va pas forcément disparaître, mais ne pourra plus continuer à se rémunérer de la même façon.
Mais qu'importe : nous n'avons pas besoin de Facebook pour pouvoir continuer d'utiliser des services gratuits et de qualité. Il existe déjà de nombreuses alternatives aux services des GAFAM qui sont réellement gratuites (c'est-à-dire qui n'impliquent pas de « monnayer » nos libertés), car leur financement repose sur le modèle originel d'Internet : la décentralisation, qui permet la mutualisation des coûts en stockage, en calcul et en bande passante.
Par exemple, La Quadrature du Net fournit à plus de 9 000 personnes l'accès au réseau Mastodon, une alternative libre et décentralisée à Twitter. Nous fournissons cet accès sur Mamot.fr, qui n'est que l'un des milliers de nœuds du réseau, chaque nœud étant interconnecté avec les autres. Ceci permet de répartir les coûts entre de très nombreux acteurs qui peuvent ainsi plus facilement les supporter (sans avoir à se financer par la surveillance de masse).
Rejoindre collectivement ces alternatives est bien l'objectif final de nos actions, mais nous pensons pouvoir n'y parvenir qu'une fois chacun et chacune libérée de l'emprise des GAFAM. Nous pourrons alors construire l'Internet de nos rêves, libre et décentralisé, que notre alliée Framasoft construit déjà chaque jour ardemment !
1. Cet identifiant publicitaire est unique pour toutes les applications de l'appareil, même si l'utilisateur peut choisir de le réinitialiser.
2. Les personnes « aidées » le sont par une surveillance de leurs comportements par un acteur privé dont le rôle n'est pas d'être une aide sociale mais un vendeur de publicité ciblée.
";s:7:"content";s:20987:"
19 avril 2018 - Notre campagne d'actions de groupe commence par Facebook, qui est l'illustration la plus flagrante du modèle que nous dénonçons : rémunérer un service en échange de notre vie privée et de notre liberté de conscience. Détaillons aujourd'hui les conséquences de ses activités.
Alors que le RGPD entre en application dans un mois, Facebook campe sur ses positions et défend son modèle économique, annonçant il y a deux jours que ses services resteraient inaccessibles aux utilisateurs refusant d'être ciblés. Les modifications que l'entreprise souhaiterait faire (EN) pour, soi-disant, donner plus de contrôle à ses utilisateurs, apparaissent dès lors comme bien marginales et anecdotiques.
Revenons en détail sur les conséquences du modèle Facebook.
L'entreprise Facebook
Facebook a été créé il y a 14 ans, notamment par Mark Zuckerberg, son actuel directeur général, et emploie 25 000 salariés. Son chiffre d'affaire de 30 milliards d'euros repose à 98 % sur l'affichage publicitaire, proposé à 2,2 milliards d'utilisateurs actifs. Le site Facebook serait le 3ème site Internet le plus visité (classement Alexa), mais l'entreprise détient également WhatsApp et Messenger (services de messageries), ainsi qu'Instagram (réseau de partage de photos et de vidéos, 17ème site Internet le plus visité).
L'entreprise explique sans pudeur son fonctionnement : des personnes qui souhaitent diffuser un message (une publicité, un article, un événement, etc.) désignent à Facebook un public cible, selon certains critères sociaux, économiques ou de comportement, et paient l'entreprise pour qu'elle diffuse ce message à ce public, dans les meilleures conditions.
Ce fonctionnement implique deux choses : connaître chaque utilisateur, puis afficher les messages devant être diffusés, au bon moment et sous le bon format, pour influencer au mieux les personnes ciblées.
les contenus publics (texte, image, vidéo) que l'on diffuse sur la plateforme (c'est le plus évident, mais loin d'être le plus utile à analyser pour l'entreprise) ;
les messages privés envoyés sur Messenger (qui dit quoi, à qui, quand, à quelle fréquence) ;
la liste des personnes, pages et groupes que l'on suit ou « aime », ainsi que la manière dont on interagit avec ;
la façon dont on utilise le service et accède aux contenus (les articles, photos et vidéos qu'on lit, commente ou « aime », à quel moment, à quelle fréquence et pendant combien de temps) ;
des informations sur l'appareil depuis lequel on accède au service (adresse IP, identifiant publicitaire de l'appareil1, nom des applications, fichiers et plugins présents sur l'appareil, mouvements de la souris, points d’accès Wi-Fi et tours de télécommunication à proximité, accès à la localisation GPS et à l'appareil photo).
L'entreprise explique, toujours sans pudeur, analyser ces données pour nous proposer les contenus payés de la façon la plus « adaptée » (comprendre : de la façon la plus subtile, pour passer notre attention).
Comme on le voit, la majorité des données analysées par Facebook ne sont pas celles que l'on publie spontanément, mais celles qui ressortent de nos activités.
De l'analyse de toutes ces données résulte un nouveau jeu d'informations, qui sont les plus importantes pour Facebook et au sujet desquelles l'entreprise ne nous laisse aucun contrôle : l'ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler.
Ce que Facebook sait de nous
En 2013, l'université de Cambridge a conduit l'étude suivante : 58 000 personnes ont répondu à un test de personnalité, puis ce test a été recoupé à tous leurs « j'aime » laissés sur Facebook. En repartant de leurs seuls « j'aime », l'université a ensuite pu estimer leur couleur de peau (avec 95 % de certitude), leurs orientations politique (85 %) et sexuelle (80 %), leur confession religieuse (82 %), s'ils fumaient (73 %), buvaient (70 %) ou consommaient de la drogue (65 %).
Cette démonstration a permis de mettre en lumière le fonctionnement profond de l'analyse de masse : quand beaucoup d'informations peuvent être recoupées s'agissant d'un très grand nombre de personnes (plus de 2 milliards pour Facebook, rappelons-le), de très nombreuses corrélations apparaissent, donnant l'espoir, fondé ou non, de révéler automatiquement (sans analyse humaine) le détail de la personnalité de chaque individu.
Aujourd'hui, Michal Kosinski, le chercheur ayant dirigé cette étude, continue de dénoncer les dangers de l'analyse de masse automatisée : il explique (EN) que, par une telle analyse de masse, de simples photos pourraient révéler l'orientation sexuelle d'une personne, ses opinions politiques, son QI ou ses prédispositions criminelles. Qu'importe la pertinence des corrélations résultant de telles analyses de masse, c'est bien cette méthode qui a été à la source du fonctionnement de Cambridge Analytica, dont les conséquences politiques sont, elles, bien certaines.
Une application aussi révélatrice qu'inquiétante de telles méthodes est l'ambition (EN) affichée par Facebook de détecter automatiquement les personnes présentant des tendances suicidaires. En dehors de cette initiative discutable2, Facebook révèle ici l'ampleur et le détail des informations nous concernant qu'il espère déduire des analyses de masse qu'il conduit.
Comment Facebook nous influence
Une fois que l'entreprise s'est faite une idée si précise de qui nous sommes, de nos envies, de nos craintes, de notre mode de vie et de nos faiblesses, la route est libre pour nous proposer ses messages au bon moment et sous le bon format, quand ils seront les plus à même d'influencer notre volonté.
L'entreprise s'est elle-même vantée de l'ampleur de cette emprise. En 2012, elle a soumis 700 000 utilisateurs à une expérience (sans leur demander leur consentement ni les informer). Facebook modifiait le fil d'actualité de ces personnes de sorte qu'étaient mis en avant certains contenus qui influenceraient leur humeur, espérant les rendre plus joyeuse pour certaines et plus tristes pour d'autres. L'étude concluait que « les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été “exposés” ».
Cette expérience ne fait que révéler le fonctionnement normal de Facebook : afin de nous influencer, il hiérarchise les informations que nous pouvons consulter sur ses services (le « fil d'actualité » ne représente qu'une faible partie des contenus diffusés par les personnes que nous suivons, car ces contenus sont sélectionnés et triés par Facebook).
Cette hiérarchisation de l'information ne se contente pas d'écraser notre liberté de conscience personnelle : elle a aussi pour effet de distordre entièrement le débat public, selon des critères purement économiques et opaques, ce dont la sur-diffusion de « fakenews » n'est qu'un des nombreux symptômes.
Dans son étude annuelle de 2017, le Conseil d'État mettait en garde contre la prétendue neutralité des algorithmes dans la mise en œuvre du tri : les algorithmes sont au service de la maximisation du profit des plateformes et sont dès lors conçus pour favoriser les revenus au détriment de la qualité de l'information.
Pourquoi c'est illégal ?
Dans ses toutes nouvelles conditions d'utilisation, revues pour l'entrée en application du RGPD, Facebook explique qu'il considère être autorisé à surveiller et influencer les utilisateurs au motif que ceux-ci auraient consenti à un contrat qui le prévoirait. Or, en droit, ce contrat ne suffit en aucun cas à rendre légale ces pratiques.
Le RGPD prévoit que notre consentement n'est pas valide, car non-libre, « si l'exécution d'un contrat, y compris la fourniture d'un service, est subordonnée au consentement au traitement de données à caractère personnel qui n'est pas nécessaire à l'exécution dudit contrat » (article 7, §4, et considérant 43 du RGPD, interprétés par le groupe de l'article 29).
Cette exigence d'un consentement libre se répercute sur la validité des dispositions qui, dans le contrat passé avec Facebook, autoriseraient ce dernier à nous surveiller et nous influencer.
En 2017, la CNIL a condamné Facebook à 150 000 euros d'amende pour avoir réalisé ses traitements sans base légale. Elle considérait alors que « l’objet principal du service est la fourniture d’un réseau social [...], que la combinaison des données des utilisateurs à des fins de ciblage publicitaire ne correspond ni à l’objet principal du contrat ni aux attentes raisonnables des utilisateurs [et qu'il incombe donc à Facebook] de veiller à ce que les droits des personnes concernées soient respectés et notamment à ce que l’exécution d’un contrat ne les conduise pas à y renoncer ». Ainsi, la CNIL « estime que les sociétés ne peuvent se prévaloir du recueil du consentement des utilisateurs [ni] de la nécessité liée à l’exécution d’un contrat ».
Puisque le contrat passé avec Facebook n'autorise pas la surveillance décrite ci-dessus, celle-ci est illicite - c'est le cœur de nos actions de groupe ! Malheureusement, les méfaits de Facebook dépassent son propre site.
Comment Facebook collabore avec des tiers
Facebook ne cache plus son activité de traçage un peu partout sur le Web, même s'agissant de personnes n'ayant pas de compte Facebook (qui se voient alors créer un « profil fantôme »).
Les méthodes de pistage sont nombreuses :
des cookies (fichiers enregistrés sur votre appareil permettant à Facebook de vous identifier d'un site à l'autre) ;
des boutons « J'aime » ou « Partager » affichés sur de nombreux sites (ces boutons, hébergés sur les serveurs de Facebook, sont directement téléchargés par l'utilisateur, indiquant ainsi automatiquement à Facebook leur adresse IP, la configuration unique de leur navigateur et l'URL de la page visitée) ;
des pixels invisibles (images transparentes de 1x1 pixel) fonctionnant comme les boutons, dont le seul but est d'être téléchargés pour transmettre à Facebook les informations de connexion ;
Facebook Login, que certains sites ou applications (Tinder, typiquement) utilisent comme outil pour authentifier leurs utilisateurs.
Les personnes ciblées en sont rarement informées ou leur consentement n'est pas obtenu. Facebook se dédouane de cette responsabilité en la faisant peser sur les sites et applications ayant integré ses traçeurs. Bien que ces sites et applications soient bien responsables juridiquement, Facebook l'est tout autant, l'entreprise étant régulièrement condamnée pour ce pistage illicite, sans pour autant y mettre un terme :
en 2015 puis 2018, la CNIL puis la justice belge lui ont demandé d'y mettre un terme, avec une astreinte de 250 000 € par jour ;
en 2017, la CNIL française l'a condamné à 150 000 € d'amende (montant maximum, à l'époque) ;
en 2017, la CNIL espagnole l'a condamné à 1 200 000 € d'amende.
Facebook trace également sur smartphone
L'entreprise ne s'intéresse pas seulement aux habitudes de navigation des internautes. Les applications sur téléphone mobile sont également une cible. En fournissant une série d'outils aux développeurs d'applications, Facebook va s'incruster dans ce nouveau monde. Dès qu'une application veut se connecter à Facebook, pour une raison ou une autre, un certain nombre de données personnelles sont transmises, souvent sans lien direct avec le but initial de l'application et, souvent aussi, sans que l'utilisateur n'en soit même informé.
L'association Exodus Privacy a mis en évidence l'omniprésence de ces traqueurs dans les applications mobiles. Si certains traqueurs affichent leurs intentions (cibler les utilisateurs à des fins publicitaires), d'autres ont un fonctionnement parfaitement opaque. Ainsi, nous avons pu observer que l'application Pregnancy + récolte les informations privées de l'enfant à naître (afin d'accompagner les parents dans la naissance) et les transmet à Facebook (semaine de grossesse et mois de naissance attendu). Sur son site, l'application explique simplement transmettre à des tiers certaines données pour assurer le bon fonctionnement du service… Grâce à Pregnancy +, votre enfant a déjà son compte Facebook avant même d'être né !
Autre exemple flagrant : en analysant les données émises par l'application Diabetes:M, on constate qu'elle envoie à Facebook l'« advertising ID » de l'utilisateur, donnant ainsi à Facebook une liste de personnes atteintes de diabète. Sur son site, l'application se contente d'expliquer travailler avec des réseaux publicitaires, sans autre détail…
WhatsApp et Instagram
Évidemment, la surveillance exercée par Facebook va s'étendre à ses deux grandes filliales : sa messagerie, WhatsApp, et le réseau social d'image et de vidéo, Instagram.
Le rachat de WhatsApp a mis en lumière le comportement de sa maison mère. La Commission européenne a d'abord sanctionné Facebook d'une amende de 110 millions d'euros sur le plan du droit de la concurrence, puis la CNIL française s'est prononcée sur le plan des données personnelles. En décembre dernier, elle a mis en demeure Facebook d'arrêter d'imposer aux utilisateurs de WhatsApp d'accepter que leurs informations soient transférées au réseau social.
Encore une fois, c'est le consentement libre qui faisait défaut : WhatsApp ne pouvait pas être utilisé sans donner son consentement à des mesures purement publicitaires. Ceci est désormais clairement interdit.
Comment Facebook peut-il survivre s'il ne peut plus se financer sur nos données ?
Le modèle économique de Facebook est en train d'être drastiquement remis en cause. Il n'est plus permis de rémunérer un service en contrepartie de libertés fondamentales. Facebook ne va pas forcément disparaître, mais ne pourra plus continuer à se rémunérer de la même façon.
Mais qu'importe : nous n'avons pas besoin de Facebook pour pouvoir continuer d'utiliser des services gratuits et de qualité. Il existe déjà de nombreuses alternatives aux services des GAFAM qui sont réellement gratuites (c'est-à-dire qui n'impliquent pas de « monnayer » nos libertés), car leur financement repose sur le modèle originel d'Internet : la décentralisation, qui permet la mutualisation des coûts en stockage, en calcul et en bande passante.
Par exemple, La Quadrature du Net fournit à plus de 9 000 personnes l'accès au réseau Mastodon, une alternative libre et décentralisée à Twitter. Nous fournissons cet accès sur Mamot.fr, qui n'est que l'un des milliers de nœuds du réseau, chaque nœud étant interconnecté avec les autres. Ceci permet de répartir les coûts entre de très nombreux acteurs qui peuvent ainsi plus facilement les supporter (sans avoir à se financer par la surveillance de masse).
Rejoindre collectivement ces alternatives est bien l'objectif final de nos actions, mais nous pensons pouvoir n'y parvenir qu'une fois chacun et chacune libérée de l'emprise des GAFAM. Nous pourrons alors construire l'Internet de nos rêves, libre et décentralisé, que notre alliée Framasoft construit déjà chaque jour ardemment !
1. Cet identifiant publicitaire est unique pour toutes les applications de l'appareil, même si l'utilisateur peut choisir de le réinitialiser.
2. Les personnes « aidées » le sont par une surveillance de leurs comportements par un acteur privé dont le rôle n'est pas d'être une aide sociale mais un vendeur de publicité ciblée.
";s:7:"dateiso";s:15:"20180419_180557";}s:15:"20180418_132722";a:7:{s:5:"title";s:63:"Détection des cyberattaques : une nouvelle loi de surveillance";s:4:"link";s:81:"https://www.laquadrature.net/fr/Detection_cyberattaques_nouvelle_loi_surveillance";s:4:"guid";s:37:"10473 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 18 Apr 2018 11:27:22 +0000";s:11:"description";s:35154:"
Le 18 avril 2018 - Le nouveau projet de loi de programmation militaire (LPM), présenté en Conseil des ministres le 8 février dernier et adopté en première lecture par l'Assemblée nationale le 27 mars, comporte un volet axé sur la cybersécurité. Les enjeux sont importants : lutter contre les attaques informatiques sur les réseaux. Sauf que le dispositif envisagé, reposant sur des boîtes noires – ces sondes dédiées à l'analyse du trafic Internet et placées en différents points du réseau – sous l'égide de l'ANSSI et des grands opérateurs télécoms, ouvre une brèche immense qui, de nouveau, fait planer le spectre d'une surveillance massive de nos communications.
La loi de programmation militaire (LPM) est un exercice législatif qui revient en France tous les 5 ans. La dernière LPM, adoptée en 2013 pour les années 2014-2019, étendait les accès administratifs aux données de connexion. Avec un certain retard, La Quadrature du Net s'était mobilisée contre cette disposition introduite par voie d'amendement lors des débats législatifs puis, avec l'aide des Exégètes amateurs, à travers un recours devant le Conseil d'État.
Cette année, la LPM revient avec une nouvelle mouture pour les années 2019-2025. Dans sa partie « cyber-défense » (chapitre III), ce texte modifie le code de la défense pour donner plus de moyens à l'ANSSI (Agence nationale de sécurité des systèmes d'information) pour veiller à l'intégrité et à la sécurité des réseaux. Et cette année encore, La Quadrature accuse un retard coupable. Alors que certains de ses membres s'étaient rendus le 12 février dernier à une réunion de présentation du projet de loi organisée à l'initiative de l'ANSSI, nous n'avions toujours pas donné notre avis sur le dispositif. Mieux vaut tard que jamais.
Ce texte sécuritaire fourre-tout qui fait l'objet d'un examen express pose problème en tant que tel. Il résulte en effet d'une volonté de faire passer des dispositions portant atteinte aux droits fondamentaux dans le cadre d'une loi de programmation budgétaire, alors qu'elles mériteraient un débat spécifique et approfondi. À cet égard, les dispositions relatives à la cyberdéfense que nous analysons ici doivent se lire dans un contexte plus global : le projet de loi prévoit également l'acquisition de deux drones Reaper militarisés, autorise le recueil de données génétiques par les militaires français à l'étranger, acte la montée en puissance des activités militaires dédiés à la lutte informatique offensive avec la création de 1500 nouveaux postes dédiés, et accorde une immunité pénale à ces « cyber-attaquants », en autres choses.
Ici, nous nous concentrons donc sur la détection des cyberattaques. À ce stade, le Sénat entame donc l'examen du texte en première lecture. S'il est sans doute illusoire d'espérer un rejet en bloc du dispositif, il est encore temps de corriger les sérieux problèmes contenus dans ce texte. Car en l'état, ce dispositif est flou, déséquilibré et attentatoire aux libertés.
Une collaboration entre l'ANSSI et les opérateurs volontaires
En premier lieu, la nouvelle LPM tend à favoriser les mesures de sécurité prises volontairement par les opérateurs de télécommunications1. La réglementation sur la neutralité du Net2 et celle sur la confidentialité des communications3 autorisent déjà les opérateurs de télécommunications à analyser les données de connexion (adresse IP, taille des paquets, port...) afin de « préserver l’intégrité et la sûreté du réseau, des services fournis par l’intermédiaire de ce réseau et des équipements terminaux des utilisateurs finals ».
Cette possibilité, réaffirmée par cette LPM, est complétée par celle de collaborer avec l'ANSSI, en lui transmettant les informations sur les menaces détectées et en utilisant les renseignements transmis par l'ANSSI afin de mieux cibler leurs activités de détection. À cela s'ajoute la possibilité pour l'ANSSI d'obliger les opérateurs à indiquer à leurs abonnés que la sécurité de leurs réseau a été compromise.
Dans la mesure où ces mesures restent volontaires (elles ne sont pas imposées selon les instructions de l'ANSSI), ce dispositif peut paraître légitime. Encore faut-il que l'usage des sondes soit autorisé par les abonnés concernés, qu'il soit transparent et rigoureusement contrôlé. Or, c'est loin d'être le cas.
Les opérateurs doivent être mandatés par leurs abonnés
Il manque un élément clef : le mandat de l'abonné pour la surveillance de son trafic par l'opérateur. Sans cela, ces sondes scrutant l'ensemble du trafic sont une atteinte directe au secret des correspondances, et constituent de ce point de vue un système de surveillance des abonnés. Cette surveillance étant alors opérée par un acteur privé, sans aucun contrôle.
En s'assurant que cette surveillance du trafic résulte d'une demande de l'abonné, le paradigme change. L'opérateur devient agent de l'abonné, agissant à son compte pour les questions de sécurité des systèmes, et l'abonné peut à tout moment décider de retirer sa confiance à cet agent délégataire. On peut supposer que, le secret des communications électroniques étant un principe général du droit des télécoms, la nécessité absolue de cet accord est implicite. Reste que la précision est nécessaire pour éviter tout abus.
Garantir un usage transparent et contrôlé des sondes
Par ailleurs, il faut qu'une autorité de contrôle puisse s'assurer de la bonne utilisation de ces sondes extrêmement dangereuses sur le plan de la vie privée, et qu'elle puisse faire la transparence sur l'utilisation de ces outils maniés par des acteurs privés. Cette autorité, ce devrait être l'ARCEP, à qui le projet de loi donne quelques compétences s'agissant des pouvoirs nouveaux octroyés par l'ANSSI (compétences utilement précisées et renforcées par l'Assemblée nationale, voir plus bas).
Même si le Code des postes et des communications électroniques prévoit bien que l'ARCEP contrôle le respect par les opérateurs de leurs obligations en matière de confidentialité des communications4 et en matière de neutralité du Net, le projet de loi ne prévoit rien de spécifique s'agissant de ces activités de détection de cyberattaques appelées à monter en puissance. La précision aurait sans doute de l'intérêt pour obliger l'ARCEP à les contrôler régulièrement et de manière inopinée, le cas échéant à sanctionner les abus, et à communiquer publiquement sur la nature et les suites données à ces contrôles.
Les nouvelles boîtes noires imposées par l'ANSSI
La nouvelle LPM entend également permettre à l'ANSSI d'agir directement sur les réseaux, en déployant ses propres « boîtes noires » sur les systèmes des opérateurs et fournisseurs d'accès à Internet, ainsi que ceux des hébergeurs5. Suite à un amendement adopté à l'Assemblée, le non-respect de ces obligations par les opérateurs et hébergeurs est désormais passible de sanctions (un an d’emprisonnement et 75 000 euros d’amende).
Ces boîtes noires sont définies comme « un système de détection recourant à des marqueurs techniques à seules fins de détecter des événements susceptibles d’affecter la sécurité des systèmes d’information » (dans une formulation d'ailleurs très proche de celle donnée en 2015 dans la loi renseignement)6. La LPM limite l'utilisation des ces sondes aux cas où l'ANSSI « a connaissance d’une menace susceptible de porter atteinte à la sécurité des systèmes d’information des autorités publiques ou des opérateurs » d'importance vitale (centrale électrique, aéroport, opérateurs télécoms, industries de défense, etc.). Or, ainsi définies, ces dispositions confèrent à l'ANSSI un pouvoir excessif.
Une atteinte injustifiée à la confidentialité des communications
La notion de « données techniques » ou « marqueurs techniques » utilisée dans le projet de loi n'a aucune définition juridique ou technique. Comme l'a relevé le journaliste Marc Rees, il s'agit bel et bien par ce vocable de contourner la jurisprudence constitutionnelle protégeant la confidentialité des communications, pour surveiller le contenu des communications et non les seules métadonnées. D'ailleurs, Guillaume Poupard, le directeur de l'ANSSI, ne se cache pas de la volonté de regarder dans le détail le contenu des communications. Lors de son audition à l'Assemblée nationale, il expliquait ainsi :
Il va donc de soi que nous traitons des données, y compris des données personnelles. C’est pourquoi le texte ne loi ne saurait comprendre une disposition visant à rassurer qui interdirait de toucher aux données personnelles : nous y touchons de fait. L’essentiel est que la finalité reste la détection et que l’on s’en tienne aux données strictement nécessaires et signifiantes. Prenons un exemple : le travail de détection consiste parfois à chercher au fin fond de pièces jointes, dans des courriers électroniques, pour y détecter un éventuel virus caché.
Entendue ainsi, la notion de « marqueurs techniques » contrevient donc directement au secret des correspondances. Or, Guillaume Poupard reconnaît lui-même que beaucoup peut déjà être fait à partir des seules métadonnées (qui renvoient en droit français aux termes de « données de connexion » ou d'« informations et documents », utilisés par exemple par la loi renseignement)7. Ci ces métadonnées peuvent déjà révéler beaucoup d'informations sur notre vie, limiter le pouvoir de surveillance de l'ANSSI à ces seules métadonnées aurait au moins le mérite de ne pas anéantir l'ensemble de l'édifice juridique qui protège encore un tant soit peu peu la confidentialité de nos communications.
Quel degré de surveillance pour quelles menaces ?
De même, la LPM n'établit aucun lien de causalité entre la menace pour les autorités publiques et les opérateurs d'importance vitale, d'un côté, et, de l'autre, les « événements susceptibles d’affecter la sécurité des systèmes » que les boîtes noires doivent détecter. Un tel lien doit être établi afin que l'ANSSI ne puisse analyser le trafic qu'aux seuls points du réseau où elle pourra détecter les menaces affectant les seules autorités et opérateurs qu'elle est censée protéger. Une précision par ailleurs indispensable pour permettre aux opérateurs concernés et à l'ARCEP, qui contrôlera l'action de l'ANSSI dans ce domaine, de s'assurer de la proportionnalité de la mesure de surveillance engagée.
Enfin, la notion de « menace » pour les autorités et opérateurs dont l'ANSSI est chargée d'assurer la protection est également très floue. L'étude d'impact de la loi parle d'une vingtaine de menaces par an seulement qui seraient suffisamment graves pour justifier de telles pratiques. Or, la loi n'offre aucun critère pour les limiter de la sorte et empêcher que des boîtes noires ne soient déployées constamment et en tout point pour prévenir n'importe quel type de menace plus ou moins abstraite – ce qui serait parfaitement injustifiable. Là encore, ces éléments de doctrine doivent figurer dans la loi, et faire l'objet d'une information régulière et transparente afin de permettre aux citoyens et à l'ensemble des acteurs concernés par ces mesures de pouvoir juger de leur proportionnalité.
Une durée de conservation doublée, sans raison valable
Alors que le projet de loi du gouvernement prévoyait que l'ANSSI puisse conserver pendant une durée maximale de 5 ans les « données techniques » collectées, la commission de la Défense nationale de l'Assemblée nationale a doublé cette durée à l'initiative du rapporteur, Jean-Jacques Bridey (député LREM), en la portant à 10 ans. Cette durée semble excessive puisque, comme on l'a vu, les données techniques recueillies sont très souvent des données à caractère personnel. 5 ans paraissent déjà très longs quand on sait que la loi renseignement limite à un mois après leur collecte la durée de conservation du contenu des correspondances.
Les responsables de l'ANSSI irresponsables ?
Quand bien même les nouveaux pouvoirs donnés à l'ANSSI seraient mieux limités, une autorité indépendante doit pouvoir s'assurer que ces pouvoirs ne sont dévoyés à des fins politiques ou de contrôle de la population. Or, le contrôle des activités de l'ANSSI par l'ARCEP, prévu dans le projet de loi, manque singulièrement de mordant.
D'abord, comme l'a souligné l'ARCEP dans son avis rendu sur le projet de loi, se pose d'abord la question du renforcement de ses moyens pour garantir sa capacité à contrôler l'ANSSI. Ensuite, en dépit des précisions apportées par l'Assemblée s'agissant des modalités de ce contrôle8, le texte ne prévoit qu'un contrôle distant, sur la foi de rapports et de documents, mais loin du terrain. Aucune possibilité de contrôler le fonctionnement des sondes installées sur les infrastructures des opérateurs télécoms ou des hébergeurs n'est prévue. Le projet de loi ne prévoit pas non plus que ces derniers puissent saisir l'ARCEP pour faire obstacle aux demandes de l'ANSSI.
Enfin, si elle constate des abus, l'ARCEP ne pourra qu'adopter des recommandations à l'adresse de l'ANSSI. Le texte ne prévoit aucune sanction. Pour faire en sorte que les nouveaux pouvoirs de l'ANSSI soient dûment encadrés, il faudrait aussi poser explicitement dans la loi le fait que le non-respect des dispositions contenues dans ce chapitre « cyberdéfense » sont constitutives des délits prévus en matière de traitements illégaux de données. Ces derniers font l'objet de sanctions pénales, et par ce truchement, toute constatation par l'ARCEP de non-respect des dispositions devra être signalée au Ministère public, lequel pourra ensuite engager une action pénale (voir l'article 40 du code de procédure pénale). En cas d'abus, les responsables de l'ANSSI seront ainsi mis devant leurs responsabilités.
Le droit européen de nouveau bafoué
On sait tout l'irrespect dont font preuve nombre de responsables publics français vis-à-vis des règles européennes encadrant les mesures de surveillance. Ce projet de loi en fournit une nouvelle illustration.
D'abord, parce qu'il ne prévoit aucune information des personnes qui verraient leur trafic Internet scruté par l'ANSSI. Lors de son audition, Guillaume Poupard expliquait ainsi sa volonté d'en passer directement par l'installation de sondes chez les hébergeurs plutôt qu'auprès des personnes ayant loué ses machines :
Bien entendu, nous pourrions demander la permission au détenteur de la machine, à celui qui l’a louée de manière légitime, mais nous ne voulons pas le faire. En effet, dans le meilleur des cas nous tomberons sur une victime que tout cela dépasse complètement : la plupart du temps, ces serveurs sont loués par des particuliers, par des gens que l’on n’a pas envie de mêler à des affaires aussi compliquées. Surtout, le plus souvent, celui qui loue la machine est l’agresseur lui-même.
Or, quelque soit le statut de ces personnes dont le trafic aura été surveillé – victimes innocentes et ignorantes ou cyber-attaquant malveillant –, à aucun moment le projet de loi ne prévoit qu'elles en soient informées (soit pendant la mesure de surveillance, soit après). C'est pourtant là une obligation, qui ressort notamment de la jurisprudence de la Cour européenne des droits de l'Homme (CEDH) et permet l'exercice d'un droit de recours effectif contre ces mesures de surveillance9.
Pour respecter le droit européen, d'autres dispositifs pourraient d'ailleurs être envisagés pour permettre l'exercice d'un droit de recours effectif, comme la possibilité de saisir l'ARCEP pour savoir si nos communications ont été, pour une raison ou une autre, aspirées par l'ANSSI. Le cas échéant, cela permettrait à l'ARCEP de s'assurer ensuite du caractère proportionné de cette surveillance. Si elle constatait une irrégularité, elle pourrait ordonner la destruction des données et saisir d'elle-même le ministère public. Dans le même temps, l'ARCEP devrait s'assurer de la bonne information de la personne surveillée et de la possibilité pour elle de se constituer partie civile.
Il y a deuxième point sur lequel le texte est en contrariété flagrante avec le droit de l'Union européenne, et en particulier la directive européenne de 2000 sur la société de l'information dont l'article 15 interdit aux États d'imposer aux opérateurs ou aux hébergeurs des mesures générales de surveillance. En l'état, l'article 2321-2-1 va bien à l'encontre de ce principe, en prévoyant que l'ANSSI puisse exiger l'utilisation de boîtes noires dans le but de scanner l'ensemble du trafic pour repérer des « cyber-menaces » chez les opérateurs et les hébergeurs.10 Notons que ce sont là les mêmes arguments que nous soulevons contre les boîtes noires de la Direction générale de la Sécurité intérieure (DGSI) dans le cadre de nos recours contre la loi renseignement.
L'ANSSI, ce faux-ami
Pour finir, il faut évoquer une inquiétude de fond s'agissant de l'ANSSI. Car même si les grands pontes de la cybersécurité aiment rappeler l'originalité du modèle français en la matière – avec une agence cybersécurité civile rattachée directement au Premier ministre et ne s'occupant pas de lutte informatique offensive –, force est de reconnaître la porosité croissante entre l'ANSSI et le monde du renseignement pour tout un tas de missions (les intrusions étrangères dans les systèmes d'information de l'État, la gestion des logiciels « chevaux de Troie » utilisés par les services pour réaliser des intrusions informatiques, l'échange de renseignement s'agissant de failles informatiques, etc.).
Cela a pu par le passé conduire à des prises de position pour le moins surprenantes, et en rupture avec l'image bienveillante et soucieuse des libertés que les dirigeants de l'ANSSI prennent soin de cultiver. Ainsi, Next INpact rappelait fin 2015 que, pour le projet du gouvernement de généraliser le chiffrement des mails, l'ANSSI avait tenu à distance des solutions de chiffrement robustes et décentralisées, dites de « bout-en-bout ». Guillaume Poupard disait alors vouloir ménager la possibilité que le trafic email soit accessible en clair en certains points du réseau. Plutôt que de promouvoir un chiffrement fort sans lequel il ne peut y avoir de véritable sécurité informatique, l'ANSSI entendait alors ménager les capacités de surveillance des services de renseignement et de police. On sait aussi que les services de renseignement ont joué un rôle de premier plan dans la rédaction de ce projet de loi.
Aujourd'hui, les dirigeants de l'ANSSI sont peut être sincères lorsqu'ils évoquent leur volonté de minimiser l'impact sur les libertés, la neutralité du Net et le droit au chiffrement de ces mesures de détections des attaques. Mais qu'en sera-t-il demain ? L'ANSSI – et les pouvoirs nouveaux dont la dote cette nouvelle LPM –, évolue dans une réalité institutionnelle qui la rend très perméable aux dérives sécuritaires. Raison pour laquelle un modèle de cybersécurité plus décentralisé, extirpé au maximum du secret d'État et misant sur la capacitation de l'ensemble des acteurs et utilisateurs d'Internet, aurait mérité d'être sérieusement envisagé et débattu publiquement. Au lieu de ça, le choix a été fait de présenter une nouvelle loi de surveillance, en procédure accélérée.
1. Les mesures de sécurité réalisables par les opérateurs sont prévues au nouvel article L. 33-14 du code des postes et des communications, créé par l'article 19 de la LPM.
3. Voir les articles 32-3 et L. 34-1, IV, second alinéa, du code des postes et des télécommunications.
4. Dans son rapport, la commission de la défense nationale de l'Assemblée estime ainsi que « l’ARCEP sera en mesure de contrôler la régularité de la mise en œuvre de ces dispositifs par les opérateurs sur le fondement des articles L. 32-4 et L. 36-7 du code des postes et des communications électroniques ».
5. Les nouveaux pouvoirs d'analyse du réseau par les boites noires de l'ANSSI sont prévus à l'article L. 2321-2-1 du code de la défense, créé par l'article 19 de la LPM.
6. L'article L. 851-3 du code de la sécurité intérieure définit les boîtes noires utilisables par les services français comme des « traitements automatisés destinés, en fonction de paramètres précisés dans l'autorisation, à détecter des connexions susceptibles de révéler une menace terroriste ».
7. Il déclare ainsi à Next INpact : « On fait du NetFlow [analyse de métadonnées d'un échantillon des paquets réseau, ndlr], mais je ne veux pas m’interdire d’aller plus loin si cela a un intérêt et n’est pas attentatoire au secret ».
8. Voir le rapport de la commission de la défense nationale de l'Assemblée : « À l’initiative du rapporteur et la commission a adopté le dispositif de contrôle suivant. Il confie cette nouvelle mission à la formation de règlement des différends, de poursuite et d’instruction (formation RDPI) de l’ARCEP et prévoit : – une obligation, pour l’ANSSI, d’informer sans délai, la formation RDPI : d’une part, de la mise en œuvre des dispositifs de détection sur les réseaux des acteurs concernés (opérateurs de communications électroniques, hébergeurs, FAI) ; d’autre part, des demandes formulées par l’ANSSI tendant à l’obtention des données techniques nécessaires à la caractérisation d’une menace affectant la sécurité des systèmes d’informations des OIV ou des autorités publiques. – que la formation RDPI dispose d’un accès complet aux données techniques recueillies ou obtenues dans le cadre des dispositions prévues à l’article 19 ; – qu’elle peut adresser à l’ANSSI des recommandations, et qu’elle est informée des suites qui y sont données ; – que si aucune suite n’est donnée à ces recommandations, ou si elle juge ces suites insuffisantes, la formation RDPI pourra enjoindre l’ANSSI d’interrompre les opérations en cause ou de détruire les données recueillies ; – que l’ARCEP remet, chaque année, un rapport au Gouvernement et au Parlement sur les conditions d’exercice et les résultats du contrôle exercé par la formation de règlements des différends. ».
9. Selon la CEDH, en effet : « Il peut ne pas être possible en pratique d’exiger une notification a posteriori dans tous les cas (...). Cependant, il est souhaitable d’aviser la personne concernée après la levée des mesures de surveillance dès que la notification peut être donnée sans compromettre le but de la restriction. Par ailleurs, la Cour prend acte de la recommandation du Comité des Ministres visant à réglementer l’utilisation de données à caractère personnel dans le secteur de la police, laquelle dispose que lorsque des données concernant une personne ont été collectées et enregistrées à son insu, elle doit, si les données ne sont pas détruites, être informée, si cela est possible, que des informations sont détenues sur son compte, et ce dès que l’objet des activités de police ne risque plus d’en pâtir » (§ 287, affaire Roman Zakharov c. Russie).
10. La directive de 2000 proscrit ainsi des mesures de filtrage du trafic visant à bloquer ou détecter certains communications au niveau d'un fournisseurs d'accès ou d'un hébergeur. Selon la Cour de justice de l'Union européenne : « (...) l’injonction faite au prestataire de services d’hébergement de mettre en place le système de filtrage litigieux l’obligerait à procéder à une surveillance active de la quasi- totalité des données concernant l’ensemble des utilisateurs de ses services. Il s’ensuit que ladite injonction imposerait au prestataire de services d’hébergement une surveillance générale qui est interdite par l’article 15, paragraphe 1, de la directive 2000/31 » (CJUE, 16 février 2012, SABAM c/ Netlog, C-360/10, §38. Voir aussi CJUE, 24 novembre 2011, SABAM c/ Scarlet Extended, C-70/10, §40.)
";s:7:"content";s:35157:"
Le 18 avril 2018 - Le nouveau projet de loi de programmation militaire (LPM), présenté en Conseil des ministres le 8 février dernier et adopté en première lecture par l'Assemblée nationale le 27 mars, comporte un volet axé sur la cybersécurité. Les enjeux sont importants : lutter contre les attaques informatiques sur les réseaux. Sauf que le dispositif envisagé, reposant sur des boîtes noires – ces sondes dédiées à l'analyse du trafic Internet et placées en différents points du réseau – sous l'égide de l'ANSSI et des grands opérateurs télécoms, ouvre une brèche immense qui, de nouveau, fait planer le spectre d'une surveillance massive de nos communications.
La loi de programmation militaire (LPM) est un exercice législatif qui revient en France tous les 5 ans. La dernière LPM, adoptée en 2013 pour les années 2014-2019, étendait les accès administratifs aux données de connexion. Avec un certain retard, La Quadrature du Net s'était mobilisée contre cette disposition introduite par voie d'amendement lors des débats législatifs puis, avec l'aide des Exégètes amateurs, à travers un recours devant le Conseil d'État.
Cette année, la LPM revient avec une nouvelle mouture pour les années 2019-2025. Dans sa partie « cyber-défense » (chapitre III), ce texte modifie le code de la défense pour donner plus de moyens à l'ANSSI (Agence nationale de sécurité des systèmes d'information) pour veiller à l'intégrité et à la sécurité des réseaux. Et cette année encore, La Quadrature accuse un retard coupable. Alors que certains de ses membres s'étaient rendus le 12 février dernier à une réunion de présentation du projet de loi organisée à l'initiative de l'ANSSI, nous n'avions toujours pas donné notre avis sur le dispositif. Mieux vaut tard que jamais.
Ce texte sécuritaire fourre-tout qui fait l'objet d'un examen express pose problème en tant que tel. Il résulte en effet d'une volonté de faire passer des dispositions portant atteinte aux droits fondamentaux dans le cadre d'une loi de programmation budgétaire, alors qu'elles mériteraient un débat spécifique et approfondi. À cet égard, les dispositions relatives à la cyberdéfense que nous analysons ici doivent se lire dans un contexte plus global : le projet de loi prévoit également l'acquisition de deux drones Reaper militarisés, autorise le recueil de données génétiques par les militaires français à l'étranger, acte la montée en puissance des activités militaires dédiés à la lutte informatique offensive avec la création de 1500 nouveaux postes dédiés, et accorde une immunité pénale à ces « cyber-attaquants », en autres choses.
Ici, nous nous concentrons donc sur la détection des cyberattaques. À ce stade, le Sénat entame donc l'examen du texte en première lecture. S'il est sans doute illusoire d'espérer un rejet en bloc du dispositif, il est encore temps de corriger les sérieux problèmes contenus dans ce texte. Car en l'état, ce dispositif est flou, déséquilibré et attentatoire aux libertés.
Une collaboration entre l'ANSSI et les opérateurs volontaires
En premier lieu, la nouvelle LPM tend à favoriser les mesures de sécurité prises volontairement par les opérateurs de télécommunications1. La réglementation sur la neutralité du Net2 et celle sur la confidentialité des communications3 autorisent déjà les opérateurs de télécommunications à analyser les données de connexion (adresse IP, taille des paquets, port...) afin de « préserver l’intégrité et la sûreté du réseau, des services fournis par l’intermédiaire de ce réseau et des équipements terminaux des utilisateurs finals ».
Cette possibilité, réaffirmée par cette LPM, est complétée par celle de collaborer avec l'ANSSI, en lui transmettant les informations sur les menaces détectées et en utilisant les renseignements transmis par l'ANSSI afin de mieux cibler leurs activités de détection. À cela s'ajoute la possibilité pour l'ANSSI d'obliger les opérateurs à indiquer à leurs abonnés que la sécurité de leurs réseau a été compromise.
Dans la mesure où ces mesures restent volontaires (elles ne sont pas imposées selon les instructions de l'ANSSI), ce dispositif peut paraître légitime. Encore faut-il que l'usage des sondes soit autorisé par les abonnés concernés, qu'il soit transparent et rigoureusement contrôlé. Or, c'est loin d'être le cas.
Les opérateurs doivent être mandatés par leurs abonnés
Il manque un élément clef : le mandat de l'abonné pour la surveillance de son trafic par l'opérateur. Sans cela, ces sondes scrutant l'ensemble du trafic sont une atteinte directe au secret des correspondances, et constituent de ce point de vue un système de surveillance des abonnés. Cette surveillance étant alors opérée par un acteur privé, sans aucun contrôle.
En s'assurant que cette surveillance du trafic résulte d'une demande de l'abonné, le paradigme change. L'opérateur devient agent de l'abonné, agissant à son compte pour les questions de sécurité des systèmes, et l'abonné peut à tout moment décider de retirer sa confiance à cet agent délégataire. On peut supposer que, le secret des communications électroniques étant un principe général du droit des télécoms, la nécessité absolue de cet accord est implicite. Reste que la précision est nécessaire pour éviter tout abus.
Garantir un usage transparent et contrôlé des sondes
Par ailleurs, il faut qu'une autorité de contrôle puisse s'assurer de la bonne utilisation de ces sondes extrêmement dangereuses sur le plan de la vie privée, et qu'elle puisse faire la transparence sur l'utilisation de ces outils maniés par des acteurs privés. Cette autorité, ce devrait être l'ARCEP, à qui le projet de loi donne quelques compétences s'agissant des pouvoirs nouveaux octroyés par l'ANSSI (compétences utilement précisées et renforcées par l'Assemblée nationale, voir plus bas).
Même si le Code des postes et des communications électroniques prévoit bien que l'ARCEP contrôle le respect par les opérateurs de leurs obligations en matière de confidentialité des communications4 et en matière de neutralité du Net, le projet de loi ne prévoit rien de spécifique s'agissant de ces activités de détection de cyberattaques appelées à monter en puissance. La précision aurait sans doute de l'intérêt pour obliger l'ARCEP à les contrôler régulièrement et de manière inopinée, le cas échéant à sanctionner les abus, et à communiquer publiquement sur la nature et les suites données à ces contrôles.
Les nouvelles boîtes noires imposées par l'ANSSI
La nouvelle LPM entend également permettre à l'ANSSI d'agir directement sur les réseaux, en déployant ses propres « boîtes noires » sur les systèmes des opérateurs et fournisseurs d'accès à Internet, ainsi que ceux des hébergeurs5. Suite à un amendement adopté à l'Assemblée, le non-respect de ces obligations par les opérateurs et hébergeurs est désormais passible de sanctions (un an d’emprisonnement et 75 000 euros d’amende).
Ces boîtes noires sont définies comme « un système de détection recourant à des marqueurs techniques à seules fins de détecter des événements susceptibles d’affecter la sécurité des systèmes d’information » (dans une formulation d'ailleurs très proche de celle donnée en 2015 dans la loi renseignement)6. La LPM limite l'utilisation des ces sondes aux cas où l'ANSSI « a connaissance d’une menace susceptible de porter atteinte à la sécurité des systèmes d’information des autorités publiques ou des opérateurs » d'importance vitale (centrale électrique, aéroport, opérateurs télécoms, industries de défense, etc.). Or, ainsi définies, ces dispositions confèrent à l'ANSSI un pouvoir excessif.
Une atteinte injustifiée à la confidentialité des communications
La notion de « données techniques » ou « marqueurs techniques » utilisée dans le projet de loi n'a aucune définition juridique ou technique. Comme l'a relevé le journaliste Marc Rees, il s'agit bel et bien par ce vocable de contourner la jurisprudence constitutionnelle protégeant la confidentialité des communications, pour surveiller le contenu des communications et non les seules métadonnées. D'ailleurs, Guillaume Poupard, le directeur de l'ANSSI, ne se cache pas de la volonté de regarder dans le détail le contenu des communications. Lors de son audition à l'Assemblée nationale, il expliquait ainsi :
Il va donc de soi que nous traitons des données, y compris des données personnelles. C’est pourquoi le texte ne loi ne saurait comprendre une disposition visant à rassurer qui interdirait de toucher aux données personnelles : nous y touchons de fait. L’essentiel est que la finalité reste la détection et que l’on s’en tienne aux données strictement nécessaires et signifiantes. Prenons un exemple : le travail de détection consiste parfois à chercher au fin fond de pièces jointes, dans des courriers électroniques, pour y détecter un éventuel virus caché.
Entendue ainsi, la notion de « marqueurs techniques » contrevient donc directement au secret des correspondances. Or, Guillaume Poupard reconnaît lui-même que beaucoup peut déjà être fait à partir des seules métadonnées (qui renvoient en droit français aux termes de « données de connexion » ou d'« informations et documents », utilisés par exemple par la loi renseignement)7. Ci ces métadonnées peuvent déjà révéler beaucoup d'informations sur notre vie, limiter le pouvoir de surveillance de l'ANSSI à ces seules métadonnées aurait au moins le mérite de ne pas anéantir l'ensemble de l'édifice juridique qui protège encore un tant soit peu peu la confidentialité de nos communications.
Quel degré de surveillance pour quelles menaces ?
De même, la LPM n'établit aucun lien de causalité entre la menace pour les autorités publiques et les opérateurs d'importance vitale, d'un côté, et, de l'autre, les « événements susceptibles d’affecter la sécurité des systèmes » que les boîtes noires doivent détecter. Un tel lien doit être établi afin que l'ANSSI ne puisse analyser le trafic qu'aux seuls points du réseau où elle pourra détecter les menaces affectant les seules autorités et opérateurs qu'elle est censée protéger. Une précision par ailleurs indispensable pour permettre aux opérateurs concernés et à l'ARCEP, qui contrôlera l'action de l'ANSSI dans ce domaine, de s'assurer de la proportionnalité de la mesure de surveillance engagée.
Enfin, la notion de « menace » pour les autorités et opérateurs dont l'ANSSI est chargée d'assurer la protection est également très floue. L'étude d'impact de la loi parle d'une vingtaine de menaces par an seulement qui seraient suffisamment graves pour justifier de telles pratiques. Or, la loi n'offre aucun critère pour les limiter de la sorte et empêcher que des boîtes noires ne soient déployées constamment et en tout point pour prévenir n'importe quel type de menace plus ou moins abstraite – ce qui serait parfaitement injustifiable. Là encore, ces éléments de doctrine doivent figurer dans la loi, et faire l'objet d'une information régulière et transparente afin de permettre aux citoyens et à l'ensemble des acteurs concernés par ces mesures de pouvoir juger de leur proportionnalité.
Une durée de conservation doublée, sans raison valable
Alors que le projet de loi du gouvernement prévoyait que l'ANSSI puisse conserver pendant une durée maximale de 5 ans les « données techniques » collectées, la commission de la Défense nationale de l'Assemblée nationale a doublé cette durée à l'initiative du rapporteur, Jean-Jacques Bridey (député LREM), en la portant à 10 ans. Cette durée semble excessive puisque, comme on l'a vu, les données techniques recueillies sont très souvent des données à caractère personnel. 5 ans paraissent déjà très longs quand on sait que la loi renseignement limite à un mois après leur collecte la durée de conservation du contenu des correspondances.
Les responsables de l'ANSSI irresponsables ?
Quand bien même les nouveaux pouvoirs donnés à l'ANSSI seraient mieux limités, une autorité indépendante doit pouvoir s'assurer que ces pouvoirs ne sont dévoyés à des fins politiques ou de contrôle de la population. Or, le contrôle des activités de l'ANSSI par l'ARCEP, prévu dans le projet de loi, manque singulièrement de mordant.
D'abord, comme l'a souligné l'ARCEP dans son avis rendu sur le projet de loi, se pose d'abord la question du renforcement de ses moyens pour garantir sa capacité à contrôler l'ANSSI. Ensuite, en dépit des précisions apportées par l'Assemblée s'agissant des modalités de ce contrôle8, le texte ne prévoit qu'un contrôle distant, sur la foi de rapports et de documents, mais loin du terrain. Aucune possibilité de contrôler le fonctionnement des sondes installées sur les infrastructures des opérateurs télécoms ou des hébergeurs n'est prévue. Le projet de loi ne prévoit pas non plus que ces derniers puissent saisir l'ARCEP pour faire obstacle aux demandes de l'ANSSI.
Enfin, si elle constate des abus, l'ARCEP ne pourra qu'adopter des recommandations à l'adresse de l'ANSSI. Le texte ne prévoit aucune sanction. Pour faire en sorte que les nouveaux pouvoirs de l'ANSSI soient dûment encadrés, il faudrait aussi poser explicitement dans la loi le fait que le non-respect des dispositions contenues dans ce chapitre « cyberdéfense » sont constitutives des délits prévus en matière de traitements illégaux de données. Ces derniers font l'objet de sanctions pénales, et par ce truchement, toute constatation par l'ARCEP de non-respect des dispositions devra être signalée au Ministère public, lequel pourra ensuite engager une action pénale (voir l'article 40 du code de procédure pénale). En cas d'abus, les responsables de l'ANSSI seront ainsi mis devant leurs responsabilités.
Le droit européen de nouveau bafoué
On sait tout l'irrespect dont font preuve nombre de responsables publics français vis-à-vis des règles européennes encadrant les mesures de surveillance. Ce projet de loi en fournit une nouvelle illustration.
D'abord, parce qu'il ne prévoit aucune information des personnes qui verraient leur trafic Internet scruté par l'ANSSI. Lors de son audition, Guillaume Poupard expliquait ainsi sa volonté d'en passer directement par l'installation de sondes chez les hébergeurs plutôt qu'auprès des personnes ayant loué ses machines :
Bien entendu, nous pourrions demander la permission au détenteur de la machine, à celui qui l’a louée de manière légitime, mais nous ne voulons pas le faire. En effet, dans le meilleur des cas nous tomberons sur une victime que tout cela dépasse complètement : la plupart du temps, ces serveurs sont loués par des particuliers, par des gens que l’on n’a pas envie de mêler à des affaires aussi compliquées. Surtout, le plus souvent, celui qui loue la machine est l’agresseur lui-même.
Or, quelque soit le statut de ces personnes dont le trafic aura été surveillé – victimes innocentes et ignorantes ou cyber-attaquant malveillant –, à aucun moment le projet de loi ne prévoit qu'elles en soient informées (soit pendant la mesure de surveillance, soit après). C'est pourtant là une obligation, qui ressort notamment de la jurisprudence de la Cour européenne des droits de l'Homme (CEDH) et permet l'exercice d'un droit de recours effectif contre ces mesures de surveillance9.
Pour respecter le droit européen, d'autres dispositifs pourraient d'ailleurs être envisagés pour permettre l'exercice d'un droit de recours effectif, comme la possibilité de saisir l'ARCEP pour savoir si nos communications ont été, pour une raison ou une autre, aspirées par l'ANSSI. Le cas échéant, cela permettrait à l'ARCEP de s'assurer ensuite du caractère proportionné de cette surveillance. Si elle constatait une irrégularité, elle pourrait ordonner la destruction des données et saisir d'elle-même le ministère public. Dans le même temps, l'ARCEP devrait s'assurer de la bonne information de la personne surveillée et de la possibilité pour elle de se constituer partie civile.
Il y a deuxième point sur lequel le texte est en contrariété flagrante avec le droit de l'Union européenne, et en particulier la directive européenne de 2000 sur la société de l'information dont l'article 15 interdit aux États d'imposer aux opérateurs ou aux hébergeurs des mesures générales de surveillance. En l'état, l'article 2321-2-1 va bien à l'encontre de ce principe, en prévoyant que l'ANSSI puisse exiger l'utilisation de boîtes noires dans le but de scanner l'ensemble du trafic pour repérer des « cyber-menaces » chez les opérateurs et les hébergeurs.10 Notons que ce sont là les mêmes arguments que nous soulevons contre les boîtes noires de la Direction générale de la Sécurité intérieure (DGSI) dans le cadre de nos recours contre la loi renseignement.
L'ANSSI, ce faux-ami
Pour finir, il faut évoquer une inquiétude de fond s'agissant de l'ANSSI. Car même si les grands pontes de la cybersécurité aiment rappeler l'originalité du modèle français en la matière – avec une agence cybersécurité civile rattachée directement au Premier ministre et ne s'occupant pas de lutte informatique offensive –, force est de reconnaître la porosité croissante entre l'ANSSI et le monde du renseignement pour tout un tas de missions (les intrusions étrangères dans les systèmes d'information de l'État, la gestion des logiciels « chevaux de Troie » utilisés par les services pour réaliser des intrusions informatiques, l'échange de renseignement s'agissant de failles informatiques, etc.).
Cela a pu par le passé conduire à des prises de position pour le moins surprenantes, et en rupture avec l'image bienveillante et soucieuse des libertés que les dirigeants de l'ANSSI prennent soin de cultiver. Ainsi, Next INpact rappelait fin 2015 que, pour le projet du gouvernement de généraliser le chiffrement des mails, l'ANSSI avait tenu à distance des solutions de chiffrement robustes et décentralisées, dites de « bout-en-bout ». Guillaume Poupard disait alors vouloir ménager la possibilité que le trafic email soit accessible en clair en certains points du réseau. Plutôt que de promouvoir un chiffrement fort sans lequel il ne peut y avoir de véritable sécurité informatique, l'ANSSI entendait alors ménager les capacités de surveillance des services de renseignement et de police. On sait aussi que les services de renseignement ont joué un rôle de premier plan dans la rédaction de ce projet de loi.
Aujourd'hui, les dirigeants de l'ANSSI sont peut être sincères lorsqu'ils évoquent leur volonté de minimiser l'impact sur les libertés, la neutralité du Net et le droit au chiffrement de ces mesures de détections des attaques. Mais qu'en sera-t-il demain ? L'ANSSI – et les pouvoirs nouveaux dont la dote cette nouvelle LPM –, évolue dans une réalité institutionnelle qui la rend très perméable aux dérives sécuritaires. Raison pour laquelle un modèle de cybersécurité plus décentralisé, extirpé au maximum du secret d'État et misant sur la capacitation de l'ensemble des acteurs et utilisateurs d'Internet, aurait mérité d'être sérieusement envisagé et débattu publiquement. Au lieu de ça, le choix a été fait de présenter une nouvelle loi de surveillance, en procédure accélérée.
1. Les mesures de sécurité réalisables par les opérateurs sont prévues au nouvel article L. 33-14 du code des postes et des communications, créé par l'article 19 de la LPM.
3. Voir les articles 32-3 et L. 34-1, IV, second alinéa, du code des postes et des télécommunications.
4. Dans son rapport, la commission de la défense nationale de l'Assemblée estime ainsi que « l’ARCEP sera en mesure de contrôler la régularité de la mise en œuvre de ces dispositifs par les opérateurs sur le fondement des articles L. 32-4 et L. 36-7 du code des postes et des communications électroniques ».
5. Les nouveaux pouvoirs d'analyse du réseau par les boites noires de l'ANSSI sont prévus à l'article L. 2321-2-1 du code de la défense, créé par l'article 19 de la LPM.
6. L'article L. 851-3 du code de la sécurité intérieure définit les boîtes noires utilisables par les services français comme des « traitements automatisés destinés, en fonction de paramètres précisés dans l'autorisation, à détecter des connexions susceptibles de révéler une menace terroriste ».
7. Il déclare ainsi à Next INpact : « On fait du NetFlow [analyse de métadonnées d'un échantillon des paquets réseau, ndlr], mais je ne veux pas m’interdire d’aller plus loin si cela a un intérêt et n’est pas attentatoire au secret ».
8. Voir le rapport de la commission de la défense nationale de l'Assemblée : « À l’initiative du rapporteur et la commission a adopté le dispositif de contrôle suivant. Il confie cette nouvelle mission à la formation de règlement des différends, de poursuite et d’instruction (formation RDPI) de l’ARCEP et prévoit : – une obligation, pour l’ANSSI, d’informer sans délai, la formation RDPI : d’une part, de la mise en œuvre des dispositifs de détection sur les réseaux des acteurs concernés (opérateurs de communications électroniques, hébergeurs, FAI) ; d’autre part, des demandes formulées par l’ANSSI tendant à l’obtention des données techniques nécessaires à la caractérisation d’une menace affectant la sécurité des systèmes d’informations des OIV ou des autorités publiques. – que la formation RDPI dispose d’un accès complet aux données techniques recueillies ou obtenues dans le cadre des dispositions prévues à l’article 19 ; – qu’elle peut adresser à l’ANSSI des recommandations, et qu’elle est informée des suites qui y sont données ; – que si aucune suite n’est donnée à ces recommandations, ou si elle juge ces suites insuffisantes, la formation RDPI pourra enjoindre l’ANSSI d’interrompre les opérations en cause ou de détruire les données recueillies ; – que l’ARCEP remet, chaque année, un rapport au Gouvernement et au Parlement sur les conditions d’exercice et les résultats du contrôle exercé par la formation de règlements des différends. ».
9. Selon la CEDH, en effet : « Il peut ne pas être possible en pratique d’exiger une notification a posteriori dans tous les cas (...). Cependant, il est souhaitable d’aviser la personne concernée après la levée des mesures de surveillance dès que la notification peut être donnée sans compromettre le but de la restriction. Par ailleurs, la Cour prend acte de la recommandation du Comité des Ministres visant à réglementer l’utilisation de données à caractère personnel dans le secteur de la police, laquelle dispose que lorsque des données concernant une personne ont été collectées et enregistrées à son insu, elle doit, si les données ne sont pas détruites, être informée, si cela est possible, que des informations sont détenues sur son compte, et ce dès que l’objet des activités de police ne risque plus d’en pâtir » (§ 287, affaire Roman Zakharov c. Russie).
10. La directive de 2000 proscrit ainsi des mesures de filtrage du trafic visant à bloquer ou détecter certains communications au niveau d'un fournisseurs d'accès ou d'un hébergeur. Selon la Cour de justice de l'Union européenne : « (...) l’injonction faite au prestataire de services d’hébergement de mettre en place le système de filtrage litigieux l’obligerait à procéder à une surveillance active de la quasi- totalité des données concernant l’ensemble des utilisateurs de ses services. Il s’ensuit que ladite injonction imposerait au prestataire de services d’hébergement une surveillance générale qui est interdite par l’article 15, paragraphe 1, de la directive 2000/31 » (CJUE, 16 février 2012, SABAM c/ Netlog, C-360/10, §38. Voir aussi CJUE, 24 novembre 2011, SABAM c/ Scarlet Extended, C-70/10, §40.)
";s:7:"dateiso";s:15:"20180418_132722";}s:15:"20180417_141525";a:7:{s:5:"title";s:33:"Attaquons les GAFAM et leur monde";s:4:"link";s:46:"https://www.laquadrature.net/fr/campagne_gafam";s:4:"guid";s:37:"10472 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 17 Apr 2018 12:15:25 +0000";s:11:"description";s:4936:"
17 avril 2018 - Nous avons lancé hier notre campagne d'actions de groupe contre les GAFAM. Jusqu'au 25 mai (jour du dépôt des plaintes devant la CNIL) toute personne vivant en France peut nous rejoindre sur gafam.laquadrature.net. C'est sur la base de ces premières actions que nous pourrons, sur le temps long, déconstruire méthodiquement le monde qu'ils tentent de nous imposer.
Nous n'attendrons pas le 25 mai, jour d'entrée en application du règlement général sur la protection des données (RGPD), pour agir. Nous n'avons plus à attendre.
Ce règlement européen (que nous avions ardemment défendu il y a 3 ans) nous donne enfin l'opportunité de renverser la grande farce sur laquelle les GAFAM ont construit leur monde : le « consentement » que nous leur donnerions, pour qu'ils sondent notre esprit et influent nos volontés, ne vaut rien. Il est vulgairement monnayé contre l'utilisation de leurs sites et applications.
Or, le droit européen est maintenant clair : un consentement monnayé, bradé, ne vaut rien et ne suffit plus à rendre légale leur surveillance de masse1. Ce « consentement » de paille ne saurait donc plus longtemps servir d'alibi à Zuckerberg et aux autres pour nous rendre responsables de la perte de notre vie privée et de la destruction de nos liens collectifs.
Nos actions de groupe se baseront sur ce seul argument juridique, la fausseté du consentement, car il attaque à sa racine le monde ultra-centralisé (pour eux) et individualiste (pour nous) qu'ils espèrent pouvoir imposer.
Notre campagne de 40 jours consacrera chaque semaine à chacun des GAFAM, pour comprendre la spécifité de l'emprise de chacun d'eux. Mais ce n'est qu'une première étape : les GAFAM ne sont que le symbôle d'un monde qu'il faudra, une fois cette étape passée, déconstruire méthodiquement : contre leurs alliés (sites de presse ou du gouvernement), qui diffusent leurs mouchards partout sur Internet, contre les administrations avec lesquelles ils vivent le grand amour et contre toutes les entreprises ‑ notamment françaises - qui ont embrassé leurs ambitions de manipulation de masse, Criteo en tête.
Cette première étape doit donc être la plus puissante possible, car c'est d'elle que partira le reste.
Puissante comment ? En mettant la CNIL au pied du mur. En déposant sur son bureau une plainte réunissant tant de personnes qu'elle ne pourra pas refuser de la traiter avec la fermeté requise sans perdre toute légitimité. Et le nouveau règlement lui donne enfin les moyens de cette fermeté : des amendes de 4 % du chiffre d'affaire mondial.
Que ce soit clair : cette première étape est si décisive que nous ne pouvons entièrement la laisser dans les mains de la CNIL. Si, au 3 septembre, elle n'a encore entamé aucune démarche, nous porterons nos actions devant l'autorité judiciaire, civile ou pénale, qui a elle aussi le pouvoir de nous défendre.
Enfin, comprenons bien que ces actions auront nécessairement une répercution européenne, si ce n'est mondiale. Le processus de coopération entre les différents États membres de l'Union européenne prévu par le nouveau règlement impliquera manifestement que nos actions soient, en fin de course, tranchées au niveau européen. Nous invitons donc les populations de chaque État membre à reprendre l'initiative entamée en France dans leur pays : nos actions se retrouveront au sommet !
1. Retrouvez le détail de l'analyse juridique sur gafam.laquadrature.net, dans l'encart « détail du mandat » du formulaire.
17 avril 2018 - Nous avons lancé hier notre campagne d'actions de groupe contre les GAFAM. Jusqu'au 25 mai (jour du dépôt des plaintes devant la CNIL) toute personne vivant en France peut nous rejoindre sur gafam.laquadrature.net. C'est sur la base de ces premières actions que nous pourrons, sur le temps long, déconstruire méthodiquement le monde qu'ils tentent de nous imposer.
Nous n'attendrons pas le 25 mai, jour d'entrée en application du règlement général sur la protection des données (RGPD), pour agir. Nous n'avons plus à attendre.
Ce règlement européen (que nous avions ardemment défendu il y a 3 ans) nous donne enfin l'opportunité de renverser la grande farce sur laquelle les GAFAM ont construit leur monde : le « consentement » que nous leur donnerions, pour qu'ils sondent notre esprit et influent nos volontés, ne vaut rien. Il est vulgairement monnayé contre l'utilisation de leurs sites et applications.
Or, le droit européen est maintenant clair : un consentement monnayé, bradé, ne vaut rien et ne suffit plus à rendre légale leur surveillance de masse1. Ce « consentement » de paille ne saurait donc plus longtemps servir d'alibi à Zuckerberg et aux autres pour nous rendre responsables de la perte de notre vie privée et de la destruction de nos liens collectifs.
Nos actions de groupe se baseront sur ce seul argument juridique, la fausseté du consentement, car il attaque à sa racine le monde ultra-centralisé (pour eux) et individualiste (pour nous) qu'ils espèrent pouvoir imposer.
Notre campagne de 40 jours consacrera chaque semaine à chacun des GAFAM, pour comprendre la spécifité de l'emprise de chacun d'eux. Mais ce n'est qu'une première étape : les GAFAM ne sont que le symbôle d'un monde qu'il faudra, une fois cette étape passée, déconstruire méthodiquement : contre leurs alliés (sites de presse ou du gouvernement), qui diffusent leurs mouchards partout sur Internet, contre les administrations avec lesquelles ils vivent le grand amour et contre toutes les entreprises ‑ notamment françaises - qui ont embrassé leurs ambitions de manipulation de masse, Criteo en tête.
Cette première étape doit donc être la plus puissante possible, car c'est d'elle que partira le reste.
Puissante comment ? En mettant la CNIL au pied du mur. En déposant sur son bureau une plainte réunissant tant de personnes qu'elle ne pourra pas refuser de la traiter avec la fermeté requise sans perdre toute légitimité. Et le nouveau règlement lui donne enfin les moyens de cette fermeté : des amendes de 4 % du chiffre d'affaire mondial.
Que ce soit clair : cette première étape est si décisive que nous ne pouvons entièrement la laisser dans les mains de la CNIL. Si, au 3 septembre, elle n'a encore entamé aucune démarche, nous porterons nos actions devant l'autorité judiciaire, civile ou pénale, qui a elle aussi le pouvoir de nous défendre.
Enfin, comprenons bien que ces actions auront nécessairement une répercution européenne, si ce n'est mondiale. Le processus de coopération entre les différents États membres de l'Union européenne prévu par le nouveau règlement impliquera manifestement que nos actions soient, en fin de course, tranchées au niveau européen. Nous invitons donc les populations de chaque État membre à reprendre l'initiative entamée en France dans leur pays : nos actions se retrouveront au sommet !
1. Retrouvez le détail de l'analyse juridique sur gafam.laquadrature.net, dans l'encart « détail du mandat » du formulaire.
";s:7:"dateiso";s:15:"20180417_141525";}s:15:"20180405_144443";a:7:{s:5:"title";s:87:"Loi données personnelles, dernière étape ? Le Parlement doit défendre ses avancées";s:4:"link";s:44:"https://www.laquadrature.net/fr/cmp_pjl_rgpd";s:4:"guid";s:37:"10468 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 05 Apr 2018 12:44:43 +0000";s:11:"description";s:7495:"
5 avril 2018 - Demain se tiendra la commission mixte paritaire (réunissant une poignée de députés et de sénateurs) destinée à trancher les différentes version de la loi « données personnelles » adoptée par chacune des deux chambres ces deux derniers mois. Bien qu'échouant chacune à encadrer les services de renseignement, l'Assemblée nationale et le Sénat ont, chacun de leur côté, prévu certaines avancées pour nos libertés.
Le rôle de la commission sera de trancher point par point laquelle des versions des deux chambres doit être définitivement adoptée. L'Observatoire des Libertés et du Numérique (OLN) leur écrit pour leur indiquer les choix exigés par la défense de nos libertés.
Lettre ouverte aux membres de la commission mixte paritaire
Madame, Monsieur,
Vous débattrez demain du projet de loi relatif à la protection des données personnelles. L’Assemblée nationale et le Sénat que vous représentez ont arrêté certaines positions en faveur de la protection des libertés. Il s'agit à présent de concilier ces avancées afin de répondre aux enjeux posés par cette évolution législative historique.
Décision individuelle automatisée - article 14
L'Assemblée nationale et le Sénat ont fermement réitéré l'interdiction historique d'une automatisation de la Justice, mais l'Assemblée nationale a néanmoins admis cette automatisation dans le cadre des décisions administratives individuelles.
Ce revirement total par rapport à ce que la loi informatique et liberté a interdit dès 1978 a été de la volonté du secrétariat d’État au numérique, le ministère de la Justice ne semblant manifestement pas le soutenir activement. Il faut regretter que l'Assemblée n'ait pas pris le temps d'en discuter lors de l'examen du texte en séance publique, acceptant sans vrai débat ce changement de paradigme. Voir en ce sens l'avis de la CNIL sur le projet de loi (pp.27 – 28).
Heureusement, la rapporteure du texte au Sénat a fait poser certaines limites à cette automatisation des décisions administratives. À cet égard, toute limitation de la sorte devra être défendue et retenue par votre commission.
Sanction des collectivités - article 6
Le Sénat a indiqué souhaiter exempter les collectivités territoriales de toute sanction de la CNIL. À défaut d'être associé à la moindre sanction, le contrôle de la CNIL sur ces collectivités deviendrait parfaitement vain et, en pratique, prendrait vraisemblablement rapidement fin.
Ce contrôle apparaît toutefois indispensable au regard des mutations rapides et drastiques déjà entamées en matière de « justice prédictive » ou de « ville intelligente ».
Ainsi l'application « Reporty » qui, testée par la ville de Nice, devait recueillir et centraliser les signalements vidéos d'incivilités et d'infractions transmis par ordiphone a été dénoncée par la CNIL qui a jugé les traitements envisagés disproportionnés et n'ayant pas de base légale. Voir en ce sens la récente décision de la CNIL.
Un deuxième cas récent qui justifie également de conserver le pouvoir de sanction de la CNIL à l’égard des collectivités est celui de « l'observatoire Big Data de la tranquillité publique » que la ville de Marseille est en train de mettre sur pied. Pour s’en convaincre lire l'article détaillé de La Quadrature du Net.
Face à des mutations aussi vertigineuses, vous devrez expliquer aux citoyens pourquoi vous leur avez retiré la protection que leur offrait encore la CNIL.
Votre commission doit donc retenir la position de l'Assemblée nationale, qui conserve à la CNIL son entier pouvoir de sanction.
Chiffrement par défaut - après l'article 10
Reprenant un amendement proposé par La Quadrature du Net, le Sénat a précisé l'obligation de sécurité imposée par le RGPD, indiquant que celle-ci implique de chiffrer les données chaque fois que cela est possible (et donc notamment de chiffrer les communications de bout en bout).
Cette précision fondamentale clarifie l’obligation de sécurité et évitera tout faux débat quant à son interprétation.
La CNIL considère en effet depuis longtemps que, « dans un contexte de numérisation croissante de nos sociétés et d’accroissement exponentiel des cybermenaces, le chiffrement est un élément vital de notre sécurité », exigeant ainsi des « solutions de chiffrement robustes, sous la maitrise complète de l’utilisateur » - telles que celles votées par le Sénat et qui doivent être maintenues dans la loi.
Rappelons que la position de la CNIL n'est en rien limitée à des considérations propres aux libertés, l'Agence nationale de sécurité des systèmes d'information (ANSSI) établissant ainsi nettement que « parmi les outils de protection indispensables figurent au premier rang les moyens de cryptographie et notamment les technologies de chiffrement de l'information. Eux seuls permettent d'assurer une sécurité au juste niveau lors de la transmission, du stockage et de l'accès aux données numériques sensibles ».
Droit à la portabilité - article 20 bis
La loi pour une république numérique de 2016 a inscrit dans la loi une obligation étendue à la portabilité des données. Cette portabilité dépasse celle restreinte aux seules données personnelles prévues par le règlement. La portabilité générale inscrite en droit français permet une mise en application véritable de ce dispositif pour permettre aux internautes consommateurs de faire véritablement jouer la concurrence entre services en ligne et éviter de devoir demeurer sur un service qui ne leur conviendrait plus en raison du « coût de sortie » d'une perte d'une grande quantité de données non personnelles, notamment celles apportées au service.
Le Sénat l'a bien compris : le texte, dans la version qu'il a retenue, est plus protecteur des internautes, il facilitera une concurrence saine entre services en ligne et doit donc être conservé.
L’Observatoire des Libertés et du Numérique vous demande instamment à l’occasion de ce vote important pour les libertés numériques des résidents européens, de faire les choix des dispositions les plus protectrices des libertés.
Organisations signataires de l’OLN : Le CECIL, Creis-Terminal, La Ligue des Droits de l'Homme (LDH), La Quadrature du Net (LQDN)
";s:7:"content";s:7495:"
5 avril 2018 - Demain se tiendra la commission mixte paritaire (réunissant une poignée de députés et de sénateurs) destinée à trancher les différentes version de la loi « données personnelles » adoptée par chacune des deux chambres ces deux derniers mois. Bien qu'échouant chacune à encadrer les services de renseignement, l'Assemblée nationale et le Sénat ont, chacun de leur côté, prévu certaines avancées pour nos libertés.
Le rôle de la commission sera de trancher point par point laquelle des versions des deux chambres doit être définitivement adoptée. L'Observatoire des Libertés et du Numérique (OLN) leur écrit pour leur indiquer les choix exigés par la défense de nos libertés.
Lettre ouverte aux membres de la commission mixte paritaire
Madame, Monsieur,
Vous débattrez demain du projet de loi relatif à la protection des données personnelles. L’Assemblée nationale et le Sénat que vous représentez ont arrêté certaines positions en faveur de la protection des libertés. Il s'agit à présent de concilier ces avancées afin de répondre aux enjeux posés par cette évolution législative historique.
Décision individuelle automatisée - article 14
L'Assemblée nationale et le Sénat ont fermement réitéré l'interdiction historique d'une automatisation de la Justice, mais l'Assemblée nationale a néanmoins admis cette automatisation dans le cadre des décisions administratives individuelles.
Ce revirement total par rapport à ce que la loi informatique et liberté a interdit dès 1978 a été de la volonté du secrétariat d’État au numérique, le ministère de la Justice ne semblant manifestement pas le soutenir activement. Il faut regretter que l'Assemblée n'ait pas pris le temps d'en discuter lors de l'examen du texte en séance publique, acceptant sans vrai débat ce changement de paradigme. Voir en ce sens l'avis de la CNIL sur le projet de loi (pp.27 – 28).
Heureusement, la rapporteure du texte au Sénat a fait poser certaines limites à cette automatisation des décisions administratives. À cet égard, toute limitation de la sorte devra être défendue et retenue par votre commission.
Sanction des collectivités - article 6
Le Sénat a indiqué souhaiter exempter les collectivités territoriales de toute sanction de la CNIL. À défaut d'être associé à la moindre sanction, le contrôle de la CNIL sur ces collectivités deviendrait parfaitement vain et, en pratique, prendrait vraisemblablement rapidement fin.
Ce contrôle apparaît toutefois indispensable au regard des mutations rapides et drastiques déjà entamées en matière de « justice prédictive » ou de « ville intelligente ».
Ainsi l'application « Reporty » qui, testée par la ville de Nice, devait recueillir et centraliser les signalements vidéos d'incivilités et d'infractions transmis par ordiphone a été dénoncée par la CNIL qui a jugé les traitements envisagés disproportionnés et n'ayant pas de base légale. Voir en ce sens la récente décision de la CNIL.
Un deuxième cas récent qui justifie également de conserver le pouvoir de sanction de la CNIL à l’égard des collectivités est celui de « l'observatoire Big Data de la tranquillité publique » que la ville de Marseille est en train de mettre sur pied. Pour s’en convaincre lire l'article détaillé de La Quadrature du Net.
Face à des mutations aussi vertigineuses, vous devrez expliquer aux citoyens pourquoi vous leur avez retiré la protection que leur offrait encore la CNIL.
Votre commission doit donc retenir la position de l'Assemblée nationale, qui conserve à la CNIL son entier pouvoir de sanction.
Chiffrement par défaut - après l'article 10
Reprenant un amendement proposé par La Quadrature du Net, le Sénat a précisé l'obligation de sécurité imposée par le RGPD, indiquant que celle-ci implique de chiffrer les données chaque fois que cela est possible (et donc notamment de chiffrer les communications de bout en bout).
Cette précision fondamentale clarifie l’obligation de sécurité et évitera tout faux débat quant à son interprétation.
La CNIL considère en effet depuis longtemps que, « dans un contexte de numérisation croissante de nos sociétés et d’accroissement exponentiel des cybermenaces, le chiffrement est un élément vital de notre sécurité », exigeant ainsi des « solutions de chiffrement robustes, sous la maitrise complète de l’utilisateur » - telles que celles votées par le Sénat et qui doivent être maintenues dans la loi.
Rappelons que la position de la CNIL n'est en rien limitée à des considérations propres aux libertés, l'Agence nationale de sécurité des systèmes d'information (ANSSI) établissant ainsi nettement que « parmi les outils de protection indispensables figurent au premier rang les moyens de cryptographie et notamment les technologies de chiffrement de l'information. Eux seuls permettent d'assurer une sécurité au juste niveau lors de la transmission, du stockage et de l'accès aux données numériques sensibles ».
Droit à la portabilité - article 20 bis
La loi pour une république numérique de 2016 a inscrit dans la loi une obligation étendue à la portabilité des données. Cette portabilité dépasse celle restreinte aux seules données personnelles prévues par le règlement. La portabilité générale inscrite en droit français permet une mise en application véritable de ce dispositif pour permettre aux internautes consommateurs de faire véritablement jouer la concurrence entre services en ligne et éviter de devoir demeurer sur un service qui ne leur conviendrait plus en raison du « coût de sortie » d'une perte d'une grande quantité de données non personnelles, notamment celles apportées au service.
Le Sénat l'a bien compris : le texte, dans la version qu'il a retenue, est plus protecteur des internautes, il facilitera une concurrence saine entre services en ligne et doit donc être conservé.
L’Observatoire des Libertés et du Numérique vous demande instamment à l’occasion de ce vote important pour les libertés numériques des résidents européens, de faire les choix des dispositions les plus protectrices des libertés.
Organisations signataires de l’OLN : Le CECIL, Creis-Terminal, La Ligue des Droits de l'Homme (LDH), La Quadrature du Net (LQDN)
";s:7:"dateiso";s:15:"20180405_144443";}s:15:"20180404_151144";a:7:{s:5:"title";s:60:"Le Conseil constitutionnel restreint le droit au chiffrement";s:4:"link";s:95:"https://www.laquadrature.net/fr/le-conseil-constitutionnel-restreint-le-droit-au-chiffrement%20";s:4:"guid";s:37:"10467 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 04 Apr 2018 13:11:44 +0000";s:11:"description";s:14154:"
4 avril 2018 - Dans sa décision du 30 mars 2018 relative à l'article 434-15-2 du code pénal, le Conseil constitutionnel a refusé de protéger le droit pour une personne suspectée (en l'espèce un soupçonné revendeur de drogues) de ne pas révéler ses clefs de déchiffrement. Alors que de nombreux acteurs du droit et le gouvernement lui-même s'attendaient à une décision ménageant le droit à ne pas s'auto-incriminer – c'est-à-dire le fait de ne pas être contraint de s'accuser soi-même en livrant son mot de passe –, le Conseil rend une décision très décevante. La Quadrature du Net, qui est intervenue dans cette affaire, s'inquiète de cette décision qui risque d'affaiblir durablement le droit au chiffrement.
La disposition attaquée, l'article 434-15-2 du code pénal, punit d'importantes peines d'amendes et de prison le refus de livrer aux autorités judiciaires une convention de déchiffrement (par exemple, le mot de passe permettant de déchiffrer le contenu d'un disque dur).
Des réserves a minima
Les seules réserves apportées par le Conseil consistent à confirmer qu'il est nécessaire pour l'autorité judiciaire « d'établir » que la personne concernée a effectivement connaissance de la clef de déchiffrement. Cette précision confirme que l'incrimination pénale ne peut être retenue contre des prestataires de solution de chiffrement « bout-en-bout » des communications qui, par définition, n'ont pas connaissance de la clef.
Le Conseil impose également que « l'enquête ou l'instruction doivent avoir permis d'identifier l'existence des données traitées par le moyen de cryptologie susceptible d'avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit ». Une précision qui invite à penser qu'il sera donc nécessaire pour les autorités de prouver que des données spécifiques intéressant l'enquête existent bien sur le périphérique concerné.
Malheureusement, le Conseil constitutionnel a refusé de reconnaître les atteintes de ce texte au droit de ne pas s'accuser, au droit au respect de la vie privée, au secret des correspondances, ou encore à la liberté d'expression et de communication.
Le droit de ne pas s'auto-incriminer bafoué
Cette décision constitue d'abord une véritable remise en cause du droit de ne pas s'auto-incriminer – un principe fondamental du droit pénal – qui déséquilibre fortement l'équilibre précaire entre l'instruction et la poursuite légitime des infractions d'un côté, les droits de la défense et le respect de la présomption d'innocence de l'autre. Elle est d'autant plus choquante que la limitation de l'application de ce texte aux seules personnes tierces à l'infraction (n'étant donc pas menacées par l'enquête) était déjà acceptée par une large majorité des acteurs du droit qui doivent faire application de cette incrimination (juridictions, forces de l'ordre, avocats…).
C'est ce qu'illustre par exemple un rapport de la CNIL de 2016, qui affirmait que les obligations de révéler des clefs de déchiffrement « ne peuvent pas conduire à obliger les personnes mises en cause à fournir les informations utiles à l’enquête ». La CNIL poursuivait en rappelant que « le droit de ne pas s’auto-incriminer est un droit fondamental qui trouve son origine dans la Convention européenne des droits de l'Homme et dans la jurisprudence de la Cour européenne ».
Même Philippe Blanc, représentant le Premier ministre dans cette affaire, le reconnaissait plusieurs fois lors de à l'audience du 6 mars 2018 :
La seule interprétation qui soit de nature à rendre l'article 434-15-2 du Code pénal conforme à la Constitution est, en effet, celle qui exclue l'application de cette loi aux personnes suspectées d'avoir commis elles-mêmes une infraction. Cette interprétation est nécessaire […] pour préserver le droit de la personne suspectée à ne pas s'auto-incriminer.
En ce même sens, dès février, le Centre de recherche de l'école des officiers de la gendarmerie nationale (CREOGN) anticipait la décision en ces termes : « Cette décision va sans doute consister en une déclaration de constitutionnalité sous réserve : le texte ne s'appliquerait pas aux auteurs, co-auteurs ou complices en vertu du droit de se taire et de ne pas s'auto-incriminer ».
Et pourtant, le Conseil constitutionnel en a décidé autrement.
Le droit à la vie privée et la liberté de communication menacées
Le CREOGN rappelait par ailleurs le contexte de la création de cette infraction : un simple amendement non véritablement débattu dans la loi relative à la sécurité quotidienne du 15 novembre 2001, adoptée dans le contexte et l'émotion des attaques du 11 septembre. Passible d'une sanction particulièrement importante (3 ans de prison et 270 000 € d'amende), cette disposition risque d'être désormais utilisée aussi bien par les juges d'instruction que par les procureurs pour contraindre des suspects de leur donner accès à tout périphérique chiffré (smartphone, ordinateur, périphériques de mémoire…).
Cette décision remet en cause le droit au chiffrement et l'intérêt de son usage, mais aussi, incidemment, la vie privée, la confidentialité des communications, le secret des sources journalistiques et la liberté de communication. Alors que l'ère numérique banalise la société de surveillance, ce droit est pourtant devenu une nécessité pour garantir les libertés fondamentales face aux possibilités d'arbitraire de l'État. En 2015, l'Assemblée parlementaire du Conseil de l'Europe rappelait ainsi que, « jusqu’à ce que les États acceptent de fixer des limites aux programmes de surveillance massive menés par leurs agences de renseignement, le chiffrement généralisé visant à renforcer la vie privée constitue la solution de repli la plus efficace pour permettre aux gens de protéger leurs données »1.
La décision du Conseil fait d'ailleurs fi des recommandations formulées en 2015 par David Kaye, rapporteur spécial du Conseil des droits de l'Homme de l'ONU pour la liberté d'expression, dans son rapport sur le droit au chiffrement, où il abordait la question des obligations de livrer les clefs de déchiffrement2. Plus largement, elle s'inscrit dans une tradition juridique française particulièrement hostile au chiffrement, qu'illustre par exemple l'article 132-79 du code pénal, qui fait de l'usage du chiffrement une circonstance aggravante lorsqu'il est utilisé pour préparer ou commettre un délit.
L'accès aux données stockées sur nos ordinateurs, nos téléphones ou, sur nos serveurs s'avère formidablement intrusif, révélant des pans entiers de notre intimité, de notre histoire personnelle, de notre mémoire. Dans ce contexte, le chiffrement des données permet de rétablir un peu de l'équilibre perdu entre les capacités de surveillance des États et le droit à la vie privée. Or, par cette décision, le Conseil constitutionnel admet que le simple fait d'être suspect justifie que l'État puisse nous forcer à révéler cette intimité, à nous faire transparents à ses yeux, alors même que les services enquêteurs peuvent disposer d'autres moyens pour élucider une affaire. C'est une erreur historique qui, dans son principe, pourrait s'avérer lourde de conséquences.
Si cette jurisprudence est décevante, elle marque toutefois l'émergence d'un véritable débat sur le droit au chiffrement au niveau des cours constitutionnelles européennes. Elle rappelle aussi, en creux, la nécessité de se mobiliser au niveau européen, par exemple autour de la directive sur l'accès transfrontière aux données qui sera présenté le 17 avril prochain, afin de garantir la protection d'un droit au chiffrement désormais consubstantiel de la protection de la vie privée et de la liberté de communication.
1. Pieter Omtzigt. Les opérations de surveillance massive. Strasbourg : Assemblée parlementaire du Conseil de l’Europe, mar. 2015. Disponible à l’adresse : http://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-fr.asp?fileid=21583&la...
Dans le même sens, voir aussi les propos de Giovanni Buttarelli, contrôleur européen de la protection des données, lors d'un colloque organisé à l'Assemblée nationale par l'Observatoire des libertés et du numérique : « le chiffrement est devenu un outil essentiel pour protéger la confidentialité des communications. Son utilisation a augmenté après les révélations sur les efforts des organisations publiques et privées ainsi que des gouvernements pour obtenir l’accès à nos communications » (vidéo YouTube).
2. Il écrivait à ce propos : « Key disclosure, by contrast, could expose private data well beyond what is required by the exigencies of a situation. (…) Such orders should be based on publicly accessible law, clearly limited in scope focused on a specific target, implemented under independent and impartial judicial authority, in particular to preserve the due process rights of targets, and only adopted when necessary and when less intrusive means of investigation are not available. Such measures may only be justified if used in targeting a specific user or users, subject to judicial oversight ». Autant de conditions qui ne sont pas remplies s'agissant de la loi française telle qu'interprétée par le Conseil constitutionnel. Voir : David Kaye. Rapport du Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression sur le chiffrement et l’anonymat. Genève : Conseil des droits de l’Homme des Nations Unies, mai 2015. Disponible à l'adresse : http://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session29/Documents/A.HRC.29.32_AEV.doc
";s:7:"content";s:14154:"
4 avril 2018 - Dans sa décision du 30 mars 2018 relative à l'article 434-15-2 du code pénal, le Conseil constitutionnel a refusé de protéger le droit pour une personne suspectée (en l'espèce un soupçonné revendeur de drogues) de ne pas révéler ses clefs de déchiffrement. Alors que de nombreux acteurs du droit et le gouvernement lui-même s'attendaient à une décision ménageant le droit à ne pas s'auto-incriminer – c'est-à-dire le fait de ne pas être contraint de s'accuser soi-même en livrant son mot de passe –, le Conseil rend une décision très décevante. La Quadrature du Net, qui est intervenue dans cette affaire, s'inquiète de cette décision qui risque d'affaiblir durablement le droit au chiffrement.
La disposition attaquée, l'article 434-15-2 du code pénal, punit d'importantes peines d'amendes et de prison le refus de livrer aux autorités judiciaires une convention de déchiffrement (par exemple, le mot de passe permettant de déchiffrer le contenu d'un disque dur).
Des réserves a minima
Les seules réserves apportées par le Conseil consistent à confirmer qu'il est nécessaire pour l'autorité judiciaire « d'établir » que la personne concernée a effectivement connaissance de la clef de déchiffrement. Cette précision confirme que l'incrimination pénale ne peut être retenue contre des prestataires de solution de chiffrement « bout-en-bout » des communications qui, par définition, n'ont pas connaissance de la clef.
Le Conseil impose également que « l'enquête ou l'instruction doivent avoir permis d'identifier l'existence des données traitées par le moyen de cryptologie susceptible d'avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit ». Une précision qui invite à penser qu'il sera donc nécessaire pour les autorités de prouver que des données spécifiques intéressant l'enquête existent bien sur le périphérique concerné.
Malheureusement, le Conseil constitutionnel a refusé de reconnaître les atteintes de ce texte au droit de ne pas s'accuser, au droit au respect de la vie privée, au secret des correspondances, ou encore à la liberté d'expression et de communication.
Le droit de ne pas s'auto-incriminer bafoué
Cette décision constitue d'abord une véritable remise en cause du droit de ne pas s'auto-incriminer – un principe fondamental du droit pénal – qui déséquilibre fortement l'équilibre précaire entre l'instruction et la poursuite légitime des infractions d'un côté, les droits de la défense et le respect de la présomption d'innocence de l'autre. Elle est d'autant plus choquante que la limitation de l'application de ce texte aux seules personnes tierces à l'infraction (n'étant donc pas menacées par l'enquête) était déjà acceptée par une large majorité des acteurs du droit qui doivent faire application de cette incrimination (juridictions, forces de l'ordre, avocats…).
C'est ce qu'illustre par exemple un rapport de la CNIL de 2016, qui affirmait que les obligations de révéler des clefs de déchiffrement « ne peuvent pas conduire à obliger les personnes mises en cause à fournir les informations utiles à l’enquête ». La CNIL poursuivait en rappelant que « le droit de ne pas s’auto-incriminer est un droit fondamental qui trouve son origine dans la Convention européenne des droits de l'Homme et dans la jurisprudence de la Cour européenne ».
Même Philippe Blanc, représentant le Premier ministre dans cette affaire, le reconnaissait plusieurs fois lors de à l'audience du 6 mars 2018 :
La seule interprétation qui soit de nature à rendre l'article 434-15-2 du Code pénal conforme à la Constitution est, en effet, celle qui exclue l'application de cette loi aux personnes suspectées d'avoir commis elles-mêmes une infraction. Cette interprétation est nécessaire […] pour préserver le droit de la personne suspectée à ne pas s'auto-incriminer.
En ce même sens, dès février, le Centre de recherche de l'école des officiers de la gendarmerie nationale (CREOGN) anticipait la décision en ces termes : « Cette décision va sans doute consister en une déclaration de constitutionnalité sous réserve : le texte ne s'appliquerait pas aux auteurs, co-auteurs ou complices en vertu du droit de se taire et de ne pas s'auto-incriminer ».
Et pourtant, le Conseil constitutionnel en a décidé autrement.
Le droit à la vie privée et la liberté de communication menacées
Le CREOGN rappelait par ailleurs le contexte de la création de cette infraction : un simple amendement non véritablement débattu dans la loi relative à la sécurité quotidienne du 15 novembre 2001, adoptée dans le contexte et l'émotion des attaques du 11 septembre. Passible d'une sanction particulièrement importante (3 ans de prison et 270 000 € d'amende), cette disposition risque d'être désormais utilisée aussi bien par les juges d'instruction que par les procureurs pour contraindre des suspects de leur donner accès à tout périphérique chiffré (smartphone, ordinateur, périphériques de mémoire…).
Cette décision remet en cause le droit au chiffrement et l'intérêt de son usage, mais aussi, incidemment, la vie privée, la confidentialité des communications, le secret des sources journalistiques et la liberté de communication. Alors que l'ère numérique banalise la société de surveillance, ce droit est pourtant devenu une nécessité pour garantir les libertés fondamentales face aux possibilités d'arbitraire de l'État. En 2015, l'Assemblée parlementaire du Conseil de l'Europe rappelait ainsi que, « jusqu’à ce que les États acceptent de fixer des limites aux programmes de surveillance massive menés par leurs agences de renseignement, le chiffrement généralisé visant à renforcer la vie privée constitue la solution de repli la plus efficace pour permettre aux gens de protéger leurs données »1.
La décision du Conseil fait d'ailleurs fi des recommandations formulées en 2015 par David Kaye, rapporteur spécial du Conseil des droits de l'Homme de l'ONU pour la liberté d'expression, dans son rapport sur le droit au chiffrement, où il abordait la question des obligations de livrer les clefs de déchiffrement2. Plus largement, elle s'inscrit dans une tradition juridique française particulièrement hostile au chiffrement, qu'illustre par exemple l'article 132-79 du code pénal, qui fait de l'usage du chiffrement une circonstance aggravante lorsqu'il est utilisé pour préparer ou commettre un délit.
L'accès aux données stockées sur nos ordinateurs, nos téléphones ou, sur nos serveurs s'avère formidablement intrusif, révélant des pans entiers de notre intimité, de notre histoire personnelle, de notre mémoire. Dans ce contexte, le chiffrement des données permet de rétablir un peu de l'équilibre perdu entre les capacités de surveillance des États et le droit à la vie privée. Or, par cette décision, le Conseil constitutionnel admet que le simple fait d'être suspect justifie que l'État puisse nous forcer à révéler cette intimité, à nous faire transparents à ses yeux, alors même que les services enquêteurs peuvent disposer d'autres moyens pour élucider une affaire. C'est une erreur historique qui, dans son principe, pourrait s'avérer lourde de conséquences.
Si cette jurisprudence est décevante, elle marque toutefois l'émergence d'un véritable débat sur le droit au chiffrement au niveau des cours constitutionnelles européennes. Elle rappelle aussi, en creux, la nécessité de se mobiliser au niveau européen, par exemple autour de la directive sur l'accès transfrontière aux données qui sera présenté le 17 avril prochain, afin de garantir la protection d'un droit au chiffrement désormais consubstantiel de la protection de la vie privée et de la liberté de communication.
1. Pieter Omtzigt. Les opérations de surveillance massive. Strasbourg : Assemblée parlementaire du Conseil de l’Europe, mar. 2015. Disponible à l’adresse : http://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-fr.asp?fileid=21583&la...
Dans le même sens, voir aussi les propos de Giovanni Buttarelli, contrôleur européen de la protection des données, lors d'un colloque organisé à l'Assemblée nationale par l'Observatoire des libertés et du numérique : « le chiffrement est devenu un outil essentiel pour protéger la confidentialité des communications. Son utilisation a augmenté après les révélations sur les efforts des organisations publiques et privées ainsi que des gouvernements pour obtenir l’accès à nos communications » (vidéo YouTube).
2. Il écrivait à ce propos : « Key disclosure, by contrast, could expose private data well beyond what is required by the exigencies of a situation. (…) Such orders should be based on publicly accessible law, clearly limited in scope focused on a specific target, implemented under independent and impartial judicial authority, in particular to preserve the due process rights of targets, and only adopted when necessary and when less intrusive means of investigation are not available. Such measures may only be justified if used in targeting a specific user or users, subject to judicial oversight ». Autant de conditions qui ne sont pas remplies s'agissant de la loi française telle qu'interprétée par le Conseil constitutionnel. Voir : David Kaye. Rapport du Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression sur le chiffrement et l’anonymat. Genève : Conseil des droits de l’Homme des Nations Unies, mai 2015. Disponible à l'adresse : http://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session29/Documents/A.HRC.29.32_AEV.doc
";s:7:"dateiso";s:15:"20180404_151144";}s:15:"20180322_153551";a:7:{s:5:"title";s:95:"Surveillance généralisée des citoyens : La Quadrature du Net attaque les opérateurs mobiles";s:4:"link";s:55:"https://www.laquadrature.net/fr/conservation_operateurs";s:4:"guid";s:37:"10448 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 22 Mar 2018 14:35:51 +0000";s:11:"description";s:6532:"
22 mars 2018 - Quatre bénévoles de la Quadrature du Net ont demandé à leur opérateur de téléphonie mobile français (Free Mobile, Orange, Bouygues Telecom, SFR) d'accéder aux données personnelles que ces derniers conservent sur eux. N'ayant pas reçu de réponse satisfaisante au bout de 3 mois, nous venons de déposer 4 plaintes contre ces opérateurs auprès de la CNIL.
Les opérateurs mobiles doivent conserver pendant 1 an les données de localisation de tous leurs abonnés. Le code des postes communications électroniques, dans son article L34-1 et R10-13, leur impose de conserver pendant 1 an un ensemble d'informations sur l'utilisateur, informations qui permettent d'identifier l'utilisateur de la ligne, l'horaire et la durée de ses communications, mais surtout l'origine et la localisation de celles-ci ! Ces données très personnelles n'ont, à notre connaissance, jamais été fournies aux titulaires de ligne.
En octobre dernier, 4 bénévoles de La Quadrature du Net ont demandé, conformément à l'article 39 de la loi 78-18 du 6 janvier 1978, d'obtenir les données personnelles les concernant conservées par leur opérateur mobile. Ainsi, Free Mobile, Bouygues Telecom, SFR et Orange ont chacun reçu un courrier recommandé et disposaient de 2 mois pour y répondre. Dans ces courriers, nous leur rappelions leurs obligations légales en terme de droits d'accès direct aux informations personnelles.
Depuis, nous avons reçu une réponse incomplète de SFR, et une fin de non recevoir de Free, qui prétend que ces informations personnelles ne sont pas communicables aux personnes concernées1 ! Orange et Bouygues Telecom, eux, n'ont jamais répondu. Nous avons donc, depuis, déposé 4 plaintes auprès de la CNIL contre les 4 opérateurs mobiles, afin de faire valoir nos droits d'accès à ces informations personnelles.
De plus, lorsque notre action aura révélé que ces opérateurs conservent bien les informations visées par le code des postes et des télécommunications, ceux-ci se trouveraient (tout comme le droit français) en violation de la Charte des droits fondamentaux de l'Union européenne et pourront être attaqués à ce titre. Ce texte fondamental, hiérarchiquement supérieur au droit français, a été interprété par la Cour de justice de l'Union européenne, dans sa décision Tele2 du 21 décembre 20162, comme interdisant toute conservation généralisée de données de connexion.
La Quadrature du Net entend amener ce débat sur la place publique, à travers les opérateurs, la CNIL, la justice française et la pugnacité de ses bénévoles. Les Exégètes amateurs ont également une affaire pendante devant le Conseil d'État pour demander la mise en conformité de la loi française à la jurisprudence européenne.
« Nous nous attendions à ces réponses désinvoltes de la part d'Orange, SFR, Bouygues Télécom et Free, aussi avons-nous saisi la CNIL de ces 4 plaintes, et si besoin attaquerons en justice pour obtenir des informations complètes. Par la suite, nous attaquerons devant les tribunaux le non-respect du droit européen par les opérateurs, et cette loi illicite portant atteinte à la vie privée de tous » annonce Benjamin Sonntag, cofondateur de La Quadrature du Net.
PS: un exemple de ce que sait votre opérateur mobile sur votre localisation
1. Dans sa réponse, Free indique "En application de la législation en vigueur, celles-ci (les informations personnelles, ndlr) ne peuvent être transmises que sur réquisition des autorités judiciaires uniquement"
2. L'arrêt Tele2 Sverige AB (C-203/15) rendu le 21 décembre 2016 par la Cour de justice de l'Union européenne conclut fermement que le droit de l'Union « s’oppose à une réglementation nationale prévoyant, à des fins de lutte contre la criminalité, une conservation généralisée et indifférenciée de l’ensemble des données relatives au trafic et des données de localisation de tous les abonnés et utilisateurs ».
22 mars 2018 - Quatre bénévoles de la Quadrature du Net ont demandé à leur opérateur de téléphonie mobile français (Free Mobile, Orange, Bouygues Telecom, SFR) d'accéder aux données personnelles que ces derniers conservent sur eux. N'ayant pas reçu de réponse satisfaisante au bout de 3 mois, nous venons de déposer 4 plaintes contre ces opérateurs auprès de la CNIL.
Les opérateurs mobiles doivent conserver pendant 1 an les données de localisation de tous leurs abonnés. Le code des postes communications électroniques, dans son article L34-1 et R10-13, leur impose de conserver pendant 1 an un ensemble d'informations sur l'utilisateur, informations qui permettent d'identifier l'utilisateur de la ligne, l'horaire et la durée de ses communications, mais surtout l'origine et la localisation de celles-ci ! Ces données très personnelles n'ont, à notre connaissance, jamais été fournies aux titulaires de ligne.
En octobre dernier, 4 bénévoles de La Quadrature du Net ont demandé, conformément à l'article 39 de la loi 78-18 du 6 janvier 1978, d'obtenir les données personnelles les concernant conservées par leur opérateur mobile. Ainsi, Free Mobile, Bouygues Telecom, SFR et Orange ont chacun reçu un courrier recommandé et disposaient de 2 mois pour y répondre. Dans ces courriers, nous leur rappelions leurs obligations légales en terme de droits d'accès direct aux informations personnelles.
Depuis, nous avons reçu une réponse incomplète de SFR, et une fin de non recevoir de Free, qui prétend que ces informations personnelles ne sont pas communicables aux personnes concernées1 ! Orange et Bouygues Telecom, eux, n'ont jamais répondu. Nous avons donc, depuis, déposé 4 plaintes auprès de la CNIL contre les 4 opérateurs mobiles, afin de faire valoir nos droits d'accès à ces informations personnelles.
De plus, lorsque notre action aura révélé que ces opérateurs conservent bien les informations visées par le code des postes et des télécommunications, ceux-ci se trouveraient (tout comme le droit français) en violation de la Charte des droits fondamentaux de l'Union européenne et pourront être attaqués à ce titre. Ce texte fondamental, hiérarchiquement supérieur au droit français, a été interprété par la Cour de justice de l'Union européenne, dans sa décision Tele2 du 21 décembre 20162, comme interdisant toute conservation généralisée de données de connexion.
La Quadrature du Net entend amener ce débat sur la place publique, à travers les opérateurs, la CNIL, la justice française et la pugnacité de ses bénévoles. Les Exégètes amateurs ont également une affaire pendante devant le Conseil d'État pour demander la mise en conformité de la loi française à la jurisprudence européenne.
« Nous nous attendions à ces réponses désinvoltes de la part d'Orange, SFR, Bouygues Télécom et Free, aussi avons-nous saisi la CNIL de ces 4 plaintes, et si besoin attaquerons en justice pour obtenir des informations complètes. Par la suite, nous attaquerons devant les tribunaux le non-respect du droit européen par les opérateurs, et cette loi illicite portant atteinte à la vie privée de tous » annonce Benjamin Sonntag, cofondateur de La Quadrature du Net.
PS: un exemple de ce que sait votre opérateur mobile sur votre localisation
1. Dans sa réponse, Free indique "En application de la législation en vigueur, celles-ci (les informations personnelles, ndlr) ne peuvent être transmises que sur réquisition des autorités judiciaires uniquement"
2. L'arrêt Tele2 Sverige AB (C-203/15) rendu le 21 décembre 2016 par la Cour de justice de l'Union européenne conclut fermement que le droit de l'Union « s’oppose à une réglementation nationale prévoyant, à des fins de lutte contre la criminalité, une conservation généralisée et indifférenciée de l’ensemble des données relatives au trafic et des données de localisation de tous les abonnés et utilisateurs ».
";s:7:"dateiso";s:15:"20180322_153551";}s:15:"20180320_133524";a:7:{s:5:"title";s:74:"La surveillance policière dopée aux Big Data arrive près de chez vous !";s:4:"link";s:63:"https://www.laquadrature.net/fr/surveillance_big_data_marseille";s:4:"guid";s:37:"10447 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 20 Mar 2018 12:35:24 +0000";s:11:"description";s:22579:"
Il y a trois mois, la mairie de Marseille annonçait le début du déploiement de son « observatoire Big Data de la tranquillité publique » à l'issue d'un appel d'offre remporté par l'entreprise Engie Inéo, leader du marché de la vidéosurveillance. Félix Tréguer, chercheur et membre de La Quadrature, écrivait alors à la mairie et à la CNIL en faisant valoir son droit d'accès aux documents administratifs pour obtenir davantage d'informations (a.k.a #CADAlove). À quelques heures d'une réunion publique qui doit se tenir à Marseille, La Quadrature publie un premier document en provenance de la mairie de Marseille, le Cahier des Clauses Techniques Particulières (CCTP), qui détaille les objectifs et les soubassements techniques du projet.
Les responsables municipaux présentent cet observatoire Big Data, annoncé en juillet 2014 et voté par la ville en 2015, comme la première brique de la Smart City™ du « turfu », croyant ainsi faire de l'indécrottable Marseille une ville pionnière de cette clinquante utopie technocratique. Pour ces élus marseillais qui n'ont pas de mots assez durs contre cette ville bigarrée et ses pauvres, le Big Data apparaît comme une véritable aubaine. Selon Caroline Pozmentier, l'adjointe au maire en charge de la sécurité, il va en effet permettre de « façonner la ville quasi idéale ». Rien que ça !
Quelles données ? Quels objectifs ?
Alors que les expérimentations en matière de police prédictive sont encore balbutiantes en France, le projet marseillais promet une vaste plateforme d'intégration basée « sur les méthodes de Big Data » et de « machine learning », capable d'« analyser ce qui s'est passé (hier) », d'« apprécier la situation actuelle » (aujourd'hui) », et d'« anticiper la situation future ou probable (demain) » (p. 12). Le kiffe. Les rédacteurs du CCTP ne s'en cachent pas : « l'approche est particulièrement exploratoire et créative » (p. 42). Mais si les Chinois et les Américains y arrivent, pourquoi pas nous ?
Madame Pozmentier, bien à l’aise dans son rôle de porteuse de projet qu'elle imagine sans doute à fort potentiel électoral, est formelle : « Ce big data ne marchera que si l’on assimile toutes les informations police, justice, marins-pompiers, transports, route, météo etc. ». L'outil agrégera en effet de multiples bases de données structurées et non-structurées, notamment celle de la Délégation Générale de la Sécurité (DGSEC) de la ville de Marseille, qui répertorie toutes les mains courantes, les verbalisations, et bien d'autres données géolocalisées récoltées par les acteurs municipaux de la sécurité.
À cela s'ajouteront les flux du vaste réseau de vidéo-surveillance rendu « intelligent » grâce au traitement de l'image (2000 caméras à terme, et demain des drones1), les données des hôpitaux publics, les données publiées par les foules sur les réseaux sociaux (Twitter et Facebook sont mentionnés page 22 du CCTP). Sans compter les jeux de données fournis par les partenaires externes de la ville, qu'il s'agisse d'autres collectivités, de l'État (coucou la Place Beauvau, ses statistiques sur la criminalité, ses fichiers biométriques TES et autres !) ou des partenaires privés (opérateurs télécoms, etc.), qu'Engie Inéo aura pour mission de démarcher. Il y a de quoi faire.
Enfin, le « crowdsourcing » est également de mise. Si l’on en croit le CCTP, « chaque citoyen » pourra « fournir en temps réel des informations (texto, vidéo, photo, vitesse de déplacement, niveau de stress, ...) via une application sur smartphone ou des objets connectés » (p. 20). Marseille surenchérit, alors que Nice va déployer son « app » Reporty.
Grâce à toutes ces données, la ville souhaite donc analyser automatiquement les « incidents » grâce à des algorithmes portant sur « leur contexte et leur cause », sur la « détection et l'investigation des comportements anormaux », sur la « géolocalisation des points dits "chauds" de la ville ». Que de réjouissances ! Comme évoqué plus haut, il est aussi question de vidéosurveillance « intelligente », en lien avec la vidéo-verbalisation et, demain, la reconnaissance faciale2.
Les joies du public-privé
Le prestataire retenu fin novembre, l'entreprise Engie Inéo, n'est pas tombé de la dernière pluie en matière de bluff techno-sécuritaire : l'entreprise est en effet leader du marché français de la vidéosurveillance, qui lui a rapporté en 2013 autour de 60 millions d'euros3. Depuis quelques années, notamment grâce à des partenariats avec des entreprises comme IBM, elle se positionne sur le marché en plein extension de la Smart City™ et des solutions Big Data™.
Engie Inéo, donc, est aux manettes de cet outil amené à se substituer en partie aux femmes et aux hommes qui travaillent dans la police et qui, à terme, leur dictera la marche à suivre. L'entreprise promet qu'il sera « pleinement opérationnel » fin 2020. 1,8 million d'euros sont pour l'instant mis sur la table. L'essentiel de cette somme vient de la ville et des autres collectivités locales, mais l'Union européenne apporte également 600 000 euros via les fonds de développement régional FEDER (pdf). Vive l'Europe !4
Parions que les coûts liés à la mise en place d'un outil fonctionnel seront vite amenés à exploser. Car la privatisation croissante des politiques publiques – notamment dans le champ de la sécurité – s'accompagne bien souvent de véritables gabegies financières. On se prend alors à rêver de tout ce qu'on aurait pu faire pour aborder la question de la sécurité autrement que par le prisme étriqué de la gestion statistique et du contrôle social...
Dangers sur les libertés
Et la vie privée dans tout ça ?
Caroline Pozmentier assure que « sur notre plate-forme, nous n’utiliserons que des données anonymisées. Et nous travaillons avec la CNIL dans le respect strict du référentiel de recommandations que nous appliquons déjà pour notre système de vidéoprotection ». Rassurés ?
Au vu de la description de l'outil, il n'y a aucune raison de l'être. La CNIL, où plutôt son comité de prospective, publiait justement à l'automne dernier un rapport sur la Smart City (pdf) où était rappelée cette évidence : « Les comportements suspects ne resteront pas anonymes ». À partir des expériences déjà menées aux États-Unis, le rapport soulignait également :
Si les systèmes basés sur de l’algorithmie prédictive promettent de produire des résultats, ils sont aussi de formidables reproducteurs de biais. Plusieurs expériences ont par exemple démontré que les outils d’aide à la localisation des forces de l’ordre avaient tendance à renforcer certaines discriminations et qu’en termes d’efficacité, ils relevaient davantage de la prophétie auto-réalisatrice5.
Les biais humains dans les jeux de données, rendus invisibles une fois passés à la moulinettes des traitements statistiques, risquent en effet de démultiplier les discriminations structurelles déjà subies par celles et ceux qui vivent dans les quartiers pauvres – ceux que le document municipal désigne pudiquement comme les « territoires sensibles spécifiques ». Sans parler du risque de faux-positifs dans la détection des comportements suspects et des infractions.
Sur le plan de la liberté d'expression, d'opinion, de conscience, de circulation, de manifestation, le projet pose également question, tant la surveillance des foules est mise en exergue dans le CCTP. Il y est notamment souligné la nécessité d'anticiper la « menace », par exemple « par évaluation du risque de rassemblements dangereux par analyse des tweets » et par « l'identification des acteurs » (puisqu'on vous dit que la promesse d'anonymisation est un leurre !)6.
Pourra-t-on se joindre à un événement culturel ou une réunion politique sur la voie publique sans risquer d'être mis en fiche par cet outil de surveillance ? Faut-il comprendre que la simple participation à des manifestations et la critique de l'autorité sur les réseaux sociaux suffiront à être identifiés comme une menace pour l'ordre public, à l'image des leaders du mouvement Black Lives Matter à Baltimore ?7 De quelles garanties dispose-t-on pour s'assurer que ce système ne sera pas utilisé pour cibler l'ensemble d'une communauté religieuse, comme l'a fait la police new-yorkaise s'agissant des musulmans de la ville ?8 Aucune.
On nous rétorquera que, pour l'heure, le projet n'évoque pas directement ces aspects (évidemment), mais la nature des outils et les usages qui en sont fait ailleurs dans le monde invitent au plus grand scepticisme.
La CNIL, un alibi bien commode ?
Peut-on tout de même s'attendre à ce que la CNIL encadre comme il se doit ces dispositifs de surveillance dopés aux Big Data ?
Malheureusement, elle semble davantage jouer le rôle d'alibi pour rassurer la population que celui de gardienne des libertés publiques. Voulant en savoir plus sur la manière dont elle accompagne (ou pas) ce genre de projets, nous avons demandé en décembre un RDV à la CNIL et à sa présidente. Aucune réponse à ce jour. Même absence de réponse suite à une demande de RDV auprès de la mairie de Marseille.
À l'avenir, la CNIL sera carrément empêchée de faire quoique ce soit d'un peu efficace si le Parlement ne corrige pas fermement l'ajout délirant de Mme Joissains, rapporteure au Sénat sur le projet de loi données personnelles, qui cherche justement à l'empêcher de prononcer la moindre sanction contre une collectivité territoriale. Ben voyons !
Et si la Smart City™ n'était qu'un immense jeu de dupes, juste bon à généraliser le type d'outils de surveillance massive expérimentés depuis près de dix ans par les services de renseignement à l'ensemble du champ public et privé de la sécurité ?
1. Caroline Pozmentier : « Pour le déploiement du second millier de caméras, on va lancer une grande concertation, avec notamment les comités d’intérêts de quartiers et les bailleurs sociaux, car je ne m’interdis pas d’installer de la vidéoprotection en plein cœur des cités sensibles de la ville, et même que l’on ait un jour recours à des drones civils » (source).
2. En 2016, le projet avait été évoqué comme une solution permettant de repérer automatiquement les personnes fichées S dans la rue.
3. Voir le passage qui lui est consacré dans une enquête de Cash Investigation en date de 2015.
4. On a quand même tenté d'écrire au Contrôleur européen de la protection des données pour lui demander son avis sur cette utilisation des fonds européens dédiés à la lutte contre les inégalités régionales au sein de l'Union, et pour lesquels la région PACA dispose il est vrai d'une grande marge de manœuvre, mais il nous a expliqué gentiment que ce n'était pas de son ressort...
6. Le document poursuit page 14 en expliquant vouloir savoir « (qui parle ?, qui agit ?, qui interagit avec qui?) », la « remontée des fils de conversation (qui organise ? qui est le primo-déposant ?) ».
8. « The NYPD mapped Muslim communities and their religious, educational, and social institutions and businesses in New York City (and beyond). It deployed NYPD officers and informants to infiltrate mosques and other institutions to monitor the conversations of Muslim New Yorkers, including religious leaders, based on their religion without any suspicion of wrongdoing. It conducted other forms of warrantless surveillance of Muslims, including the monitoring of websites, blogs, and other online forums. The results of these unlawful spying activities were entered into NYPD intelligence databases, which amassed information about thousands of law-abiding Americans. ». Raza v. City of New York - Legal Challenge to NYPD Muslim Surveillance Program (3 août 2017). https://www.aclu.org/cases/raza-v-city-new-york-legal-challenge-nypd-muslim-surveillance-program
Il y a trois mois, la mairie de Marseille annonçait le début du déploiement de son « observatoire Big Data de la tranquillité publique » à l'issue d'un appel d'offre remporté par l'entreprise Engie Inéo, leader du marché de la vidéosurveillance. Félix Tréguer, chercheur et membre de La Quadrature, écrivait alors à la mairie et à la CNIL en faisant valoir son droit d'accès aux documents administratifs pour obtenir davantage d'informations (a.k.a #CADAlove). À quelques heures d'une réunion publique qui doit se tenir à Marseille, La Quadrature publie un premier document en provenance de la mairie de Marseille, le Cahier des Clauses Techniques Particulières (CCTP), qui détaille les objectifs et les soubassements techniques du projet.
Les responsables municipaux présentent cet observatoire Big Data, annoncé en juillet 2014 et voté par la ville en 2015, comme la première brique de la Smart City™ du « turfu », croyant ainsi faire de l'indécrottable Marseille une ville pionnière de cette clinquante utopie technocratique. Pour ces élus marseillais qui n'ont pas de mots assez durs contre cette ville bigarrée et ses pauvres, le Big Data apparaît comme une véritable aubaine. Selon Caroline Pozmentier, l'adjointe au maire en charge de la sécurité, il va en effet permettre de « façonner la ville quasi idéale ». Rien que ça !
Quelles données ? Quels objectifs ?
Alors que les expérimentations en matière de police prédictive sont encore balbutiantes en France, le projet marseillais promet une vaste plateforme d'intégration basée « sur les méthodes de Big Data » et de « machine learning », capable d'« analyser ce qui s'est passé (hier) », d'« apprécier la situation actuelle » (aujourd'hui) », et d'« anticiper la situation future ou probable (demain) » (p. 12). Le kiffe. Les rédacteurs du CCTP ne s'en cachent pas : « l'approche est particulièrement exploratoire et créative » (p. 42). Mais si les Chinois et les Américains y arrivent, pourquoi pas nous ?
Madame Pozmentier, bien à l’aise dans son rôle de porteuse de projet qu'elle imagine sans doute à fort potentiel électoral, est formelle : « Ce big data ne marchera que si l’on assimile toutes les informations police, justice, marins-pompiers, transports, route, météo etc. ». L'outil agrégera en effet de multiples bases de données structurées et non-structurées, notamment celle de la Délégation Générale de la Sécurité (DGSEC) de la ville de Marseille, qui répertorie toutes les mains courantes, les verbalisations, et bien d'autres données géolocalisées récoltées par les acteurs municipaux de la sécurité.
À cela s'ajouteront les flux du vaste réseau de vidéo-surveillance rendu « intelligent » grâce au traitement de l'image (2000 caméras à terme, et demain des drones1), les données des hôpitaux publics, les données publiées par les foules sur les réseaux sociaux (Twitter et Facebook sont mentionnés page 22 du CCTP). Sans compter les jeux de données fournis par les partenaires externes de la ville, qu'il s'agisse d'autres collectivités, de l'État (coucou la Place Beauvau, ses statistiques sur la criminalité, ses fichiers biométriques TES et autres !) ou des partenaires privés (opérateurs télécoms, etc.), qu'Engie Inéo aura pour mission de démarcher. Il y a de quoi faire.
Enfin, le « crowdsourcing » est également de mise. Si l’on en croit le CCTP, « chaque citoyen » pourra « fournir en temps réel des informations (texto, vidéo, photo, vitesse de déplacement, niveau de stress, ...) via une application sur smartphone ou des objets connectés » (p. 20). Marseille surenchérit, alors que Nice va déployer son « app » Reporty.
Grâce à toutes ces données, la ville souhaite donc analyser automatiquement les « incidents » grâce à des algorithmes portant sur « leur contexte et leur cause », sur la « détection et l'investigation des comportements anormaux », sur la « géolocalisation des points dits "chauds" de la ville ». Que de réjouissances ! Comme évoqué plus haut, il est aussi question de vidéosurveillance « intelligente », en lien avec la vidéo-verbalisation et, demain, la reconnaissance faciale2.
Les joies du public-privé
Le prestataire retenu fin novembre, l'entreprise Engie Inéo, n'est pas tombé de la dernière pluie en matière de bluff techno-sécuritaire : l'entreprise est en effet leader du marché français de la vidéosurveillance, qui lui a rapporté en 2013 autour de 60 millions d'euros3. Depuis quelques années, notamment grâce à des partenariats avec des entreprises comme IBM, elle se positionne sur le marché en plein extension de la Smart City™ et des solutions Big Data™.
Engie Inéo, donc, est aux manettes de cet outil amené à se substituer en partie aux femmes et aux hommes qui travaillent dans la police et qui, à terme, leur dictera la marche à suivre. L'entreprise promet qu'il sera « pleinement opérationnel » fin 2020. 1,8 million d'euros sont pour l'instant mis sur la table. L'essentiel de cette somme vient de la ville et des autres collectivités locales, mais l'Union européenne apporte également 600 000 euros via les fonds de développement régional FEDER (pdf). Vive l'Europe !4
Parions que les coûts liés à la mise en place d'un outil fonctionnel seront vite amenés à exploser. Car la privatisation croissante des politiques publiques – notamment dans le champ de la sécurité – s'accompagne bien souvent de véritables gabegies financières. On se prend alors à rêver de tout ce qu'on aurait pu faire pour aborder la question de la sécurité autrement que par le prisme étriqué de la gestion statistique et du contrôle social...
Dangers sur les libertés
Et la vie privée dans tout ça ?
Caroline Pozmentier assure que « sur notre plate-forme, nous n’utiliserons que des données anonymisées. Et nous travaillons avec la CNIL dans le respect strict du référentiel de recommandations que nous appliquons déjà pour notre système de vidéoprotection ». Rassurés ?
Au vu de la description de l'outil, il n'y a aucune raison de l'être. La CNIL, où plutôt son comité de prospective, publiait justement à l'automne dernier un rapport sur la Smart City (pdf) où était rappelée cette évidence : « Les comportements suspects ne resteront pas anonymes ». À partir des expériences déjà menées aux États-Unis, le rapport soulignait également :
Si les systèmes basés sur de l’algorithmie prédictive promettent de produire des résultats, ils sont aussi de formidables reproducteurs de biais. Plusieurs expériences ont par exemple démontré que les outils d’aide à la localisation des forces de l’ordre avaient tendance à renforcer certaines discriminations et qu’en termes d’efficacité, ils relevaient davantage de la prophétie auto-réalisatrice5.
Les biais humains dans les jeux de données, rendus invisibles une fois passés à la moulinettes des traitements statistiques, risquent en effet de démultiplier les discriminations structurelles déjà subies par celles et ceux qui vivent dans les quartiers pauvres – ceux que le document municipal désigne pudiquement comme les « territoires sensibles spécifiques ». Sans parler du risque de faux-positifs dans la détection des comportements suspects et des infractions.
Sur le plan de la liberté d'expression, d'opinion, de conscience, de circulation, de manifestation, le projet pose également question, tant la surveillance des foules est mise en exergue dans le CCTP. Il y est notamment souligné la nécessité d'anticiper la « menace », par exemple « par évaluation du risque de rassemblements dangereux par analyse des tweets » et par « l'identification des acteurs » (puisqu'on vous dit que la promesse d'anonymisation est un leurre !)6.
Pourra-t-on se joindre à un événement culturel ou une réunion politique sur la voie publique sans risquer d'être mis en fiche par cet outil de surveillance ? Faut-il comprendre que la simple participation à des manifestations et la critique de l'autorité sur les réseaux sociaux suffiront à être identifiés comme une menace pour l'ordre public, à l'image des leaders du mouvement Black Lives Matter à Baltimore ?7 De quelles garanties dispose-t-on pour s'assurer que ce système ne sera pas utilisé pour cibler l'ensemble d'une communauté religieuse, comme l'a fait la police new-yorkaise s'agissant des musulmans de la ville ?8 Aucune.
On nous rétorquera que, pour l'heure, le projet n'évoque pas directement ces aspects (évidemment), mais la nature des outils et les usages qui en sont fait ailleurs dans le monde invitent au plus grand scepticisme.
La CNIL, un alibi bien commode ?
Peut-on tout de même s'attendre à ce que la CNIL encadre comme il se doit ces dispositifs de surveillance dopés aux Big Data ?
Malheureusement, elle semble davantage jouer le rôle d'alibi pour rassurer la population que celui de gardienne des libertés publiques. Voulant en savoir plus sur la manière dont elle accompagne (ou pas) ce genre de projets, nous avons demandé en décembre un RDV à la CNIL et à sa présidente. Aucune réponse à ce jour. Même absence de réponse suite à une demande de RDV auprès de la mairie de Marseille.
À l'avenir, la CNIL sera carrément empêchée de faire quoique ce soit d'un peu efficace si le Parlement ne corrige pas fermement l'ajout délirant de Mme Joissains, rapporteure au Sénat sur le projet de loi données personnelles, qui cherche justement à l'empêcher de prononcer la moindre sanction contre une collectivité territoriale. Ben voyons !
Et si la Smart City™ n'était qu'un immense jeu de dupes, juste bon à généraliser le type d'outils de surveillance massive expérimentés depuis près de dix ans par les services de renseignement à l'ensemble du champ public et privé de la sécurité ?
1. Caroline Pozmentier : « Pour le déploiement du second millier de caméras, on va lancer une grande concertation, avec notamment les comités d’intérêts de quartiers et les bailleurs sociaux, car je ne m’interdis pas d’installer de la vidéoprotection en plein cœur des cités sensibles de la ville, et même que l’on ait un jour recours à des drones civils » (source).
2. En 2016, le projet avait été évoqué comme une solution permettant de repérer automatiquement les personnes fichées S dans la rue.
3. Voir le passage qui lui est consacré dans une enquête de Cash Investigation en date de 2015.
4. On a quand même tenté d'écrire au Contrôleur européen de la protection des données pour lui demander son avis sur cette utilisation des fonds européens dédiés à la lutte contre les inégalités régionales au sein de l'Union, et pour lesquels la région PACA dispose il est vrai d'une grande marge de manœuvre, mais il nous a expliqué gentiment que ce n'était pas de son ressort...
6. Le document poursuit page 14 en expliquant vouloir savoir « (qui parle ?, qui agit ?, qui interagit avec qui?) », la « remontée des fils de conversation (qui organise ? qui est le primo-déposant ?) ».
8. « The NYPD mapped Muslim communities and their religious, educational, and social institutions and businesses in New York City (and beyond). It deployed NYPD officers and informants to infiltrate mosques and other institutions to monitor the conversations of Muslim New Yorkers, including religious leaders, based on their religion without any suspicion of wrongdoing. It conducted other forms of warrantless surveillance of Muslims, including the monitoring of websites, blogs, and other online forums. The results of these unlawful spying activities were entered into NYPD intelligence databases, which amassed information about thousands of law-abiding Americans. ». Raza v. City of New York - Legal Challenge to NYPD Muslim Surveillance Program (3 août 2017). https://www.aclu.org/cases/raza-v-city-new-york-legal-challenge-nypd-muslim-surveillance-program
";s:7:"dateiso";s:15:"20180320_133524";}s:15:"20180314_161550";a:7:{s:5:"title";s:97:"Loi données personnelles : Le Sénat refuse (lui aussi) d'encadrer les services de renseignement";s:4:"link";s:50:"https://www.laquadrature.net/fr/pjl_rgpd_senat_com";s:4:"guid";s:37:"10445 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 14 Mar 2018 15:15:50 +0000";s:11:"description";s:4344:"
14 mars 2017 - Ce matin, la commission du Sénat en charge d'examiner le projet de loi données personnelles a rendu sa version du texte. Comme à l'Assemblée nationale (voir notre article), la commission des lois a refusé de déposer le moindre amendement visant à encadrer les activités du renseignement français, tel que le droit européen l'exige pourtant. Le texte sera examiné par l'ensemble des sénateurs le 20 mars prochain : ils devront déposer et soutenir tout amendement visant à nous protéger des abus des services de renseignement.
Le projet de loi données personnelles a deux buts : préparer le droit français à l'entrée en application du règlement général sur la protection des données (RGPD) le 25 mai prochain et — nos parlementaires l'oublient presque systématiquement — transposer en droit français la directive 2016/680, qui a pour objectif d'encadrer les traitements de données personnelles en matière de prévention, de détection et de sanction des infractions pénales.
Lire notre article présentant les enjeux de cette directive.
Contrairement à ce que prétend le gouvernement, cette directive s'applique aux activités de renseignement, dès lors que celles-ci visent précisément à détecter et prévenir des infractions (terrorisme, délinquance et criminalité organisées, manifestations interdites, etc.) et que ces infractions ne concernent pas la « sécurité nationale » (l'Union européenne légiférant de longue date en matière de lutte contre le terrorisme, par exemple) et n'échappent donc en aucun cas au champ de cette directive.
Lire notre analyse (PDF, 4 pages) sur la notion de « sécurité nationale » dans la directive.
Or, la loi française n'encadre pas les activités de renseignement avec les garanties imposées par la directive : elle ne prévoit aucune information des personnes surveillées (afin que celles-ci puissent, une fois la menace écartée, contester une mesure illicite) ; elle interdit aux autorités de contrôle d'accéder aux renseignements collectés par les services français auprès de services étrangers ; elle ne prévoit aucune voie de recours juridictionnelle en matière de surveillance internationale.
Ces trois manquements sont frontalement contraires aux exigences de la directive 2016/680. Le Sénat doit corriger la loi française en ce sens. Autrement, La Quadrature du Net devra, encore un fois, agir en justice pour faire modifier la loi (avec les Exégètes amateurs, nous avons déjà fait censurer deux fois la loi renseignement devant le Conseil constitutionnel, en plus d'avoir participé à la censure de nombreuses dispositions lors de l'examen préalable du texte par le Conseil).
Si la conformité du droit français au droit européen n'est plus assurée par le législateur mais par des associations telles que La Quadrature du Net, la légitimité et le rôle du législateur deviennent parfaitement illusoires. Le 20 mars, les Sénateurs devront arrêter de nier et de saper leur fonction. Pour ce faire, ils peuvent déposer et soutenir les amendements que nous proposons (PDF, 6 pages).
14 mars 2017 - Ce matin, la commission du Sénat en charge d'examiner le projet de loi données personnelles a rendu sa version du texte. Comme à l'Assemblée nationale (voir notre article), la commission des lois a refusé de déposer le moindre amendement visant à encadrer les activités du renseignement français, tel que le droit européen l'exige pourtant. Le texte sera examiné par l'ensemble des sénateurs le 20 mars prochain : ils devront déposer et soutenir tout amendement visant à nous protéger des abus des services de renseignement.
Le projet de loi données personnelles a deux buts : préparer le droit français à l'entrée en application du règlement général sur la protection des données (RGPD) le 25 mai prochain et — nos parlementaires l'oublient presque systématiquement — transposer en droit français la directive 2016/680, qui a pour objectif d'encadrer les traitements de données personnelles en matière de prévention, de détection et de sanction des infractions pénales.
Lire notre article présentant les enjeux de cette directive.
Contrairement à ce que prétend le gouvernement, cette directive s'applique aux activités de renseignement, dès lors que celles-ci visent précisément à détecter et prévenir des infractions (terrorisme, délinquance et criminalité organisées, manifestations interdites, etc.) et que ces infractions ne concernent pas la « sécurité nationale » (l'Union européenne légiférant de longue date en matière de lutte contre le terrorisme, par exemple) et n'échappent donc en aucun cas au champ de cette directive.
Lire notre analyse (PDF, 4 pages) sur la notion de « sécurité nationale » dans la directive.
Or, la loi française n'encadre pas les activités de renseignement avec les garanties imposées par la directive : elle ne prévoit aucune information des personnes surveillées (afin que celles-ci puissent, une fois la menace écartée, contester une mesure illicite) ; elle interdit aux autorités de contrôle d'accéder aux renseignements collectés par les services français auprès de services étrangers ; elle ne prévoit aucune voie de recours juridictionnelle en matière de surveillance internationale.
Ces trois manquements sont frontalement contraires aux exigences de la directive 2016/680. Le Sénat doit corriger la loi française en ce sens. Autrement, La Quadrature du Net devra, encore un fois, agir en justice pour faire modifier la loi (avec les Exégètes amateurs, nous avons déjà fait censurer deux fois la loi renseignement devant le Conseil constitutionnel, en plus d'avoir participé à la censure de nombreuses dispositions lors de l'examen préalable du texte par le Conseil).
Si la conformité du droit français au droit européen n'est plus assurée par le législateur mais par des associations telles que La Quadrature du Net, la légitimité et le rôle du législateur deviennent parfaitement illusoires. Le 20 mars, les Sénateurs devront arrêter de nier et de saper leur fonction. Pour ce faire, ils peuvent déposer et soutenir les amendements que nous proposons (PDF, 6 pages).
";s:7:"dateiso";s:15:"20180314_161550";}s:15:"20180312_113517";a:7:{s:5:"title";s:51:"La Quadrature du Net s'ouvre à de nouveaux membres";s:4:"link";s:58:"https://www.laquadrature.net/fr/ouverture_nouveaux_membres";s:4:"guid";s:37:"10443 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 12 Mar 2018 10:35:17 +0000";s:11:"description";s:2080:"
Paris, le 12 mars 2018 - Comme annoncé en novembre 2017 dans les conclusions du bilan de ses dix premières années, La Quadrature du Net a intégré formellement en tant que membres une trentaine de ses proches. La plupart bénévoles de longue date, ces membres ont rejoint l'association début janvier 2018, sur invitation du bureau et de l'équipe salariée.
Cet élargissement amorce une nouvelle dynamique et un renforcement de l'association. Grâce à la multiplication des sensibilités et des expertises, diverses questions au cœur de l'action de la Quadrature bénéficient d'un nouvel éclairage. Plusieurs membres ont déjà pris la parole au nom de l'association dans les médias ou dans le cadre de conférences et d'ateliers.
Il reste encore beaucoup à mettre en place, notamment en termes d'organisation et de processus, mais La Quadrature du Net tient à prendre le temps de cette discussion, loin de l'urgence habituelle que connait l'association. Nous comptons profiter de notre assemblée générale annuelle, qui aura lieu du 31 mars au 2 avril, pour dessiner une feuille de route des prochaines actions militantes et réfléchir aux structures nécessaires pour les mener à bien. Un compte-rendu de ce premier rassemblement sera rendu public, comme le sera régulièrement le résultat des actions des membres.
L'engagement bénévole a toujours été au cœur du fonctionnement de La Quadrature du Net. Ce statut de membre souhaite progressivement reconnaitre celles et ceux qui donnent de leur temps et de leur énergie, pour leur donner du pouvoir sur les orientations de la structure. Cet élargissement n'est donc qu'un début. La construction politique et juridique d'un Internet libre et la défense des droits fondamentaux à l'ère numérique se poursuivent grâce à l'implication de toutes et tous !
";s:7:"content";s:2083:"
Paris, le 12 mars 2018 - Comme annoncé en novembre 2017 dans les conclusions du bilan de ses dix premières années, La Quadrature du Net a intégré formellement en tant que membres une trentaine de ses proches. La plupart bénévoles de longue date, ces membres ont rejoint l'association début janvier 2018, sur invitation du bureau et de l'équipe salariée.
Cet élargissement amorce une nouvelle dynamique et un renforcement de l'association. Grâce à la multiplication des sensibilités et des expertises, diverses questions au cœur de l'action de la Quadrature bénéficient d'un nouvel éclairage. Plusieurs membres ont déjà pris la parole au nom de l'association dans les médias ou dans le cadre de conférences et d'ateliers.
Il reste encore beaucoup à mettre en place, notamment en termes d'organisation et de processus, mais La Quadrature du Net tient à prendre le temps de cette discussion, loin de l'urgence habituelle que connait l'association. Nous comptons profiter de notre assemblée générale annuelle, qui aura lieu du 31 mars au 2 avril, pour dessiner une feuille de route des prochaines actions militantes et réfléchir aux structures nécessaires pour les mener à bien. Un compte-rendu de ce premier rassemblement sera rendu public, comme le sera régulièrement le résultat des actions des membres.
L'engagement bénévole a toujours été au cœur du fonctionnement de La Quadrature du Net. Ce statut de membre souhaite progressivement reconnaitre celles et ceux qui donnent de leur temps et de leur énergie, pour leur donner du pouvoir sur les orientations de la structure. Cet élargissement n'est donc qu'un début. La construction politique et juridique d'un Internet libre et la défense des droits fondamentaux à l'ère numérique se poursuivent grâce à l'implication de toutes et tous !
";s:7:"dateiso";s:15:"20180312_113517";}s:15:"20180307_143518";a:7:{s:5:"title";s:89:"Pistage en ligne : le gouvernement va-t-il autoriser la marchandisation de nos données ?";s:4:"link";s:56:"https://www.laquadrature.net/fr/eprivacy_marchandisation";s:4:"guid";s:37:"10438 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 07 Mar 2018 13:35:18 +0000";s:11:"description";s:13132:"
Paris, le 7 mars 2018 - Demain, les ministères de l'Économie, de la Culture et de la Justice, ainsi que le secrétariat d'État au numérique, devraient arrêter certaines des positions de la France sur le règlement ePrivacy, notamment en matière de pistage de nos comportements en ligne. Cette décision fera suite à un rapport du Conseil général de l'économie, rendu public le 20 février dernier et plaidant en faveur de la marchandisation de nos données, à contre-courant du règlement européen sur la protection des données (RGPD) et de la protection de nos libertés. La Quadrature publie ci-dessous la lettre ouverte qui leur est destinée.
L'entrée en application du règlement général sur la protection des données (RGPD) le 25 mai prochain affole tout l'écosystème de la publicité en ligne qui, depuis dix ans, s'est développé dans l'illégalité, grâce notamment au laisser-faire de la CNIL. Depuis dix ans, alors que le droit européen leur interdit de nous pister en ligne sans notre consentement préalable, libre et éclairé, ces acteurs ont systématiquement refusé de respecter nos droits.
À la veille de l'entrée en application du RGPD qui, enfin, ne devrait plus leur laisser de marge de manœuvre pour continuer de violer nos droits fondamentaux, l'ensemble de cette industrie (publicitaires, opérateurs télécoms, grands éditeurs de presse) publie une lettre ouverte suppliant le gouvernement de sauver leur activité illicite en la rendant légale au niveau européen dans le règlement ePrivacy (ce règlement est destiné à modifier la protection européenne de nos activités en ligne et présente donc pour cette industrie l'opportunité de réduire celle-ci à néant).
Revoir notre site de campagne exposant les enjeux du règlement ePrivacy
Relire notre article sur l'état des débats législatifs
Cette volonté a trouvé écho dans un rapport commandé en octobre dernier par le gouvernement au Conseil général de l'économie (CGE, service de conseil du ministère de l'économie), qui propose purement et simplement de mettre de côté le RGPD en matière de traçage en ligne, afin que nous puissions être contraints de donner notre consentement pour accéder à un service en ligne - ce qui revient à monnayer nos droits fondamentaux à la vie privée et à la protection de nos données, et ce que le GDPR, le Parlement européen et les CNIL européennes condamnent fermement.
Le gouvernement français doit prendre une position ferme et définitive pour rejeter ces incessantes tentatives de détruire les quelques avancées apportées par le RGPD. Et l'industrie doit comprendre qu'elle a déjà perdu la première bataille, il y a deux ans, lors de l'adoption par l'Union européenne du RGPD : elle doit maintenant amender son comportement. Si elle s'y refuse, qu'elle sache que La Quadrature du Net est maintenant habilitée à conduire des actions de groupe et attend de pied ferme le 25 mai prochain. Débattre aujourd'hui sur le règlement ePrivacy ne l'aidera alors en rien.
Notre lettre ouverte transmise au gouvernement : en PDF (2 pages) ou ci-dessous.
Madame, Monsieur,
Le 23 octobre dernier, les ministères de l'économie et de la culture et le secrétariat d'État au Numérique ont chargé le Conseil général de l'économie (CGE) de produire un rapport sur les articles 8 à 10 du projet de règlement ePrivacy.
Il faut d'abord s’inquiéter du fait que la mission confiée au CGE ne s'intéresse en aucune façon aux nouvelles dérogations au consentement permises par cet article 8 en matière de géolocalisation et de mesure d'audience, alors que ces dérogations restent encore strictement exclues par la directive 2002/58. La mission du CGE aurait pourtant été l'occasion d'évaluer l'impact de telles mesures sur la vie privée.
À la place, et à l’opposé, la mission vise surtout à évaluer les conséquences d'obligations déjà prévues depuis 2009 par la directive ePrivacy (s'agissant de « l'encadrement des cookies ») et depuis 2016 par le RGPD (s'agissant de « la définition du consentement »). Le souhait d'évaluer les conséquences d'obligations actuelles laisse craindre une volonté de remettre celles-ci en cause. Il s'agit malheureusement de la direction adoptée par le CGE dans son rapport publié le 20 février.
Un consentement forcé
L'article 7, §4, du RGPD, accompagné par son considérant 43, prévoit qu'un consentement n'est pas valide s'il est donné sous la menace de ne pas accéder à un service ou de n’accéder qu’à un service dégradé. Dans sa proposition n°5, le CGE invite le gouvernement à prévoir dans le règlement ePrivacy une dérogation au RGPD afin de rendre un tel consentement valide. Ce faisant, le CGE s'oppose :
au groupe de l'article 29 qui, dans ses lignes directrices WP259 du 28 novembre 2017, donne une explication détaillée du caractère libre du consentement exigé par le RGPD :
à la CNIL, qui a donné une application concrète de ce principe dans sa mise en demeure de Whatsapp le 18 décembre dernier ;
au Parlement européen, qui a détaillé l’application sectorielle de ce principe dans le règlement ePrivacy, en interdisant les tracking-wall ;
au souhait majoritaire de la population qui, en France, et selon l'Eurobaromètre de 2017, refuserait à 82% de payer afin de ne pas être surveillée en visitant un site Internet (p. 63) et refuserait à 60% de voir ses activités en ligne surveillées en échange d'un accès non restreint à un site Internet (p. 59) ;
au principe démocratique élémentaire selon lequel nul ne peut renoncer au bénéfice d'un droit fondamental en contre-partie d'un bien ou d'un service, sans quoi ce droit ne serait plus garanti que par le niveau de fortune de chaque personne.
Des conséquences erronées
Le rapport du CGE se fondant sur l'idée que le consentement doit pouvoir être forcé, il en tire plusieurs conclusions aussi erronées que son postulat de départ.
En premier lieu, le CGE prétend que bloquer par défaut les outils de pistage favoriserait les grandes plateformes, car celles-ci pourraient obtenir le consentement de leurs utilisateurs plus facilement que d'autres sites.
Ceci n’aurait un sens que si ces plateformes avaient un moyen de négociation envers leurs utilisateurs plus important que n’en auraient d’autres sites. Or, le principe de la liberté du consentement interdit précisément toute forme de négociation en matière de données personnelles : peu importe la taille ou la structure d’un site, il ne peut pas limiter son accès aux seuls utilisateurs acceptant d'y être surveillés.
En deuxième lieu, le CGE justifie plusieurs de ses positions par l’idée que les internautes accepteraient eux-mêmes de céder leurs données pour avoir du « tout gratuit », or :
le CGE n’explique pas en quoi, en vérité, cette « acceptation » n’est pas forcée, tel qu’il souhaite lui-même le permettre ;
la gratuité n’est pas synonyme d’exploitation de données, tel que le démontre l’existence de nombreux sites et logiciels véritablement « gratuits » (Wikipédia, Firefox, VLC, Linux, LibreOffice, etc.) ;
Internet n’est pas synonyme de gratuit, tel que le démontre le succès de nombreuses offres payantes (Netflix, Spotify, Mediapart, etc.).
En troisième lieu, le CGE insiste sur la nécessité de ne pas rendre la navigation plus difficile du fait de demandes de consentement, mais passe complètement sous silence l’effet de sa propre proposition : les tracking-wall visent précisément à rendre la navigation plus difficile, voire impossible.
Des solutions ignorées
La mission du CGE visait aussi le recueil du consentement « via le paramétrage du navigateur » qui, par défaut, serait configuré pour bloquer les traceurs. Si le CGE rend un avis négatif sur cette nouvelle garantie introduite par le projet de règlement, ce n’est qu’en omettant plusieurs réalités techniques.
En premier lieu, le CGE prétend que bloquer des traceurs au moyen d’une liste noire ne peut reposer techniquement que sur l’établissement par des tiers d’une telle liste, ce qui causerait des problèmes de gouvernance.
Ceci revient à mettre de côté le fait que les listes établies par des tiers le sont en pratique de façon parfaitement transparente et laissées au choix des utilisateurs (tel que sur uBlock Origin, où des dizaines de listes différentes sont proposées).
Ensuite, ceci revient aussi à passer sous silence la méthode développée par l’Electronic Frontier Foundation et déployée sur son extension Privacy Badger, qui ne repose pas sur une liste pré-établie. L'extension au navigateur construit seule et progressivement une liste noire en analysant les requêtes récurrentes rencontrées par l’utilisateur sur la multitude des sites qu’il visite (durant plusieurs semaines, mois, années) afin de détecter celles qui le pistent. Aucune contrainte technique ne s’oppose à intégrer dans chaque navigateur cette méthode aussi efficace que transparente et indépendante d’autorités tiers.
En deuxième lieu, le CGE prétend qu’un blocage par défaut des traceurs par le navigateur empêcherait les sites web de communiquer avec les internautes pour leur demander efficacement leur consentement.
Ceci revient à passer sous silence la pratique déjà déployée par de nombreux sites pour faire face aux bloqueurs de traceurs : l’accès au contenu du site (site de presse, typiquement, tel que celui des Echos) est bloqué (dès la première consultation ou après lecture de quelques articles) et un texte est affiché à l’internaute, l’invitant à désactiver son bloqueur et lui exposant les raisons pour ce faire.
Bien que cette pratique soit illicite lorsqu’elle conduit à bloquer l’accès (car niant la liberté du consentement), elle démontre combien il est simple pour chaque site d’exposer sa propre demande de consentement.
En troisième lieu, le CGE prétend qu’il serait dangereux de confier le blocage des traceurs à des éditeurs de navigateur et de système d’exploitation qui occupent une place dominante sur le marché du pistage en ligne.
Ceci revient à nier que ces éditeurs bénéficient déjà de cette situation : ils mettent en œuvre des politiques de blocages (détaillées par le CGE) dont le but est de rendre plus attractifs leurs propres outils de pistage (l’identifiant unique attribué sur Android et iOS, typiquement). Seule la loi peut, en imposant des mécanismes de blocage s’appliquant pareillement à leurs propres outils et à ceux de tiers, corriger ce déséquilibre déjà présent et dommageable.
Conclusion
Pour ces raisons, nous vous invitons :
à ne pas introduire de dérogation au principe de liberté du consentement prévu par le RGPD ;
à ne pas supprimer l’obligation pour les navigateurs de bloquer les traceurs par défaut ;
à supprimer les exceptions au consentement en matière de géolocalisation et de mesure d’audience, sans en rajouter aucune autre (telle la pseudonymisation, qui est une mesure de sécurité déjà imposée par le RGPD et qui n’aurait donc aucun sens à devenir ici une condition de licéité).
Si le projet de règlement ePrivacy devait évoluer autrement, nous devrions renoncer aux quelques avancées qu’il apporte pour nous opposer à son adoption, afin de ne pas voir la protection actuellement offerte par la directive ePrivacy être amoindrie à ce point.
Cordialement,
La Quadrature du Net
";s:7:"content";s:13135:"
Paris, le 7 mars 2018 - Demain, les ministères de l'Économie, de la Culture et de la Justice, ainsi que le secrétariat d'État au numérique, devraient arrêter certaines des positions de la France sur le règlement ePrivacy, notamment en matière de pistage de nos comportements en ligne. Cette décision fera suite à un rapport du Conseil général de l'économie, rendu public le 20 février dernier et plaidant en faveur de la marchandisation de nos données, à contre-courant du règlement européen sur la protection des données (RGPD) et de la protection de nos libertés. La Quadrature publie ci-dessous la lettre ouverte qui leur est destinée.
L'entrée en application du règlement général sur la protection des données (RGPD) le 25 mai prochain affole tout l'écosystème de la publicité en ligne qui, depuis dix ans, s'est développé dans l'illégalité, grâce notamment au laisser-faire de la CNIL. Depuis dix ans, alors que le droit européen leur interdit de nous pister en ligne sans notre consentement préalable, libre et éclairé, ces acteurs ont systématiquement refusé de respecter nos droits.
À la veille de l'entrée en application du RGPD qui, enfin, ne devrait plus leur laisser de marge de manœuvre pour continuer de violer nos droits fondamentaux, l'ensemble de cette industrie (publicitaires, opérateurs télécoms, grands éditeurs de presse) publie une lettre ouverte suppliant le gouvernement de sauver leur activité illicite en la rendant légale au niveau européen dans le règlement ePrivacy (ce règlement est destiné à modifier la protection européenne de nos activités en ligne et présente donc pour cette industrie l'opportunité de réduire celle-ci à néant).
Revoir notre site de campagne exposant les enjeux du règlement ePrivacy
Relire notre article sur l'état des débats législatifs
Cette volonté a trouvé écho dans un rapport commandé en octobre dernier par le gouvernement au Conseil général de l'économie (CGE, service de conseil du ministère de l'économie), qui propose purement et simplement de mettre de côté le RGPD en matière de traçage en ligne, afin que nous puissions être contraints de donner notre consentement pour accéder à un service en ligne - ce qui revient à monnayer nos droits fondamentaux à la vie privée et à la protection de nos données, et ce que le GDPR, le Parlement européen et les CNIL européennes condamnent fermement.
Le gouvernement français doit prendre une position ferme et définitive pour rejeter ces incessantes tentatives de détruire les quelques avancées apportées par le RGPD. Et l'industrie doit comprendre qu'elle a déjà perdu la première bataille, il y a deux ans, lors de l'adoption par l'Union européenne du RGPD : elle doit maintenant amender son comportement. Si elle s'y refuse, qu'elle sache que La Quadrature du Net est maintenant habilitée à conduire des actions de groupe et attend de pied ferme le 25 mai prochain. Débattre aujourd'hui sur le règlement ePrivacy ne l'aidera alors en rien.
Notre lettre ouverte transmise au gouvernement : en PDF (2 pages) ou ci-dessous.
Madame, Monsieur,
Le 23 octobre dernier, les ministères de l'économie et de la culture et le secrétariat d'État au Numérique ont chargé le Conseil général de l'économie (CGE) de produire un rapport sur les articles 8 à 10 du projet de règlement ePrivacy.
Il faut d'abord s’inquiéter du fait que la mission confiée au CGE ne s'intéresse en aucune façon aux nouvelles dérogations au consentement permises par cet article 8 en matière de géolocalisation et de mesure d'audience, alors que ces dérogations restent encore strictement exclues par la directive 2002/58. La mission du CGE aurait pourtant été l'occasion d'évaluer l'impact de telles mesures sur la vie privée.
À la place, et à l’opposé, la mission vise surtout à évaluer les conséquences d'obligations déjà prévues depuis 2009 par la directive ePrivacy (s'agissant de « l'encadrement des cookies ») et depuis 2016 par le RGPD (s'agissant de « la définition du consentement »). Le souhait d'évaluer les conséquences d'obligations actuelles laisse craindre une volonté de remettre celles-ci en cause. Il s'agit malheureusement de la direction adoptée par le CGE dans son rapport publié le 20 février.
Un consentement forcé
L'article 7, §4, du RGPD, accompagné par son considérant 43, prévoit qu'un consentement n'est pas valide s'il est donné sous la menace de ne pas accéder à un service ou de n’accéder qu’à un service dégradé. Dans sa proposition n°5, le CGE invite le gouvernement à prévoir dans le règlement ePrivacy une dérogation au RGPD afin de rendre un tel consentement valide. Ce faisant, le CGE s'oppose :
au groupe de l'article 29 qui, dans ses lignes directrices WP259 du 28 novembre 2017, donne une explication détaillée du caractère libre du consentement exigé par le RGPD :
à la CNIL, qui a donné une application concrète de ce principe dans sa mise en demeure de Whatsapp le 18 décembre dernier ;
au Parlement européen, qui a détaillé l’application sectorielle de ce principe dans le règlement ePrivacy, en interdisant les tracking-wall ;
au souhait majoritaire de la population qui, en France, et selon l'Eurobaromètre de 2017, refuserait à 82% de payer afin de ne pas être surveillée en visitant un site Internet (p. 63) et refuserait à 60% de voir ses activités en ligne surveillées en échange d'un accès non restreint à un site Internet (p. 59) ;
au principe démocratique élémentaire selon lequel nul ne peut renoncer au bénéfice d'un droit fondamental en contre-partie d'un bien ou d'un service, sans quoi ce droit ne serait plus garanti que par le niveau de fortune de chaque personne.
Des conséquences erronées
Le rapport du CGE se fondant sur l'idée que le consentement doit pouvoir être forcé, il en tire plusieurs conclusions aussi erronées que son postulat de départ.
En premier lieu, le CGE prétend que bloquer par défaut les outils de pistage favoriserait les grandes plateformes, car celles-ci pourraient obtenir le consentement de leurs utilisateurs plus facilement que d'autres sites.
Ceci n’aurait un sens que si ces plateformes avaient un moyen de négociation envers leurs utilisateurs plus important que n’en auraient d’autres sites. Or, le principe de la liberté du consentement interdit précisément toute forme de négociation en matière de données personnelles : peu importe la taille ou la structure d’un site, il ne peut pas limiter son accès aux seuls utilisateurs acceptant d'y être surveillés.
En deuxième lieu, le CGE justifie plusieurs de ses positions par l’idée que les internautes accepteraient eux-mêmes de céder leurs données pour avoir du « tout gratuit », or :
le CGE n’explique pas en quoi, en vérité, cette « acceptation » n’est pas forcée, tel qu’il souhaite lui-même le permettre ;
la gratuité n’est pas synonyme d’exploitation de données, tel que le démontre l’existence de nombreux sites et logiciels véritablement « gratuits » (Wikipédia, Firefox, VLC, Linux, LibreOffice, etc.) ;
Internet n’est pas synonyme de gratuit, tel que le démontre le succès de nombreuses offres payantes (Netflix, Spotify, Mediapart, etc.).
En troisième lieu, le CGE insiste sur la nécessité de ne pas rendre la navigation plus difficile du fait de demandes de consentement, mais passe complètement sous silence l’effet de sa propre proposition : les tracking-wall visent précisément à rendre la navigation plus difficile, voire impossible.
Des solutions ignorées
La mission du CGE visait aussi le recueil du consentement « via le paramétrage du navigateur » qui, par défaut, serait configuré pour bloquer les traceurs. Si le CGE rend un avis négatif sur cette nouvelle garantie introduite par le projet de règlement, ce n’est qu’en omettant plusieurs réalités techniques.
En premier lieu, le CGE prétend que bloquer des traceurs au moyen d’une liste noire ne peut reposer techniquement que sur l’établissement par des tiers d’une telle liste, ce qui causerait des problèmes de gouvernance.
Ceci revient à mettre de côté le fait que les listes établies par des tiers le sont en pratique de façon parfaitement transparente et laissées au choix des utilisateurs (tel que sur uBlock Origin, où des dizaines de listes différentes sont proposées).
Ensuite, ceci revient aussi à passer sous silence la méthode développée par l’Electronic Frontier Foundation et déployée sur son extension Privacy Badger, qui ne repose pas sur une liste pré-établie. L'extension au navigateur construit seule et progressivement une liste noire en analysant les requêtes récurrentes rencontrées par l’utilisateur sur la multitude des sites qu’il visite (durant plusieurs semaines, mois, années) afin de détecter celles qui le pistent. Aucune contrainte technique ne s’oppose à intégrer dans chaque navigateur cette méthode aussi efficace que transparente et indépendante d’autorités tiers.
En deuxième lieu, le CGE prétend qu’un blocage par défaut des traceurs par le navigateur empêcherait les sites web de communiquer avec les internautes pour leur demander efficacement leur consentement.
Ceci revient à passer sous silence la pratique déjà déployée par de nombreux sites pour faire face aux bloqueurs de traceurs : l’accès au contenu du site (site de presse, typiquement, tel que celui des Echos) est bloqué (dès la première consultation ou après lecture de quelques articles) et un texte est affiché à l’internaute, l’invitant à désactiver son bloqueur et lui exposant les raisons pour ce faire.
Bien que cette pratique soit illicite lorsqu’elle conduit à bloquer l’accès (car niant la liberté du consentement), elle démontre combien il est simple pour chaque site d’exposer sa propre demande de consentement.
En troisième lieu, le CGE prétend qu’il serait dangereux de confier le blocage des traceurs à des éditeurs de navigateur et de système d’exploitation qui occupent une place dominante sur le marché du pistage en ligne.
Ceci revient à nier que ces éditeurs bénéficient déjà de cette situation : ils mettent en œuvre des politiques de blocages (détaillées par le CGE) dont le but est de rendre plus attractifs leurs propres outils de pistage (l’identifiant unique attribué sur Android et iOS, typiquement). Seule la loi peut, en imposant des mécanismes de blocage s’appliquant pareillement à leurs propres outils et à ceux de tiers, corriger ce déséquilibre déjà présent et dommageable.
Conclusion
Pour ces raisons, nous vous invitons :
à ne pas introduire de dérogation au principe de liberté du consentement prévu par le RGPD ;
à ne pas supprimer l’obligation pour les navigateurs de bloquer les traceurs par défaut ;
à supprimer les exceptions au consentement en matière de géolocalisation et de mesure d’audience, sans en rajouter aucune autre (telle la pseudonymisation, qui est une mesure de sécurité déjà imposée par le RGPD et qui n’aurait donc aucun sens à devenir ici une condition de licéité).
Si le projet de règlement ePrivacy devait évoluer autrement, nous devrions renoncer aux quelques avancées qu’il apporte pour nous opposer à son adoption, afin de ne pas voir la protection actuellement offerte par la directive ePrivacy être amoindrie à ce point.
Cordialement,
La Quadrature du Net
";s:7:"dateiso";s:15:"20180307_143518";}s:15:"20180306_182134";a:7:{s:5:"title";s:101:"Conseil constitutionnel : La Quadrature plaide contre l'obligation de livrer ses clefs de chiffrement";s:4:"link";s:73:"https://www.laquadrature.net/fr/conseil-constitutionnel-clefs-chiffrement";s:4:"guid";s:37:"10436 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 06 Mar 2018 17:21:34 +0000";s:11:"description";s:13000:"
Paris, le 7 mars 2018 - La Quadrature du Net est intervenue avec Les Exégètes amateurs dans une affaire devant le Conseil constitutionnel mettant en cause une disposition du code pénal obligeant la remise de la convention secrète de déchiffrement d'un moyen de cryptologie.
Le 10 janvier dernier, la chambre criminelle de la Cour de cassation a renvoyé une question prioritaire de constitutionnalité (QPC) devant le Conseil constitutionnel, qui concerne la conformité aux droits et libertés que la Constitution garantit de l'article 434-15-2 du code pénal.
Cet article prévoit que :
« Est puni de trois ans d'emprisonnement et de 270 000 € d'amende le fait, pour quiconque ayant connaissance de la convention secrète de déchiffrement d'un moyen de cryptologie susceptible d'avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit, de refuser de remettre ladite convention aux autorités judiciaires ou de la mettre en œuvre, sur les réquisitions de ces autorités délivrées en application des titres II et III du livre Ier du code de procédure pénale.
Si le refus est opposé alors que la remise ou la mise en œuvre de la convention aurait permis d'éviter la commission d'un crime ou d'un délit ou d'en limiter les effets, la peine est portée à cinq ans d'emprisonnement et à 450 000 € d'amende. »
Cette affaire met en cause des procédés intrusifs et attentatoires aux libertés mis en œuvre par les forces de police dans le cadre de leurs enquêtes. Ces procédés, permis par la loi renforçant la lutte contre le terrorisme et le crime organisé, sont très inquiétants notamment parce qu'ils s'appliquent indifféremment à tout type de crimes et délits.
C'est également l'occasion de rouvrir les multiples débats autour du chiffrement.
Il y a tout juste un an, l'Observatoire des Libertés du Numérique (OLN) dont La Quadrature fait partie, publiait son positionnement sur les questions liées au chiffrement et rappelait notamment son rôle dans la préservation des droits et libertés fondamentales notamment en réponse aux moyens croissants de la surveillance d'État.
L'argumentation principale repose sur le droit reconnu à chacun de ne pas s'auto-incriminer, et de garder le silence dans le cadre d'une enquête. Car révéler la clé de déchiffrement d'une communication qui constituerait une preuve de culpabilité revient directement à cela.
De plus, ce droit au silence doit être absolu - sans condition procédurale : il doit à la fois être garanti pour une personne visée par une enquête, mais aussi pour tous les tiers avec qui cette personne serait entrée en communication. En effet, ces tiers ne doivent pas pouvoir être « contraints » à s'auto-incriminer eux-aussi en déchiffrant les échanges tenus avec la personne poursuivie.
Retrouvez ici la requête en intervention de La Quadrature du Net.
Nous publions aussi le texte de la plaidoirie de Maître Alexis Fitzjean O Cobhthaigh :
Merci, Monsieur le Président,
Mesdames et Messieurs les membres du Conseil constitutionnel,
1. Les « pères fondateurs » des États-Unis tels Benjamin Franklin, James Madison ou encore Thomas Jefferson, chiffraient leurs correspondances. C’est d’ailleurs dans un courrier partiellement codé que, le 27 mai 1789, Madison exposera à Jefferson son idée d’ajouter une Déclaration des droits à la Constitution américaine.
Le chiffrement prend racine dans les fondements de notre civilisation. Homère mentionne déjà plusieurs exemples mythiques dans l’Illiade.
Les techniques de chiffrement constellent notre histoire : carré de Polybe, palindrome de Sator, les sémagrammes grecs, les marquages de lettres, la scytale spartiate, le chiffre de César, le carré de Vigenère, le cadran d’Alberti, le télégraphe de Chappe, ou encore la réglette de Saint-Cyr.
Par le passé, les moyens de cryptologies ont été largement mobilisés.
Aujourd’hui, ils le sont tout autant pour sécuriser des échanges indispensables dans le fonctionnement actuel de la société.
M. Guillaume Poupard, le directeur de l’Agence nationale de la sécurité des systèmes d’information, l’ANSSI, l’a fermement réaffirmé dans une note en date du 24 mars 2016 à travers laquelle il explique que :
« Parmi les outils de protection indispensables, figurent au premier rang les moyens de cryptographie, et notamment les technologies de chiffrement de l’information. Eux seuls permettent d’assurer une sécurité au juste niveau lors de la transmission, du stockage et de l’accès aux données numériques sensibles. Les applications sont très nombreuses : échanges couverts par le secret de la défense nationale, données de santé ou de profession réglementée, données techniques, commerciales et stratégiques des entreprises, données personnelles des citoyens. Le développement et l’usage généralisé de ces moyens défensifs doivent par conséquent être systématiquement encouragés, voire réglementairement imposés dans les situations les plus critiques. »
Cette extension caractérisée du champ d’application du chiffrement à des domaines nouveaux implique, symétriquement, une protection juridique renforcée.
2. J’en viens donc à présent au droit.
L’article 434-15-2 du code pénal méconnaît le droit de se taire et le droit de ne pas s’auto-incriminer, notamment en ce que la convention secrète de déchiffrement relève du for interne de la personne poursuivie.
En outre, ces dispositions sont de nature à vicier le consentement libre de la communication d’éléments susceptibles de faire reconnaître la culpabilité d’une personne.
Dans ces conditions, la reconnaissance par une personne de sa propre culpabilité ne saurait être exprimée « volontairement, consciemment et librement » (cf. « commentaire autorisé » de la décision n° 2004-492 DC du 2 mars 2004, Loi portant adaptation de la justice aux évolutions de la criminalité, présent sur le site du Conseil constitutionnel), dès lors que les dispositions querellées viennent exercer une contrainte forte sur la liberté du consentement de la personne en cause.
Du reste, les dispositions contestées portent également atteinte, en toute hypothèse, au droit au respect à la vie privée, au droit au secret des correspondances, à la liberté d’expression, aux droits de la défense et au droit à un procès équitable.
De toute évidence, non seulement l’ensemble de ces atteintes à des droits et libertés constitutionnellement protégés ne sont en rien justifiées par un intérêt général suffisant, mais surtout, ce délit n’est nullement nécessaire, radicalement inadapté et manifestement disproportionné.
Sur l’absence de nécessité, d’abord.
Force est de constater qu’à aucun moment il n’est montré, ni même allégué, qu’un délit ou un crime aurait pu être empêché si un contenu avait été décrypté. Dans ces conditions, où se trouve la nécessité ?
En outre, le chiffrement n’empêche nullement les services de disposer de quantité croissante de données.
C’est ce que souligne très justement le Conseil national du numérique, dans un avis intitulé « prédictions, chiffrement et libertés » publié en septembre dernier :
« Le chiffrement des données n’est pas un obstacle insurmontable pour accéder aux informations nécessaires aux enquêtes. Il existe de nombreux moyens de le contourner, même s’il est très robuste, en exploitant des failles techniques ou en s’introduisant directement dans l’équipement de la personne ciblée. En outre, si les contenus sont chiffrés, les métadonnées y afférant restent généralement en clair, dans la mesure où elles sont indispensables au fonctionnement du système.
Et ces métadonnées sont bien souvent suffisantes pour cartographier un réseau ou localiser des individus, sans qu’il y ait besoin pour cela d’entrer dans le contenu des communications. »
Une telle analyse suffit à démontrer l’inutilité de ce procédé.
Mais ces dispositions sont encore radicalement inadaptées.
C’est d’autant plus manifeste concernant le champ personnel de la disposition attaquée.
Dans ses écritures le gouvernement fait valoir que celui-ci ne saurait concerner la personne soupçonnée.
Pourtant, le cas d’espèce démontre qu’elle peut bel et bien être appliquée en ce sens.
Or, en ce cas, le droit de ne pas s’incriminer ne saurait être plus ouvertement bafoué.
Pour ce qui est des tiers, deux hypothèses retiennent notre attention.
Les tiers ordinaires tout d’abord.
Face à un cas de complicité insoupçonnée, il n’est pas exclu que cette disposition aboutisse in fine à contraindre une personne à s’auto-incriminer, sans lui laisser l’occasion de garder le silence.
Concernant les professions protégées, la disposition attaquée pourrait, de façon indiscriminée, porter atteinte aux secrets de correspondances qui nécessitent un degré de protection particulièrement élevé. C’est le cas des sources journalistiques, du secret professionnel des avocats, ou encore, du secret médical.
Imagine-t-on, un journaliste, un avocat, un médecin contraint de révéler des secrets sur ses sources, ses clients, ses patients ?
A ce titre, les garanties apportées par la loi sont manifestement insuffisantes.
Du reste, on demeure quelque peu perplexe quant à la possibilité de prouver, de manière suffisamment certaine, la connaissance d’une telle convention de déchiffrement.
Les tiers intermédiaires ensuite.
Le standard de chiffrement actuel dit, asymétrique de bout en bout, implique que seul le destinataire d’une communication détienne la clé permettant de la déchiffrer. Il s’agit du protocole recommandé par l’ensemble des experts du secteur, au premier rang desquels se trouve, tel qu’il a été dit, l’ANSSI.
Cette information est donc, en principe, indéchiffrable par des tiers, et notamment par les intermédiaires. Ne détenant pas lui-même la clé de déchiffrement, le tiers est donc dans l’incapacité de répondre aux réquisitions dont il est l’objet.
Dans ces conditions, on peine encore à déceler l’intérêt d’une telle disposition.
Enfin, et surtout, ces dispositions sont manifestement disproportionnées.
A peine est-il besoin de relever, que ces dispositions ont un champ d’application qui s’étend sur l’ensemble des délits et des crimes. Même les délits les plus mineurs. Sans chercher à se limiter à ceux d’une particulière gravité.
En outre, on ne peut qu’être effrayé qu’une telle ingérence, dans des droits et libertés aussi fondamentaux que le droit au silence, le droit de ne pas s’auto-incriminer, mais aussi, la liberté d’expression, le droit à la vie privée, le droit au secret des correspondances et le droit à un procès équitable, puissent être tolérée pour de simples éventualités.
Et c’est pourquoi, j’ai l’honneur de vous demander, au nom de La Quadrature du Net, de censurer les dispositions attaquées, et ce sans effet différé.
";s:7:"content";s:13006:"
Paris, le 7 mars 2018 - La Quadrature du Net est intervenue avec Les Exégètes amateurs dans une affaire devant le Conseil constitutionnel mettant en cause une disposition du code pénal obligeant la remise de la convention secrète de déchiffrement d'un moyen de cryptologie.
Le 10 janvier dernier, la chambre criminelle de la Cour de cassation a renvoyé une question prioritaire de constitutionnalité (QPC) devant le Conseil constitutionnel, qui concerne la conformité aux droits et libertés que la Constitution garantit de l'article 434-15-2 du code pénal.
Cet article prévoit que :
« Est puni de trois ans d'emprisonnement et de 270 000 € d'amende le fait, pour quiconque ayant connaissance de la convention secrète de déchiffrement d'un moyen de cryptologie susceptible d'avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit, de refuser de remettre ladite convention aux autorités judiciaires ou de la mettre en œuvre, sur les réquisitions de ces autorités délivrées en application des titres II et III du livre Ier du code de procédure pénale.
Si le refus est opposé alors que la remise ou la mise en œuvre de la convention aurait permis d'éviter la commission d'un crime ou d'un délit ou d'en limiter les effets, la peine est portée à cinq ans d'emprisonnement et à 450 000 € d'amende. »
Cette affaire met en cause des procédés intrusifs et attentatoires aux libertés mis en œuvre par les forces de police dans le cadre de leurs enquêtes. Ces procédés, permis par la loi renforçant la lutte contre le terrorisme et le crime organisé, sont très inquiétants notamment parce qu'ils s'appliquent indifféremment à tout type de crimes et délits.
C'est également l'occasion de rouvrir les multiples débats autour du chiffrement.
Il y a tout juste un an, l'Observatoire des Libertés du Numérique (OLN) dont La Quadrature fait partie, publiait son positionnement sur les questions liées au chiffrement et rappelait notamment son rôle dans la préservation des droits et libertés fondamentales notamment en réponse aux moyens croissants de la surveillance d'État.
L'argumentation principale repose sur le droit reconnu à chacun de ne pas s'auto-incriminer, et de garder le silence dans le cadre d'une enquête. Car révéler la clé de déchiffrement d'une communication qui constituerait une preuve de culpabilité revient directement à cela.
De plus, ce droit au silence doit être absolu - sans condition procédurale : il doit à la fois être garanti pour une personne visée par une enquête, mais aussi pour tous les tiers avec qui cette personne serait entrée en communication. En effet, ces tiers ne doivent pas pouvoir être « contraints » à s'auto-incriminer eux-aussi en déchiffrant les échanges tenus avec la personne poursuivie.
Retrouvez ici la requête en intervention de La Quadrature du Net.
Nous publions aussi le texte de la plaidoirie de Maître Alexis Fitzjean O Cobhthaigh :
Merci, Monsieur le Président,
Mesdames et Messieurs les membres du Conseil constitutionnel,
1. Les « pères fondateurs » des États-Unis tels Benjamin Franklin, James Madison ou encore Thomas Jefferson, chiffraient leurs correspondances. C’est d’ailleurs dans un courrier partiellement codé que, le 27 mai 1789, Madison exposera à Jefferson son idée d’ajouter une Déclaration des droits à la Constitution américaine.
Le chiffrement prend racine dans les fondements de notre civilisation. Homère mentionne déjà plusieurs exemples mythiques dans l’Illiade.
Les techniques de chiffrement constellent notre histoire : carré de Polybe, palindrome de Sator, les sémagrammes grecs, les marquages de lettres, la scytale spartiate, le chiffre de César, le carré de Vigenère, le cadran d’Alberti, le télégraphe de Chappe, ou encore la réglette de Saint-Cyr.
Par le passé, les moyens de cryptologies ont été largement mobilisés.
Aujourd’hui, ils le sont tout autant pour sécuriser des échanges indispensables dans le fonctionnement actuel de la société.
M. Guillaume Poupard, le directeur de l’Agence nationale de la sécurité des systèmes d’information, l’ANSSI, l’a fermement réaffirmé dans une note en date du 24 mars 2016 à travers laquelle il explique que :
« Parmi les outils de protection indispensables, figurent au premier rang les moyens de cryptographie, et notamment les technologies de chiffrement de l’information. Eux seuls permettent d’assurer une sécurité au juste niveau lors de la transmission, du stockage et de l’accès aux données numériques sensibles. Les applications sont très nombreuses : échanges couverts par le secret de la défense nationale, données de santé ou de profession réglementée, données techniques, commerciales et stratégiques des entreprises, données personnelles des citoyens. Le développement et l’usage généralisé de ces moyens défensifs doivent par conséquent être systématiquement encouragés, voire réglementairement imposés dans les situations les plus critiques. »
Cette extension caractérisée du champ d’application du chiffrement à des domaines nouveaux implique, symétriquement, une protection juridique renforcée.
2. J’en viens donc à présent au droit.
L’article 434-15-2 du code pénal méconnaît le droit de se taire et le droit de ne pas s’auto-incriminer, notamment en ce que la convention secrète de déchiffrement relève du for interne de la personne poursuivie.
En outre, ces dispositions sont de nature à vicier le consentement libre de la communication d’éléments susceptibles de faire reconnaître la culpabilité d’une personne.
Dans ces conditions, la reconnaissance par une personne de sa propre culpabilité ne saurait être exprimée « volontairement, consciemment et librement » (cf. « commentaire autorisé » de la décision n° 2004-492 DC du 2 mars 2004, Loi portant adaptation de la justice aux évolutions de la criminalité, présent sur le site du Conseil constitutionnel), dès lors que les dispositions querellées viennent exercer une contrainte forte sur la liberté du consentement de la personne en cause.
Du reste, les dispositions contestées portent également atteinte, en toute hypothèse, au droit au respect à la vie privée, au droit au secret des correspondances, à la liberté d’expression, aux droits de la défense et au droit à un procès équitable.
De toute évidence, non seulement l’ensemble de ces atteintes à des droits et libertés constitutionnellement protégés ne sont en rien justifiées par un intérêt général suffisant, mais surtout, ce délit n’est nullement nécessaire, radicalement inadapté et manifestement disproportionné.
Sur l’absence de nécessité, d’abord.
Force est de constater qu’à aucun moment il n’est montré, ni même allégué, qu’un délit ou un crime aurait pu être empêché si un contenu avait été décrypté. Dans ces conditions, où se trouve la nécessité ?
En outre, le chiffrement n’empêche nullement les services de disposer de quantité croissante de données.
C’est ce que souligne très justement le Conseil national du numérique, dans un avis intitulé « prédictions, chiffrement et libertés » publié en septembre dernier :
« Le chiffrement des données n’est pas un obstacle insurmontable pour accéder aux informations nécessaires aux enquêtes. Il existe de nombreux moyens de le contourner, même s’il est très robuste, en exploitant des failles techniques ou en s’introduisant directement dans l’équipement de la personne ciblée. En outre, si les contenus sont chiffrés, les métadonnées y afférant restent généralement en clair, dans la mesure où elles sont indispensables au fonctionnement du système.
Et ces métadonnées sont bien souvent suffisantes pour cartographier un réseau ou localiser des individus, sans qu’il y ait besoin pour cela d’entrer dans le contenu des communications. »
Une telle analyse suffit à démontrer l’inutilité de ce procédé.
Mais ces dispositions sont encore radicalement inadaptées.
C’est d’autant plus manifeste concernant le champ personnel de la disposition attaquée.
Dans ses écritures le gouvernement fait valoir que celui-ci ne saurait concerner la personne soupçonnée.
Pourtant, le cas d’espèce démontre qu’elle peut bel et bien être appliquée en ce sens.
Or, en ce cas, le droit de ne pas s’incriminer ne saurait être plus ouvertement bafoué.
Pour ce qui est des tiers, deux hypothèses retiennent notre attention.
Les tiers ordinaires tout d’abord.
Face à un cas de complicité insoupçonnée, il n’est pas exclu que cette disposition aboutisse in fine à contraindre une personne à s’auto-incriminer, sans lui laisser l’occasion de garder le silence.
Concernant les professions protégées, la disposition attaquée pourrait, de façon indiscriminée, porter atteinte aux secrets de correspondances qui nécessitent un degré de protection particulièrement élevé. C’est le cas des sources journalistiques, du secret professionnel des avocats, ou encore, du secret médical.
Imagine-t-on, un journaliste, un avocat, un médecin contraint de révéler des secrets sur ses sources, ses clients, ses patients ?
A ce titre, les garanties apportées par la loi sont manifestement insuffisantes.
Du reste, on demeure quelque peu perplexe quant à la possibilité de prouver, de manière suffisamment certaine, la connaissance d’une telle convention de déchiffrement.
Les tiers intermédiaires ensuite.
Le standard de chiffrement actuel dit, asymétrique de bout en bout, implique que seul le destinataire d’une communication détienne la clé permettant de la déchiffrer. Il s’agit du protocole recommandé par l’ensemble des experts du secteur, au premier rang desquels se trouve, tel qu’il a été dit, l’ANSSI.
Cette information est donc, en principe, indéchiffrable par des tiers, et notamment par les intermédiaires. Ne détenant pas lui-même la clé de déchiffrement, le tiers est donc dans l’incapacité de répondre aux réquisitions dont il est l’objet.
Dans ces conditions, on peine encore à déceler l’intérêt d’une telle disposition.
Enfin, et surtout, ces dispositions sont manifestement disproportionnées.
A peine est-il besoin de relever, que ces dispositions ont un champ d’application qui s’étend sur l’ensemble des délits et des crimes. Même les délits les plus mineurs. Sans chercher à se limiter à ceux d’une particulière gravité.
En outre, on ne peut qu’être effrayé qu’une telle ingérence, dans des droits et libertés aussi fondamentaux que le droit au silence, le droit de ne pas s’auto-incriminer, mais aussi, la liberté d’expression, le droit à la vie privée, le droit au secret des correspondances et le droit à un procès équitable, puissent être tolérée pour de simples éventualités.
Et c’est pourquoi, j’ai l’honneur de vous demander, au nom de La Quadrature du Net, de censurer les dispositions attaquées, et ce sans effet différé.
";s:7:"dateiso";s:15:"20180306_182134";}s:15:"20180302_123430";a:7:{s:5:"title";s:72:"« Fake news » : ramenons le débat européen à la source du problème";s:4:"link";s:54:"https://www.laquadrature.net/fr/consultation_fake_news";s:4:"guid";s:37:"10425 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 02 Mar 2018 11:34:30 +0000";s:11:"description";s:8247:"
Paris, le 2 mars 2018 - La Commission européenne a récemment lancé une consultation sur les « fausses nouvelles et la désinformation en ligne », à laquelle La Quadrature vient de répondre. Le débat actuel autour de ces phénomènes se distingue par la confusion qui y règne et le risque qu'il pose de conduire à des mesures portant atteinte à la liberté d'expression et au droit d'accès à l'information. Pourtant, le système de surveillance publicitaire des grandes plateformes basées sur l'économie de l'attention, ayant un effet destructeur sur le débat public, mérite un traitement sérieux.
Comme aux États-Unis, les leaders politiques en Europe sont hantés par le spectre des « fake news ». Début janvier, Emmanuel Macron a annoncé une future loi contre la propagation des « fausses informations », notamment en période électorale, qui est supposée arriver à l'Assemblée nationale fin mars.
La Commission européenne a ouvert une consultation, qui a pris fin le 23 février, afin de décider avant l'été s'il est nécessaire de légiférer à ce sujet. La Commission a également mis sur pied un groupe d'experts [EN], tenu de soumettre un rapport en mars. Ces deux actions de la Commission européenne visent uniquement la propagation des contenus en ligne qui sont « licites mais faux », sans donner de définition de « faux ».
Pour un débat constructif autour des « fausses nouvelles et la désinformation en ligne », nous voudrions rappeler cinq constats fondamentaux :
Le problème de la désinformation existe [EN] depuis que le pouvoir existe : l'influence des grands médias historiques sur le pouvoir politique, ainsi que leur tendance au sensationnalisme ne sont pas des phénomènes récents ;
aucun critère ne peut définir de façon satisfaisante et générale ce qu'est une information « fausse », la véracité d'une information ne pouvant être raisonnablement interrogée que dans le cadre factuel où elle cause un tort précis et concret à un individu ou à la société ;
Internet, dans sa conception même, a été pensé comme un réseau neutre [EN], se distinguant des autres médias par le fait qu'il offre à tous la possibilité de s'exprimer et laisse aux usagers du réseau le soin de contrôler les informations qu'ils reçoivent ;
Internet pourrait être un outil d'élargissement considérable du débat public, mais la régulation automatisée de ce débat, guidée par des critères purement marchands, lui nuit aujourd'hui grandement : pour vendre plus cher leurs espaces publicitaires, les plateformes dominantes favorisent la diffusion des informations les plus utiles au ciblage de leurs utilisateurs ;
Le système de surveillance publicitaire des grandes plateformes, basé sur « le temps de cerveau disponible »1, a ainsi transformé les utilisateurs d'Internet, ainsi que les lecteurs des médias historiques, en des produits marchands. En ce sens, ce ne sont pas les utilisateurs mais les services qui sont responsables de la sur-diffusion de certaines informations pouvant nuire à l'équilibre du débat public.
Pour approcher le problème de la désinformation face à la régulation automatisée du débat public, il convient de prendre en compte les éléments suivants :
Dans une démocratie, seule la société elle-même peut construire ses propres vérités2 (peu importe d'ailleurs que celles-ci forment un ensemble cohérent) ;
La régulation automatisée du débat public par les plateformes dominantes nuit profondément à ce mécanisme de construction démocratique, la valeur d'une information n'y étant plus fixée qu'à partir du nombre de clics qu'elle peut générer ;
Le fait que la société ne puisse plus efficacement construire ses propres vérités, à cause de cette régulation automatisée, ne doit pas être une excuse pour lui enlever ce rôle et confier celui-ci, grâce à la censure, à un gouvernement en perte de légitimité ou à des plateformes prédatrices.
Au lieu de combattre le mal par le mal (en incitant les plateformes à la censure sans même prendre en compte leur fonctionnement économique), il faut contraindre celles-ci à permettre leur interopérabilité avec d'autres plateformes alternatives et à respecter la réglementation sur les données personnelles (qui freinerait leur influence néfaste sur les débats).
En effet, la sur-diffusion d'un certain type d'informations, selon des critères opaques, purement économiques et ne prenant donc aucunement en compte l'intérêt public, est la conséquence inévitable de la surveillance imposée par les plateformes centralisées à leurs utilisateurs. Or, le règlement général sur la protection des données (RGPD) prévoit qu'aucun service ne peut être refusé à une personne du seul fait que celle-ci refuse que son comportement y soit analysé (voir la définition du caractère libre du consentement en droit européen).
L'entrée en application du RGPD le 25 mai prochain est en cela une très bonne nouvelle, qui laisse espérer pouvoir limiter drastiquement la toute puissance du monde publicitaire en matière de surveillance des utilisateurs et rendrait beaucoup moins intéressante la mise en avant de contenus « à clics », dont les « fake news » font partie.
La Quadrature du Net publie ici sa réponse à la consultation.
1. Selon l'expression célèbre de Patrick Le Lay, ancien PDG de TF1.
2. Les échanges entre Socrate et Protagoras, rapportés dans Le Protagoras de Platon, offrent une approche intéressante pour s'interroger sur l'origine de nos « vérités » : il peut s'agir d'une source absolue, telle que la nature ou le divin (comme le propose Socrate), ou bien, dans une approche qu'on qualifierait aujourd'hui de relativiste (celle de Protagoras), de l'Humanité elle-même, qui serait alors « la mesure de toute chose », selon la célèbre formule.
";s:7:"content";s:8250:"
Paris, le 2 mars 2018 - La Commission européenne a récemment lancé une consultation sur les « fausses nouvelles et la désinformation en ligne », à laquelle La Quadrature vient de répondre. Le débat actuel autour de ces phénomènes se distingue par la confusion qui y règne et le risque qu'il pose de conduire à des mesures portant atteinte à la liberté d'expression et au droit d'accès à l'information. Pourtant, le système de surveillance publicitaire des grandes plateformes basées sur l'économie de l'attention, ayant un effet destructeur sur le débat public, mérite un traitement sérieux.
Comme aux États-Unis, les leaders politiques en Europe sont hantés par le spectre des « fake news ». Début janvier, Emmanuel Macron a annoncé une future loi contre la propagation des « fausses informations », notamment en période électorale, qui est supposée arriver à l'Assemblée nationale fin mars.
La Commission européenne a ouvert une consultation, qui a pris fin le 23 février, afin de décider avant l'été s'il est nécessaire de légiférer à ce sujet. La Commission a également mis sur pied un groupe d'experts [EN], tenu de soumettre un rapport en mars. Ces deux actions de la Commission européenne visent uniquement la propagation des contenus en ligne qui sont « licites mais faux », sans donner de définition de « faux ».
Pour un débat constructif autour des « fausses nouvelles et la désinformation en ligne », nous voudrions rappeler cinq constats fondamentaux :
Le problème de la désinformation existe [EN] depuis que le pouvoir existe : l'influence des grands médias historiques sur le pouvoir politique, ainsi que leur tendance au sensationnalisme ne sont pas des phénomènes récents ;
aucun critère ne peut définir de façon satisfaisante et générale ce qu'est une information « fausse », la véracité d'une information ne pouvant être raisonnablement interrogée que dans le cadre factuel où elle cause un tort précis et concret à un individu ou à la société ;
Internet, dans sa conception même, a été pensé comme un réseau neutre [EN], se distinguant des autres médias par le fait qu'il offre à tous la possibilité de s'exprimer et laisse aux usagers du réseau le soin de contrôler les informations qu'ils reçoivent ;
Internet pourrait être un outil d'élargissement considérable du débat public, mais la régulation automatisée de ce débat, guidée par des critères purement marchands, lui nuit aujourd'hui grandement : pour vendre plus cher leurs espaces publicitaires, les plateformes dominantes favorisent la diffusion des informations les plus utiles au ciblage de leurs utilisateurs ;
Le système de surveillance publicitaire des grandes plateformes, basé sur « le temps de cerveau disponible »1, a ainsi transformé les utilisateurs d'Internet, ainsi que les lecteurs des médias historiques, en des produits marchands. En ce sens, ce ne sont pas les utilisateurs mais les services qui sont responsables de la sur-diffusion de certaines informations pouvant nuire à l'équilibre du débat public.
Pour approcher le problème de la désinformation face à la régulation automatisée du débat public, il convient de prendre en compte les éléments suivants :
Dans une démocratie, seule la société elle-même peut construire ses propres vérités2 (peu importe d'ailleurs que celles-ci forment un ensemble cohérent) ;
La régulation automatisée du débat public par les plateformes dominantes nuit profondément à ce mécanisme de construction démocratique, la valeur d'une information n'y étant plus fixée qu'à partir du nombre de clics qu'elle peut générer ;
Le fait que la société ne puisse plus efficacement construire ses propres vérités, à cause de cette régulation automatisée, ne doit pas être une excuse pour lui enlever ce rôle et confier celui-ci, grâce à la censure, à un gouvernement en perte de légitimité ou à des plateformes prédatrices.
Au lieu de combattre le mal par le mal (en incitant les plateformes à la censure sans même prendre en compte leur fonctionnement économique), il faut contraindre celles-ci à permettre leur interopérabilité avec d'autres plateformes alternatives et à respecter la réglementation sur les données personnelles (qui freinerait leur influence néfaste sur les débats).
En effet, la sur-diffusion d'un certain type d'informations, selon des critères opaques, purement économiques et ne prenant donc aucunement en compte l'intérêt public, est la conséquence inévitable de la surveillance imposée par les plateformes centralisées à leurs utilisateurs. Or, le règlement général sur la protection des données (RGPD) prévoit qu'aucun service ne peut être refusé à une personne du seul fait que celle-ci refuse que son comportement y soit analysé (voir la définition du caractère libre du consentement en droit européen).
L'entrée en application du RGPD le 25 mai prochain est en cela une très bonne nouvelle, qui laisse espérer pouvoir limiter drastiquement la toute puissance du monde publicitaire en matière de surveillance des utilisateurs et rendrait beaucoup moins intéressante la mise en avant de contenus « à clics », dont les « fake news » font partie.
La Quadrature du Net publie ici sa réponse à la consultation.
1. Selon l'expression célèbre de Patrick Le Lay, ancien PDG de TF1.
2. Les échanges entre Socrate et Protagoras, rapportés dans Le Protagoras de Platon, offrent une approche intéressante pour s'interroger sur l'origine de nos « vérités » : il peut s'agir d'une source absolue, telle que la nature ou le divin (comme le propose Socrate), ou bien, dans une approche qu'on qualifierait aujourd'hui de relativiste (celle de Protagoras), de l'Humanité elle-même, qui serait alors « la mesure de toute chose », selon la célèbre formule.
";s:7:"dateiso";s:15:"20180302_123430";}s:15:"20180220_154344";a:7:{s:5:"title";s:68:"La Quadrature du Net et FFDN répondent à la consultation sur la 5G";s:4:"link";s:47:"https://www.laquadrature.net/fr/consultation-5G";s:4:"guid";s:37:"10418 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 20 Feb 2018 14:43:44 +0000";s:11:"description";s:4467:"
Paris, le 20 février 2018 - La direction générale des entreprises (DGE)1 a lancé récemment une consultation intitulée : « Feuille de route sur la 5G : Consultation des acteurs du marché ». La Quadrature et la Fédération des fournisseurs d'accès à Internet associatifs (FFDN) ont décidé de répondre conjointement. La 5G est en effet un argument trop souvent utilisé par les opérateurs contre la neutralité du Net et les usages libres.
Le déploiement d'une nouvelle technologie amène régulièrement les opérateurs déjà en situation d'oligopole à essayer d'en profiter pour asseoir encore plus leur position dominante. Parmi les enjeux abordés dans notre réponse à la consultation :
Neutralité du Net : La 5G est un argument récurrent pour créer des brèches dans la réglementation sur la neutralité du Net. C'est la voiture autonome que les opérateurs brandissent systématiquement en chiffon rouge. Or le règlement européen sur l'Internet ouvert permet actuellement, via notamment les services gérés, de mettre en place des services nécessitant une qualité de service spécifique ;
Couverture du territoire : Malgré tous les avantages que présentent la 5G, son développement ne doit pas être un moyen pour les opérateurs de retarder encore l'accès à la fibre dans les zones blanches ;
Durée d'allocation des fréquences : Les opérateurs continuent leur lobbying pour obtenir une très longue durée d'attribution des fréquences, avec le moins de moyens possibles aux régulateurs nationaux pour contrôler l'usage fait du spectre. Cette situation ne permet pas d'assurer une utilisation optimale du spectre. Une durée limitée, une révision périodique et des pouvoirs réels aux autorités de régulation sont au contraire nécessaires ;
Libération du spectre : Le manque de volonté politique pour libérer le spectre partagé et non soumis à licence2 limite fortement l'accès au spectre à des petits acteurs, et donc l'innovation et le développement de nouveaux usages ;
Accès au spectre : D'une manière générale, le spectre soumis à licence n'est pas assez accessible aux petits acteurs, ce qui nuit à l'émergence de nouveaux usages et à l'innovation ;
Logiciel libre : Des obstacles réglementaires ou techniques sont souvent mis à l'utilisation de logiciels libres. Or, afin d'assurer une meilleure maîtrise par les utilisateurs et un bon niveau de sécurité, la promotion du logiciel libre et à défaut la possibilité pour chacun d'utiliser les équipements et les logiciels de son choix est un enjeu majeur.
Paris, le 20 février 2018 - La direction générale des entreprises (DGE)1 a lancé récemment une consultation intitulée : « Feuille de route sur la 5G : Consultation des acteurs du marché ». La Quadrature et la Fédération des fournisseurs d'accès à Internet associatifs (FFDN) ont décidé de répondre conjointement. La 5G est en effet un argument trop souvent utilisé par les opérateurs contre la neutralité du Net et les usages libres.
Le déploiement d'une nouvelle technologie amène régulièrement les opérateurs déjà en situation d'oligopole à essayer d'en profiter pour asseoir encore plus leur position dominante. Parmi les enjeux abordés dans notre réponse à la consultation :
Neutralité du Net : La 5G est un argument récurrent pour créer des brèches dans la réglementation sur la neutralité du Net. C'est la voiture autonome que les opérateurs brandissent systématiquement en chiffon rouge. Or le règlement européen sur l'Internet ouvert permet actuellement, via notamment les services gérés, de mettre en place des services nécessitant une qualité de service spécifique ;
Couverture du territoire : Malgré tous les avantages que présentent la 5G, son développement ne doit pas être un moyen pour les opérateurs de retarder encore l'accès à la fibre dans les zones blanches ;
Durée d'allocation des fréquences : Les opérateurs continuent leur lobbying pour obtenir une très longue durée d'attribution des fréquences, avec le moins de moyens possibles aux régulateurs nationaux pour contrôler l'usage fait du spectre. Cette situation ne permet pas d'assurer une utilisation optimale du spectre. Une durée limitée, une révision périodique et des pouvoirs réels aux autorités de régulation sont au contraire nécessaires ;
Libération du spectre : Le manque de volonté politique pour libérer le spectre partagé et non soumis à licence2 limite fortement l'accès au spectre à des petits acteurs, et donc l'innovation et le développement de nouveaux usages ;
Accès au spectre : D'une manière générale, le spectre soumis à licence n'est pas assez accessible aux petits acteurs, ce qui nuit à l'émergence de nouveaux usages et à l'innovation ;
Logiciel libre : Des obstacles réglementaires ou techniques sont souvent mis à l'utilisation de logiciels libres. Or, afin d'assurer une meilleure maîtrise par les utilisateurs et un bon niveau de sécurité, la promotion du logiciel libre et à défaut la possibilité pour chacun d'utiliser les équipements et les logiciels de son choix est un enjeu majeur.
";s:7:"dateiso";s:15:"20180220_154344";}s:15:"20180219_135518";a:7:{s:5:"title";s:58:"Campagne de dons 2017 : un grand merci à toutes et tous !";s:4:"link";s:56:"https://www.laquadrature.net/fr/bilan_campagne_dons_2017";s:4:"guid";s:37:"10417 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 19 Feb 2018 12:55:18 +0000";s:11:"description";s:3029:"
Paris, 19 février 2018 - La campagne de dons annuelle de La Quadrature du Net n'a certes pas atteint l'objectif que nous nous étions fixé, mais les soutiens sont toujours présents et nous permettront cette année encore de poursuivre notre travail. Fin janvier cette campagne nous avait permis de collecter 220 758€ de dons individuels, soit 68% de notre objectif. Notre budget pour 2018 est estimé à 380 000€, et est actuellement couvert à environ 90%, dont 66% de dons individuels1. Merci donc encore une fois à toutes celles et à tous ceux qui nous soutiennent <3
L'aventure continue, et les chantiers seront nombreux en cette nouvelle année, entre débats législatifs et discussions politiques, techniques et même philosophiques, sur des thèmes variés mais rarement nouveaux : surveillance et renseignement, protection des données personnelles, liberté d'expression, neutralité du Net... Notre prochaine assemblée générale, prévue début avril, sera l'occasion d'affiner cette liste et de faire le point sur les directions que La Quadrature du Net sera amenée à prendre dans les mois qui viennent.
Pour être plus pertinente dans le nouveau moment charnière de l'histoire de l'informatique que nous traversons, La Quadrature du Net va continuer son ouverture et travailler à l'évolution de son organisation, dans la lignée du document de revue stratégique que nous avions publié à l'automne. Si nous poursuivrons notre travail de plaidoyer juridique et nos actions contentieuses, nous souhaitons en parallèle développer encore nos actions visant à l'appropriation de ces débats par le plus grand nombre. Nous allons de même repenser notre rôle et nos outils pour l'émancipation numérique, afin de contribuer à faire se rencontrer des militants issus de causes diverses et les bâtisseurs de l'Internet libre, usagers et développeurs.
Vous l'aurez compris, nous continuerons cette année encore à travailler à la défense politique et juridique d'un Internet libre et des droits fondamentaux à l'ère numérique. Et pour cela nous aurons encore et toujours besoin de vous et de votre soutien. Et nous en profitons pour rappeler que si vous décidez de soutenir La Quadrature du Net, un petit don récurrent vaut mieux qu'un don ponctuel même un peu plus important :-)
La Quadrature du Net
1. Dans ce chiffre sont aussi intégrés les dons individuels de l'an passé restant en trésorerie à la date de démarrage de cette nouvelle campagne.
";s:7:"content";s:3029:"
Paris, 19 février 2018 - La campagne de dons annuelle de La Quadrature du Net n'a certes pas atteint l'objectif que nous nous étions fixé, mais les soutiens sont toujours présents et nous permettront cette année encore de poursuivre notre travail. Fin janvier cette campagne nous avait permis de collecter 220 758€ de dons individuels, soit 68% de notre objectif. Notre budget pour 2018 est estimé à 380 000€, et est actuellement couvert à environ 90%, dont 66% de dons individuels1. Merci donc encore une fois à toutes celles et à tous ceux qui nous soutiennent <3
L'aventure continue, et les chantiers seront nombreux en cette nouvelle année, entre débats législatifs et discussions politiques, techniques et même philosophiques, sur des thèmes variés mais rarement nouveaux : surveillance et renseignement, protection des données personnelles, liberté d'expression, neutralité du Net... Notre prochaine assemblée générale, prévue début avril, sera l'occasion d'affiner cette liste et de faire le point sur les directions que La Quadrature du Net sera amenée à prendre dans les mois qui viennent.
Pour être plus pertinente dans le nouveau moment charnière de l'histoire de l'informatique que nous traversons, La Quadrature du Net va continuer son ouverture et travailler à l'évolution de son organisation, dans la lignée du document de revue stratégique que nous avions publié à l'automne. Si nous poursuivrons notre travail de plaidoyer juridique et nos actions contentieuses, nous souhaitons en parallèle développer encore nos actions visant à l'appropriation de ces débats par le plus grand nombre. Nous allons de même repenser notre rôle et nos outils pour l'émancipation numérique, afin de contribuer à faire se rencontrer des militants issus de causes diverses et les bâtisseurs de l'Internet libre, usagers et développeurs.
Vous l'aurez compris, nous continuerons cette année encore à travailler à la défense politique et juridique d'un Internet libre et des droits fondamentaux à l'ère numérique. Et pour cela nous aurons encore et toujours besoin de vous et de votre soutien. Et nous en profitons pour rappeler que si vous décidez de soutenir La Quadrature du Net, un petit don récurrent vaut mieux qu'un don ponctuel même un peu plus important :-)
La Quadrature du Net
1. Dans ce chiffre sont aussi intégrés les dons individuels de l'an passé restant en trésorerie à la date de démarrage de cette nouvelle campagne.
";s:7:"dateiso";s:15:"20180219_135518";}s:15:"20180215_145403";a:7:{s:5:"title";s:84:"Après la décision Chambord, comment sortir d’un domaine public « résiduel » ?";s:4:"link";s:104:"https://www.laquadrature.net/fr/apres-d%C3%A9cision-chambord-comment-sortir-d-un-domaine-public-residuel";s:4:"guid";s:37:"10415 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 15 Feb 2018 13:54:03 +0000";s:11:"description";s:22592:"
Paris, le 16 février 2018 - Nous publions ci-dessous une tribune de Lionel Maurel, membre fondateur de La Quadrature du Net, au sujet de la décision du Conseil constitutionnel sur la question prioritaire de constitutionnalité (QPC) que nous avions déposée avec Wikimédia France au sujet de la création d'un nouveau droit sur l'image des monuments des domaines nationaux.
Le 2 février dernier, le Conseil constitutionnel a rendu sa décision dans ce qu'il est convenu d'appeler « l'affaire Chambord », à savoir la contestation par Wikimedia France et La Quadrature du Net du nouveau « droit à l'image » mis en place en 2016 par la loi Création, Architecture et Patrimoine sur les monuments des domaines nationaux (Château de Chambord, Le Louvre, l’Élysée, etc.).
Le château de Chambord vu du ciel. Image par Elementerre. CC-BY-SA. Source : Wikimedia Commons.
Les deux associations ont vu leurs principaux arguments rejetés, ce qui va laisser la possibilité aux gestionnaires des domaines nationaux de contrôler l'image de ces bâtiments et de lever des redevances sur son exploitation commerciale. Mais le Conseil constitutionnel n'en a pas moins assorti sa décision de plusieurs réserves d'interprétation qui vont limiter assez sérieusement la portée de ce dispositif.
Cependant l'essentiel est ailleurs, car ce jugement va surtout avoir l'effet de valider a contrario une conception du domaine public en France tendant à en faire un concept « résiduel », pouvant facilement être remis en cause par voie législative. C'est la nature même de ce que les militants des Communs de la connaissance appellent le « copyfraud » qui est modifiée par cette décision, car une grande partie des couches de droits surajoutées sur le domaine public s'en trouvent validées. Malgré cette décision, ce n'est pourtant pas une fatalité impossible à conjurer, mais il convient à présent d'adapter la stratégie à suivre pour arriver à garantir à nouveau les libertés culturelles matérialisées par le domaine public.
Le domaine public, un Principe Fondamental Reconnu par les Lois de la République ?
Tous les monuments des domaines nationaux correspondent à des bâtiments qui ne sont pas protégés par le droit d'auteur (ils ne l'ont même jamais été, vu leur époque de construction) et ils appartiennent à ce titre au domaine public, au sens de la propriété intellectuelle. A ce titre, leur image devrait donc être librement réutilisable, étant donné qu'il n'y a pas de droits patrimoniaux (reproduction, représentation) opposables, y compris à des fins commerciales. Quand un roman entre dans le domaine public, on peut le rééditer pour vendre des ouvrages et un cinéaste peut adapter l'histoire pour en faire un film : l'usage commercial fait intrinsèquement partie du domaine public et le limiter revient donc à ruiner le sens même de cette notion.
Dans cette affaire cependant, on était en présence d'un « conflit de lois » : d'un côté, si l'on suit le Code de Propriété Intellectuelle, l'utilisation de l'image de ces monuments devait être libre, tandis que la loi Création de son côté a instauré de l'autre un droit spécifique permettant d'en contrôler l'exploitation commerciale et de la faire payer. Les deux associations requérantes ont demandé au Conseil constitutionnel de sortir de cette situation contradictoire en procédant à une « hiérarchisation » entre les textes. Elles estimaient en effet que le domaine public, au sens de la propriété intellectuelle, devait prévaloir en vertu d'un Principe Fondamental Reconnu par les Lois de la République (PFRLR) dont il serait l'incarnation.
Renvoyant à une expression figurant dans le Préambule de la Constitution de 1946, les PFRLR se définissent comme :
des principes fondamentaux [qui] doivent être tirés d’une législation républicaine antérieure à la IVe République et la législation en question ne doit pas avoir été démentie par une autre législation républicaine (nécessité de constance et de répétition).
Or le domaine public est bien né au moment de la Révolution française, lorsque les révolutionnaires ont créé le droit d'auteur par voie législative, mais en fixant aux droits patrimoniaux une durée limitée dans le temps (10 ans après la mort de l'auteur à l'époque). Au fil du temps, différentes lois sont intervenues pour allonger cette durée (jusqu'à 70 ans après la mort de l'auteur aujourd'hui), mais sans remettre en cause le principe même de cette limitation dans le temps.
On pourrait dire que cette référence au droit d'auteur est hors-sujet, car la loi Création ne se place pas sur ce terrain et instaure sur ces monuments un droit d'une autre nature. Mais le texte a pourtant bien pour conséquence de faire naître l'« équivalent fonctionnel » d'un droit patrimonial au profit des gestionnaires de domaine, qui va leur permettre de venir « neutraliser » l'effet utile du domaine public en restreignant l'usage commercial. Or si on se réfère à la vision des Révolutionnaires, on constate que leur intention, en limitant la durée des droits patrimoniaux, était de créer un « droit du public » sur la Culture. C'est notamment ce qui ressort très clairement des propos du député Isaac Le Chapelier, qui fut rapporteur de la loi sur le droit d'auteur en 1791 :
Quand un auteur a livré son ouvrage au public, quand cet ouvrage est dans les mains de tout le monde, que les hommes instruits le connaissent, qu'ils se sont emparés des beautés qu’il contient, qu’ils ont confié à leur mémoire les traits les plus heureux ; il semble que dès ce moment, l’écrivain a associé le public à sa propriété, ou plutôt la lui a transmise toute entière ; cependant comme il est extrêmement juste que les hommes qui cultivent le domaine de la pensée, tirent quelques fruits de leur travail, il faut que pendant toute leur vie et quelques années après leur mort, personne ne puisse sans leur consentement disposer du fruit de leur génie. Mais aussi après le délai fixé, la propriété du public commence et tout le monde doit pouvoir imprimer, publier les ouvrages qui ont contribué à éclairer l’esprit humain.
Le Chapelier parle d'une « propriété du public », mais on voit bien à ses propos qu'il s'agir en réalité d'une liberté de réutilisation et que celle-ci doit être complète, c'est-à-dire incluant l'usage commercial, vu qu'elle englobe dans son esprit la possibilité de « publier les ouvrages ». Or il est bien clair que ces libertés ou ces droits du public sont vidés de leur sens si le législateur instaure des mécanismes d'une autre nature que le droit d'auteur qui viennent entraver leur exercice. C'est pourtant ce qu'il a fait avec la loi Création qui utilise ce que l'on peut appeler un « droit connexe » pour porter atteinte à l'intégrité du domaine public et donc, à ces droits droits du public que les Révolutionnaires voulaient instaurer.
Tel était donc le sens de l'argument principal porté dans cette affaire par les deux associations qui demandaient au Conseil constitutionnel deux choses : 1) reconnaître l'existence du domaine public comme un PFRLR et 2) déclarer une prééminence du domaine public sur les droits connexes que le législateur établit pour le neutraliser.
La réduction à un domaine public « résiduel »
Le Conseil constitutionnel n'a pas répondu à la première question, au sens où il ne s'est pas prononcé sur l'existence du PFRLR. Mais quelque part, il a fait pire que s'il avait jugé que ce principe n'existait pas, car sa décision signifie que même si ce PFRLR existait, il ne pourrait pas être invoqué pour censurer la loi. C'est ce que l'on peut déduire de ce passage du jugement :
[...] en accordant au gestionnaire d'un domaine national le pouvoir d'autoriser ou de refuser certaines utilisations de l'image de ce domaine, le législateur n'a ni créé ni maintenu des droits patrimoniaux attachés à une œuvre intellectuelle. Dès lors et en tout état de cause, manque en fait le grief tiré de la méconnaissance d'un principe fondamental reconnu par les lois de la République que les associations requérantes demandent au Conseil constitutionnel de reconnaître.
Le Conseil constitutionnel dit ici que le moyen soulevé par les deux associations est inopérant : même si l'existence du domaine public relevait d'un Principe Fondamental Reconnu par les Lois de la République, celui-ci s'opposerait simplement à ce que le législateur fasse renaître des droits patrimoniaux rattachés au droit d'auteur. Or ce n'est pas ce qu'a fait ici le législateur, puisqu'il fait certes renaître une couche de droits exclusifs sur le domaine domaine, mais d'une autre nature que le droit d'auteur. Donc implicitement, le Conseil constitutionnel nous dit que le législateur a bien la faculté de créer des « droits connexes » neutralisant l'effet du domaine public, mais à condition qu'il se place sur d'autres terrains juridiques que le droit d'auteur.
Il en résulte que le domaine public, au sens de la propriété intellectuelle, n'a donc plus qu'une existence « résiduelle ». Il peut exister et produire des effets, mais il faudra auparavant vérifier qu'aucune autre « couche de droits connexes », issus d'une autre législation, n'est applicable. Or cette hypothèse est loin d'être rare aujourd'hui en droit français, car on peut compter six ou sept dispositifs juridiques différents susceptibles d'interférer avec le domaine public. Pour donner un exemple, la loi Valter a conféré en 2015 aux établissements culturels (bibliothèques, musées, archives) la possibilité de faire payer les réutilisations commerciales des reproductions numériques qu'elles produisent à partir des œuvres de leurs collections, quand bien même celles-ci appartiennent au domaine public. Tout comme le droit à l'image des domaines nationaux de la loi Création, on sait à présent que cette nouvelle couche de droits verrouillant le domaine public ne pourra sans doute plus être contestée.
Ce qui est surprenant, c'est que le Conseil constitutionnel a choisi « d'inférioriser » le domaine public, alors même que des juges avaient développé une jurisprudence pour régler autrement les « conflits de lois ». Par exemple, dans une affaire impliquant la bande dessinée Les Pieds Nickelés, le tribunal de Grande Instance de Paris a jugé que l'on ne peut pas utiliser le droit des marques pour contourner l'extinction des droits patrimoniaux sur une œuvre. Il avait été jusqu'à déclarer le dépôt d'une marque sur le nom Les Pieds Nickelés comme « frauduleux », parce qu'il visait à empêcher une exploitation commerciale de l’œuvre passée dans le domaine public. Dans cette situation, le TGI a donc bien procédé à une hiérarchisation entre les différents droits en donnant la prééminence au domaine public.
Une portée néanmoins limitée
Tout n'est quand même pas complètement négatif dans la décision du Conseil constitutionnel, car il a assorti son jugement de plusieurs réserves d'interprétation, qui vont limiter la portée de ce nouveau droit à l'image.
La première concerne l'articulation avec les licences libres, sujet qui concerne au premier chef les wikipédiens. L'un des « dommages collatéraux » du dispositif est qu'il est susceptible d'empêcher de placer sous licences libres des photographies des monuments des domaines nationaux, car celles-ci autorisent par définition l'usage commercial. La loi Création instaure ainsi de manière paradoxale une sorte « d'anti-liberté de panorama » qui risquait d'empêcher d'illustrer les articles de Wikipédia relatif à ces monuments avec des images sous licence libre. Wikimedia France et La Quadrature ont donc également soutenu devant le Conseil que cette loi portait une atteinte disproportionnée à la liberté contractuelle et au droit des auteurs de photographies, en les empêchant d'utiliser des licences libres pour la diffusion. À cet argument, le Conseil constitutionnel a répondu ceci :
en l'absence de disposition expresse contraire, les dispositions contestées n'affectent pas les contrats légalement conclus avant leur entrée en vigueur. Par conséquent, le grief tiré de la méconnaissance du droit au maintien des contrats légalement conclus doit être écarté.
Cela signifie en substance que la loi Création ne remettra pas en cause la validité des licences libres déjà apposées sur des photographies de monuments des domaines nationaux et que le nouveau droit à l'image n’interférera qu'à partir de la date d'entrée en vigueur du texte. C'est une solution en demi-teinte, qui va constituer à l'avenir une entrave à l'usage des licences libres, mais il faut néanmoins prendre en considération qu'il existe déjà plusieurs centaines de photographiques de ces bâtiments sur Wikimedia Commons et des milliers si l'ont étend la recherche à l'ensemble du web (cliquez sur l'image ci-dessous pour le Château de Chambord par exemple).
Une simple recherche sur Google Images montre qu'il existe déjà des centaines et des centaines d'images du Château de Chambord sous licence libre sur laquelle la loi Création n'aura aucune prise.
Rappelons que toute cette affaire est née parce que les gestionnaires du domaine de Chambord voulaient trouver un moyen de faire payer la société Kronenbourg pour l'usage d'une photo du château dans une publicité. Mais suite à la décision du Conseil, Kronenbourg n'aura qu'à utiliser une des milliers de photos de l'édifice publiées avant 2016 sous licence libre et les gestionnaires ne pourront rien faire pour s'y opposer. C'est dire, si l'on prend en compte l'ensemble des domaines, que cette loi est déjà quasiment vidée de son sens et qu'elle ira sans doute grossir les rangs des textes inutiles - mais néanmoins ultra-nocifs - que le législateur français semble prendre un malin plaisir à accumuler en matière culturelle.
Par ailleurs, le Conseil a aussi tenu à limiter la possibilité pour les gestionnaires des domaines de refuser la réutilisation de l'image des bâtiments :
Compte tenu de l'objectif de protection poursuivi par le législateur, l'autorisation ne peut être refusée par le gestionnaire du domaine national que si l'exploitation commerciale envisagée porte atteinte à l'image de ce bien présentant un lien exceptionnel avec l'histoire de la Nation. Dans le cas contraire, l'autorisation est accordée dans les conditions, le cas échéant financières, fixées par le gestionnaire du domaine national, sous le contrôle du juge.
Contrairement à ce que l'on pouvait craindre, les gestionnaires ne pourront donc pas refuser arbitrairement la réutilisation de l'image des monuments, car le Conseil précise qu'il leur faudra apporter la preuve que cet usage porte atteinte à l'image de ce bien. C'est une forme de limitation non-négligeable à l'exercice de ce dispositif, mais cela va aussi avoir l'effet étrange de créer une sorte de « pseudo-droit moral » que les gestionnaires de domaines vont désormais pouvoir exercer. Il y a néanmoins une différence de taille, car normalement en droit d'auteur, les titulaires du droit moral ne peuvent le monnayer. Or ici, on voit qu'un mélange des genres peu ragoûtant va immanquablement s'opérer.
En effet, les gestionnaires des domaines ont le choix entre considérer qu'il y a une atteinte à l'image du monument et refuser la réutilisation ou bien ne pas voir l'usage comme une atteinte et le faire payer. En pratique, les gestionnaires de Chambord ont déjà montré que cette alternative induirait une appréciation à géométrie variable de l'intégrité, pour des raisons purement financières. S'ils ont estimé la réutilisation dans une publicité Kronenbourg incompatible avec l'intégrité de l'image du château, ils n'ont en revanche pas hésité à organiser une chasse aux œufs Kinder dans l'édifice pour une opération promotionnelle à Pâques... Il y a tout lieu de penser que ce qui a fait varier l'appréciation des gestionnaires, ce n'est pas le souci de préserver l'intégrité de l'image du domaine, mais le fait que Kinder a bien voulu sortir son chéquier, alors que Kronenbourg ne l'a pas fait.
La décision du Conseil nous permettra donc d'apprécier à l'avenir la tartuferie éhontée sur laquelle repose tout ce dispositif et on voit bien au passage que le législateur a bien entendu recréer une forme de droit patrimonial sur ces monuments.
Agir pour le domaine public au niveau législatif
Au final, cette décision du Conseil constitutionnel condamne-t-elle définitivement le domaine public à ne rester qu'un concept « résiduel » qui pourra être enseveli peu à peu sous des droits connexes par le législateur ?
Heureusement non, mais c'est précisément à l'échelon législatif qu'il faut à présent agir pour essayer de renverser cette tendance. En 2013, la députée Isabelle Attard avait déposé une loi visant à consacrer le domaine public, à élargir son périmètre et à garantir son intégrité. Ce texte garde aujourd'hui toute sa pertinence, et même davantage encore depuis la décision du Conseil constitutionnel, car l'un de ses buts était justement d'organiser - au niveau législatif - la reconnaissance et la prééminence du domaine public sur les droits connexes qui peuvent le neutraliser. Par ailleurs en 2016, lors des débats autour de la loi République numérique, une autre proposition avait été portée en vue de créer un « domaine commun informationnel » dont le but était de donner une définition positive du domaine public en renforçant sa protection.
Le Conseil constitutionnel a refusé de dire si l'existence du domaine public relevait ou non d'un Principe Fondamental Reconnu par les Lois de la République, mais qu'à cela ne tienne ! Une ou plusieurs lois peuvent renouer avec l'esprit initial des Révolutionnaires et reconnaître ces « droits du public » sur la Culture qui constituent l'essence du domaine public. En agissant de la sorte, la « malédiction de Chambord » pourra être conjurée et le domaine public redeviendra ce principe régulateur qu'il n'aurait jamais dû cesser d'être.
";s:7:"content";s:22601:"
Paris, le 16 février 2018 - Nous publions ci-dessous une tribune de Lionel Maurel, membre fondateur de La Quadrature du Net, au sujet de la décision du Conseil constitutionnel sur la question prioritaire de constitutionnalité (QPC) que nous avions déposée avec Wikimédia France au sujet de la création d'un nouveau droit sur l'image des monuments des domaines nationaux.
Le 2 février dernier, le Conseil constitutionnel a rendu sa décision dans ce qu'il est convenu d'appeler « l'affaire Chambord », à savoir la contestation par Wikimedia France et La Quadrature du Net du nouveau « droit à l'image » mis en place en 2016 par la loi Création, Architecture et Patrimoine sur les monuments des domaines nationaux (Château de Chambord, Le Louvre, l’Élysée, etc.).
Le château de Chambord vu du ciel. Image par Elementerre. CC-BY-SA. Source : Wikimedia Commons.
Les deux associations ont vu leurs principaux arguments rejetés, ce qui va laisser la possibilité aux gestionnaires des domaines nationaux de contrôler l'image de ces bâtiments et de lever des redevances sur son exploitation commerciale. Mais le Conseil constitutionnel n'en a pas moins assorti sa décision de plusieurs réserves d'interprétation qui vont limiter assez sérieusement la portée de ce dispositif.
Cependant l'essentiel est ailleurs, car ce jugement va surtout avoir l'effet de valider a contrario une conception du domaine public en France tendant à en faire un concept « résiduel », pouvant facilement être remis en cause par voie législative. C'est la nature même de ce que les militants des Communs de la connaissance appellent le « copyfraud » qui est modifiée par cette décision, car une grande partie des couches de droits surajoutées sur le domaine public s'en trouvent validées. Malgré cette décision, ce n'est pourtant pas une fatalité impossible à conjurer, mais il convient à présent d'adapter la stratégie à suivre pour arriver à garantir à nouveau les libertés culturelles matérialisées par le domaine public.
Le domaine public, un Principe Fondamental Reconnu par les Lois de la République ?
Tous les monuments des domaines nationaux correspondent à des bâtiments qui ne sont pas protégés par le droit d'auteur (ils ne l'ont même jamais été, vu leur époque de construction) et ils appartiennent à ce titre au domaine public, au sens de la propriété intellectuelle. A ce titre, leur image devrait donc être librement réutilisable, étant donné qu'il n'y a pas de droits patrimoniaux (reproduction, représentation) opposables, y compris à des fins commerciales. Quand un roman entre dans le domaine public, on peut le rééditer pour vendre des ouvrages et un cinéaste peut adapter l'histoire pour en faire un film : l'usage commercial fait intrinsèquement partie du domaine public et le limiter revient donc à ruiner le sens même de cette notion.
Dans cette affaire cependant, on était en présence d'un « conflit de lois » : d'un côté, si l'on suit le Code de Propriété Intellectuelle, l'utilisation de l'image de ces monuments devait être libre, tandis que la loi Création de son côté a instauré de l'autre un droit spécifique permettant d'en contrôler l'exploitation commerciale et de la faire payer. Les deux associations requérantes ont demandé au Conseil constitutionnel de sortir de cette situation contradictoire en procédant à une « hiérarchisation » entre les textes. Elles estimaient en effet que le domaine public, au sens de la propriété intellectuelle, devait prévaloir en vertu d'un Principe Fondamental Reconnu par les Lois de la République (PFRLR) dont il serait l'incarnation.
Renvoyant à une expression figurant dans le Préambule de la Constitution de 1946, les PFRLR se définissent comme :
des principes fondamentaux [qui] doivent être tirés d’une législation républicaine antérieure à la IVe République et la législation en question ne doit pas avoir été démentie par une autre législation républicaine (nécessité de constance et de répétition).
Or le domaine public est bien né au moment de la Révolution française, lorsque les révolutionnaires ont créé le droit d'auteur par voie législative, mais en fixant aux droits patrimoniaux une durée limitée dans le temps (10 ans après la mort de l'auteur à l'époque). Au fil du temps, différentes lois sont intervenues pour allonger cette durée (jusqu'à 70 ans après la mort de l'auteur aujourd'hui), mais sans remettre en cause le principe même de cette limitation dans le temps.
On pourrait dire que cette référence au droit d'auteur est hors-sujet, car la loi Création ne se place pas sur ce terrain et instaure sur ces monuments un droit d'une autre nature. Mais le texte a pourtant bien pour conséquence de faire naître l'« équivalent fonctionnel » d'un droit patrimonial au profit des gestionnaires de domaine, qui va leur permettre de venir « neutraliser » l'effet utile du domaine public en restreignant l'usage commercial. Or si on se réfère à la vision des Révolutionnaires, on constate que leur intention, en limitant la durée des droits patrimoniaux, était de créer un « droit du public » sur la Culture. C'est notamment ce qui ressort très clairement des propos du député Isaac Le Chapelier, qui fut rapporteur de la loi sur le droit d'auteur en 1791 :
Quand un auteur a livré son ouvrage au public, quand cet ouvrage est dans les mains de tout le monde, que les hommes instruits le connaissent, qu'ils se sont emparés des beautés qu’il contient, qu’ils ont confié à leur mémoire les traits les plus heureux ; il semble que dès ce moment, l’écrivain a associé le public à sa propriété, ou plutôt la lui a transmise toute entière ; cependant comme il est extrêmement juste que les hommes qui cultivent le domaine de la pensée, tirent quelques fruits de leur travail, il faut que pendant toute leur vie et quelques années après leur mort, personne ne puisse sans leur consentement disposer du fruit de leur génie. Mais aussi après le délai fixé, la propriété du public commence et tout le monde doit pouvoir imprimer, publier les ouvrages qui ont contribué à éclairer l’esprit humain.
Le Chapelier parle d'une « propriété du public », mais on voit bien à ses propos qu'il s'agir en réalité d'une liberté de réutilisation et que celle-ci doit être complète, c'est-à-dire incluant l'usage commercial, vu qu'elle englobe dans son esprit la possibilité de « publier les ouvrages ». Or il est bien clair que ces libertés ou ces droits du public sont vidés de leur sens si le législateur instaure des mécanismes d'une autre nature que le droit d'auteur qui viennent entraver leur exercice. C'est pourtant ce qu'il a fait avec la loi Création qui utilise ce que l'on peut appeler un « droit connexe » pour porter atteinte à l'intégrité du domaine public et donc, à ces droits droits du public que les Révolutionnaires voulaient instaurer.
Tel était donc le sens de l'argument principal porté dans cette affaire par les deux associations qui demandaient au Conseil constitutionnel deux choses : 1) reconnaître l'existence du domaine public comme un PFRLR et 2) déclarer une prééminence du domaine public sur les droits connexes que le législateur établit pour le neutraliser.
La réduction à un domaine public « résiduel »
Le Conseil constitutionnel n'a pas répondu à la première question, au sens où il ne s'est pas prononcé sur l'existence du PFRLR. Mais quelque part, il a fait pire que s'il avait jugé que ce principe n'existait pas, car sa décision signifie que même si ce PFRLR existait, il ne pourrait pas être invoqué pour censurer la loi. C'est ce que l'on peut déduire de ce passage du jugement :
[...] en accordant au gestionnaire d'un domaine national le pouvoir d'autoriser ou de refuser certaines utilisations de l'image de ce domaine, le législateur n'a ni créé ni maintenu des droits patrimoniaux attachés à une œuvre intellectuelle. Dès lors et en tout état de cause, manque en fait le grief tiré de la méconnaissance d'un principe fondamental reconnu par les lois de la République que les associations requérantes demandent au Conseil constitutionnel de reconnaître.
Le Conseil constitutionnel dit ici que le moyen soulevé par les deux associations est inopérant : même si l'existence du domaine public relevait d'un Principe Fondamental Reconnu par les Lois de la République, celui-ci s'opposerait simplement à ce que le législateur fasse renaître des droits patrimoniaux rattachés au droit d'auteur. Or ce n'est pas ce qu'a fait ici le législateur, puisqu'il fait certes renaître une couche de droits exclusifs sur le domaine domaine, mais d'une autre nature que le droit d'auteur. Donc implicitement, le Conseil constitutionnel nous dit que le législateur a bien la faculté de créer des « droits connexes » neutralisant l'effet du domaine public, mais à condition qu'il se place sur d'autres terrains juridiques que le droit d'auteur.
Il en résulte que le domaine public, au sens de la propriété intellectuelle, n'a donc plus qu'une existence « résiduelle ». Il peut exister et produire des effets, mais il faudra auparavant vérifier qu'aucune autre « couche de droits connexes », issus d'une autre législation, n'est applicable. Or cette hypothèse est loin d'être rare aujourd'hui en droit français, car on peut compter six ou sept dispositifs juridiques différents susceptibles d'interférer avec le domaine public. Pour donner un exemple, la loi Valter a conféré en 2015 aux établissements culturels (bibliothèques, musées, archives) la possibilité de faire payer les réutilisations commerciales des reproductions numériques qu'elles produisent à partir des œuvres de leurs collections, quand bien même celles-ci appartiennent au domaine public. Tout comme le droit à l'image des domaines nationaux de la loi Création, on sait à présent que cette nouvelle couche de droits verrouillant le domaine public ne pourra sans doute plus être contestée.
Ce qui est surprenant, c'est que le Conseil constitutionnel a choisi « d'inférioriser » le domaine public, alors même que des juges avaient développé une jurisprudence pour régler autrement les « conflits de lois ». Par exemple, dans une affaire impliquant la bande dessinée Les Pieds Nickelés, le tribunal de Grande Instance de Paris a jugé que l'on ne peut pas utiliser le droit des marques pour contourner l'extinction des droits patrimoniaux sur une œuvre. Il avait été jusqu'à déclarer le dépôt d'une marque sur le nom Les Pieds Nickelés comme « frauduleux », parce qu'il visait à empêcher une exploitation commerciale de l’œuvre passée dans le domaine public. Dans cette situation, le TGI a donc bien procédé à une hiérarchisation entre les différents droits en donnant la prééminence au domaine public.
Une portée néanmoins limitée
Tout n'est quand même pas complètement négatif dans la décision du Conseil constitutionnel, car il a assorti son jugement de plusieurs réserves d'interprétation, qui vont limiter la portée de ce nouveau droit à l'image.
La première concerne l'articulation avec les licences libres, sujet qui concerne au premier chef les wikipédiens. L'un des « dommages collatéraux » du dispositif est qu'il est susceptible d'empêcher de placer sous licences libres des photographies des monuments des domaines nationaux, car celles-ci autorisent par définition l'usage commercial. La loi Création instaure ainsi de manière paradoxale une sorte « d'anti-liberté de panorama » qui risquait d'empêcher d'illustrer les articles de Wikipédia relatif à ces monuments avec des images sous licence libre. Wikimedia France et La Quadrature ont donc également soutenu devant le Conseil que cette loi portait une atteinte disproportionnée à la liberté contractuelle et au droit des auteurs de photographies, en les empêchant d'utiliser des licences libres pour la diffusion. À cet argument, le Conseil constitutionnel a répondu ceci :
en l'absence de disposition expresse contraire, les dispositions contestées n'affectent pas les contrats légalement conclus avant leur entrée en vigueur. Par conséquent, le grief tiré de la méconnaissance du droit au maintien des contrats légalement conclus doit être écarté.
Cela signifie en substance que la loi Création ne remettra pas en cause la validité des licences libres déjà apposées sur des photographies de monuments des domaines nationaux et que le nouveau droit à l'image n’interférera qu'à partir de la date d'entrée en vigueur du texte. C'est une solution en demi-teinte, qui va constituer à l'avenir une entrave à l'usage des licences libres, mais il faut néanmoins prendre en considération qu'il existe déjà plusieurs centaines de photographiques de ces bâtiments sur Wikimedia Commons et des milliers si l'ont étend la recherche à l'ensemble du web (cliquez sur l'image ci-dessous pour le Château de Chambord par exemple).
Une simple recherche sur Google Images montre qu'il existe déjà des centaines et des centaines d'images du Château de Chambord sous licence libre sur laquelle la loi Création n'aura aucune prise.
Rappelons que toute cette affaire est née parce que les gestionnaires du domaine de Chambord voulaient trouver un moyen de faire payer la société Kronenbourg pour l'usage d'une photo du château dans une publicité. Mais suite à la décision du Conseil, Kronenbourg n'aura qu'à utiliser une des milliers de photos de l'édifice publiées avant 2016 sous licence libre et les gestionnaires ne pourront rien faire pour s'y opposer. C'est dire, si l'on prend en compte l'ensemble des domaines, que cette loi est déjà quasiment vidée de son sens et qu'elle ira sans doute grossir les rangs des textes inutiles - mais néanmoins ultra-nocifs - que le législateur français semble prendre un malin plaisir à accumuler en matière culturelle.
Par ailleurs, le Conseil a aussi tenu à limiter la possibilité pour les gestionnaires des domaines de refuser la réutilisation de l'image des bâtiments :
Compte tenu de l'objectif de protection poursuivi par le législateur, l'autorisation ne peut être refusée par le gestionnaire du domaine national que si l'exploitation commerciale envisagée porte atteinte à l'image de ce bien présentant un lien exceptionnel avec l'histoire de la Nation. Dans le cas contraire, l'autorisation est accordée dans les conditions, le cas échéant financières, fixées par le gestionnaire du domaine national, sous le contrôle du juge.
Contrairement à ce que l'on pouvait craindre, les gestionnaires ne pourront donc pas refuser arbitrairement la réutilisation de l'image des monuments, car le Conseil précise qu'il leur faudra apporter la preuve que cet usage porte atteinte à l'image de ce bien. C'est une forme de limitation non-négligeable à l'exercice de ce dispositif, mais cela va aussi avoir l'effet étrange de créer une sorte de « pseudo-droit moral » que les gestionnaires de domaines vont désormais pouvoir exercer. Il y a néanmoins une différence de taille, car normalement en droit d'auteur, les titulaires du droit moral ne peuvent le monnayer. Or ici, on voit qu'un mélange des genres peu ragoûtant va immanquablement s'opérer.
En effet, les gestionnaires des domaines ont le choix entre considérer qu'il y a une atteinte à l'image du monument et refuser la réutilisation ou bien ne pas voir l'usage comme une atteinte et le faire payer. En pratique, les gestionnaires de Chambord ont déjà montré que cette alternative induirait une appréciation à géométrie variable de l'intégrité, pour des raisons purement financières. S'ils ont estimé la réutilisation dans une publicité Kronenbourg incompatible avec l'intégrité de l'image du château, ils n'ont en revanche pas hésité à organiser une chasse aux œufs Kinder dans l'édifice pour une opération promotionnelle à Pâques... Il y a tout lieu de penser que ce qui a fait varier l'appréciation des gestionnaires, ce n'est pas le souci de préserver l'intégrité de l'image du domaine, mais le fait que Kinder a bien voulu sortir son chéquier, alors que Kronenbourg ne l'a pas fait.
La décision du Conseil nous permettra donc d'apprécier à l'avenir la tartuferie éhontée sur laquelle repose tout ce dispositif et on voit bien au passage que le législateur a bien entendu recréer une forme de droit patrimonial sur ces monuments.
Agir pour le domaine public au niveau législatif
Au final, cette décision du Conseil constitutionnel condamne-t-elle définitivement le domaine public à ne rester qu'un concept « résiduel » qui pourra être enseveli peu à peu sous des droits connexes par le législateur ?
Heureusement non, mais c'est précisément à l'échelon législatif qu'il faut à présent agir pour essayer de renverser cette tendance. En 2013, la députée Isabelle Attard avait déposé une loi visant à consacrer le domaine public, à élargir son périmètre et à garantir son intégrité. Ce texte garde aujourd'hui toute sa pertinence, et même davantage encore depuis la décision du Conseil constitutionnel, car l'un de ses buts était justement d'organiser - au niveau législatif - la reconnaissance et la prééminence du domaine public sur les droits connexes qui peuvent le neutraliser. Par ailleurs en 2016, lors des débats autour de la loi République numérique, une autre proposition avait été portée en vue de créer un « domaine commun informationnel » dont le but était de donner une définition positive du domaine public en renforçant sa protection.
Le Conseil constitutionnel a refusé de dire si l'existence du domaine public relevait ou non d'un Principe Fondamental Reconnu par les Lois de la République, mais qu'à cela ne tienne ! Une ou plusieurs lois peuvent renouer avec l'esprit initial des Révolutionnaires et reconnaître ces « droits du public » sur la Culture qui constituent l'essence du domaine public. En agissant de la sorte, la « malédiction de Chambord » pourra être conjurée et le domaine public redeviendra ce principe régulateur qu'il n'aurait jamais dû cesser d'être.
";s:7:"dateiso";s:15:"20180215_145403";}s:15:"20180207_141003";a:7:{s:5:"title";s:91:"Loi données personnelles : dans l'apathie des débats, une envolée néo-libérale absurde";s:4:"link";s:45:"https://www.laquadrature.net/fr/pjl_rgpd_plen";s:4:"guid";s:37:"10406 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 07 Feb 2018 13:10:03 +0000";s:11:"description";s:8268:"
Paris, 7 février 2018 - Hier soir, l'examen du projet de loi sur les données personnelles par l'ensemble des députés français a commencé. Après un premier passage très consensuel en commission de lois, les débats restent creux, animés seulement par quelques divagations néo-libérales absurdes.
Les députés En Marche semblent s'être entièrement soumis aux ordres du gouvernement : les principaux enjeux du débat - sur le renseignement administratif - ont été entièrement passés sous silence, niés. La gauche de l’hémicycle n'a d'ailleurs pas trouvé davantage de courage pour les traiter. Et il y a fort à craindre que la situation soit similaire au Sénat.
Le parlement s'en tient à des améliorations cosmétiques des nouvelles règles européennes, sans chercher à les renforcer pour leur donner toute leur envergure. Quant à les devancer pour garantir de nouveaux droits face à l'économie extractive de la donnée, il y a là un effort d'imagination et de détermination politique dont la plupart de nos représentants semblent tout bonnement incapables.
Quelques propositions utiles
Du côté des propositions utiles, on compte par exemple des amendements des députés En Marche qui entendent préciser la définition du « consentement » individuel à la collecte de données personnelles1, et notre amendement à ce sujet a été repris par les communistes et centristes2.
Ensuite et surtout, les communistes et la France insoumise proposent de supprimer de la loi une nouvelle autorisation donnée à l'administration lui permettant de prendre des décisions automatisées sur la base de traitement de données personnelles3. Cette nouvelle autorisation vient porter une remise en cause frontale d'un principe fondamental prévu dès ses origines par la loi informatique et libertés de 1978, et selon lequel aucune « décision administrative ou privée impliquant une appréciation sur un comportement humain ne peut avoir pour seul fondement un traitement automatisé d’informations donnant une définition du profil ou de la personnalité de l’intéressé ». La France insoumise suggère également de soumettre à l'autorisation de la CNIL tout traitement réalisé pour une mission d'intérêt public4. Enfin, les communistes ont déposé notre amendement exigeant le chiffrement de bout en bout des communications5.
Des amendements absurdes
Des députés Républicains proposent d'empêcher radicalement la CNIL de rendre public le nom des entreprises qu'elle contrôle6 ou de mettre fin à un transfert de données vers un pays dont la loi ne protège pas suffisamment les données personnelles7.
Surtout, certains députés En Marche, perdus dans un délire libéral aussi extrémiste que lugubre, souhaitent transformer nos données personnelles en de simples marchandises, qu'il nous serait possible de céder pour accéder à un service sans avoir à payer en monnaie. Ainsi, nos droits fondamentaux à la vie privée et à la protection des données ne bénéficieraient plus qu'aux seules personnes qui, d'après eux, les méritent - les plus riches.
M. Bonnell, l'auteur de cet amendement, s'est empressé de faire publier au Monde, avec ses alliés ultra-libéraux également mus par une approche propriétariste, une tribune en soutien de son projet. Enchaînant les non-sens juridiques (en évoquant par exemple des « droits inaliénables » auxquels il faudrait pouvoir renoncer en échange de biens ou de services, ce qui revient pourtant précisément à les aliéner), les signataires de cette tribune espèrent simplement faire de chacun de nous les nouveaux ouvriers sous-payés de leur monde brutal et arrogant. Leur modèle est fondé sur une régulation de l'ensemble de la population, notamment grâce aux nouveaux moyens offerts par la technologie. En faisant de chacun le propriétaire de ses données, on essaye de convaincre « les masses » de consentir au grand jeu de dupe du capitalisme des plateformes. Mais la parodie de redistribution des richesses qu'ils proposent n'est qu'une pommade visant à occulter les maux profonds causés par ce modèle désormais dominant, dont la remise en cause radicale est à la fois urgente et nécessaire.
Heureusement, ni le Parlement européen, ni la CNIL, ni l'ensemble des CNIL européennes ne sont dupes, et s'opposent clairement à ce que l'accès à des biens ou services puisse être conditionné à la cession de données personnelles. Il faut donc y voir une tentative désespérée de semer la confusion avant l'arrivée, le 25 mai prochain, des changement majeurs que laisse espérer le règlement européen sur la protection des données. Mais en attendant, en France, ces inepties rétrogrades tendent à occulter les propositions positives visant à rétablir un contrôle démocratique sur nos libertés fondamentales.
Paris, 7 février 2018 - Hier soir, l'examen du projet de loi sur les données personnelles par l'ensemble des députés français a commencé. Après un premier passage très consensuel en commission de lois, les débats restent creux, animés seulement par quelques divagations néo-libérales absurdes.
Les députés En Marche semblent s'être entièrement soumis aux ordres du gouvernement : les principaux enjeux du débat - sur le renseignement administratif - ont été entièrement passés sous silence, niés. La gauche de l’hémicycle n'a d'ailleurs pas trouvé davantage de courage pour les traiter. Et il y a fort à craindre que la situation soit similaire au Sénat.
Le parlement s'en tient à des améliorations cosmétiques des nouvelles règles européennes, sans chercher à les renforcer pour leur donner toute leur envergure. Quant à les devancer pour garantir de nouveaux droits face à l'économie extractive de la donnée, il y a là un effort d'imagination et de détermination politique dont la plupart de nos représentants semblent tout bonnement incapables.
Quelques propositions utiles
Du côté des propositions utiles, on compte par exemple des amendements des députés En Marche qui entendent préciser la définition du « consentement » individuel à la collecte de données personnelles1, et notre amendement à ce sujet a été repris par les communistes et centristes2.
Ensuite et surtout, les communistes et la France insoumise proposent de supprimer de la loi une nouvelle autorisation donnée à l'administration lui permettant de prendre des décisions automatisées sur la base de traitement de données personnelles3. Cette nouvelle autorisation vient porter une remise en cause frontale d'un principe fondamental prévu dès ses origines par la loi informatique et libertés de 1978, et selon lequel aucune « décision administrative ou privée impliquant une appréciation sur un comportement humain ne peut avoir pour seul fondement un traitement automatisé d’informations donnant une définition du profil ou de la personnalité de l’intéressé ». La France insoumise suggère également de soumettre à l'autorisation de la CNIL tout traitement réalisé pour une mission d'intérêt public4. Enfin, les communistes ont déposé notre amendement exigeant le chiffrement de bout en bout des communications5.
Des amendements absurdes
Des députés Républicains proposent d'empêcher radicalement la CNIL de rendre public le nom des entreprises qu'elle contrôle6 ou de mettre fin à un transfert de données vers un pays dont la loi ne protège pas suffisamment les données personnelles7.
Surtout, certains députés En Marche, perdus dans un délire libéral aussi extrémiste que lugubre, souhaitent transformer nos données personnelles en de simples marchandises, qu'il nous serait possible de céder pour accéder à un service sans avoir à payer en monnaie. Ainsi, nos droits fondamentaux à la vie privée et à la protection des données ne bénéficieraient plus qu'aux seules personnes qui, d'après eux, les méritent - les plus riches.
M. Bonnell, l'auteur de cet amendement, s'est empressé de faire publier au Monde, avec ses alliés ultra-libéraux également mus par une approche propriétariste, une tribune en soutien de son projet. Enchaînant les non-sens juridiques (en évoquant par exemple des « droits inaliénables » auxquels il faudrait pouvoir renoncer en échange de biens ou de services, ce qui revient pourtant précisément à les aliéner), les signataires de cette tribune espèrent simplement faire de chacun de nous les nouveaux ouvriers sous-payés de leur monde brutal et arrogant. Leur modèle est fondé sur une régulation de l'ensemble de la population, notamment grâce aux nouveaux moyens offerts par la technologie. En faisant de chacun le propriétaire de ses données, on essaye de convaincre « les masses » de consentir au grand jeu de dupe du capitalisme des plateformes. Mais la parodie de redistribution des richesses qu'ils proposent n'est qu'une pommade visant à occulter les maux profonds causés par ce modèle désormais dominant, dont la remise en cause radicale est à la fois urgente et nécessaire.
Heureusement, ni le Parlement européen, ni la CNIL, ni l'ensemble des CNIL européennes ne sont dupes, et s'opposent clairement à ce que l'accès à des biens ou services puisse être conditionné à la cession de données personnelles. Il faut donc y voir une tentative désespérée de semer la confusion avant l'arrivée, le 25 mai prochain, des changement majeurs que laisse espérer le règlement européen sur la protection des données. Mais en attendant, en France, ces inepties rétrogrades tendent à occulter les propositions positives visant à rétablir un contrôle démocratique sur nos libertés fondamentales.
";s:7:"dateiso";s:15:"20180207_141003";}s:15:"20180131_152813";a:7:{s:5:"title";s:65:"Guide juridique : Internet en libre accès, quelles obligations ?";s:4:"link";s:58:"https://www.laquadrature.net/fr/guide_internet_libre_acces";s:4:"guid";s:37:"10397 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 31 Jan 2018 14:28:13 +0000";s:11:"description";s:3468:"
Paris, 31 janvier 2018 - Avec l'aide de La Quadrature du Net, le projet de recherche netCommons vient de publier un guide pratique destiné aux organisations qui fournissent un libre accès à Internet (bibliothèques, locaux associatifs, magasins...). Face aux zones d'ombre (parfois entretenues par les pouvoirs publics) qui entourent nos droits, c'est à chacune et chacun d'entre nous de les comprendre et de les faire respecter.
Nos droits à la liberté d'expression et à la protection des données ont dernièrement été l'objet de nombreux changements et débats. L'encadrement de la neutralité du Net, des données personnelles et des activités de surveillance, par les récentes lois et jurisprudences européennes, semblent être source de nombreux troubles et confusions.
L'actuel refus de l'Assemblée nationale de réviser la loi renseignement, ainsi que la lutte de longue haleine conduite par les Exégètes amateurs contre l'obligation de conserver les données de connexion en sont de saisissants exemples.
Ainsi, La Quadrature du Net travaille actuellement avec différents acteurs afin de proposer des guides juridiques cherchant tant à expliquer le droit qu'à en proposer une application constructive.
La première de ces collaborations a été avec le projet de recherche européen netCommons, qui vise à produire diverses analyses en faveur du développement de réseaux communautaires de télécommunications.
Ce guide, initialement pensé pour répondre aux inquiétudes de bibliothécaires, aborde trois questions, concernant toute organisation qui fournit Internet en libre accès (par WiFi, câble ou poste fixe) :
Quels sites peuvent être bloqués ?
Quelles informations peuvent être collectées au sujet des utilisateurs et utilisatrices ?
Quelles informations doivent être collectées ?
Présenté avant-hier lors d'un événément organisé par l'Association des Bibliothécaires de France, ce guide compte s'enrichir des retours de celles et ceux amenés à répondre à ces questions sur le terrain (qui peuvent directement nous contacter). Il sera suivi d'autres guides, abordant d'autres sujets, vers d'autres publics.
Lutter pour changer la loi ne suffira jamais à protéger nos libertés. Il faut encore comprendre et faire respecter cette loi, et la défendre dès lors qu'elle nous protège. Ce devoir revient à toutes celles et ceux qui agissent au quotidien pour transmettre à tous les possibilités d’émancipation, de cohésion et de partage qu'Internet porte encore.
";s:7:"content";s:3471:"
Paris, 31 janvier 2018 - Avec l'aide de La Quadrature du Net, le projet de recherche netCommons vient de publier un guide pratique destiné aux organisations qui fournissent un libre accès à Internet (bibliothèques, locaux associatifs, magasins...). Face aux zones d'ombre (parfois entretenues par les pouvoirs publics) qui entourent nos droits, c'est à chacune et chacun d'entre nous de les comprendre et de les faire respecter.
Nos droits à la liberté d'expression et à la protection des données ont dernièrement été l'objet de nombreux changements et débats. L'encadrement de la neutralité du Net, des données personnelles et des activités de surveillance, par les récentes lois et jurisprudences européennes, semblent être source de nombreux troubles et confusions.
L'actuel refus de l'Assemblée nationale de réviser la loi renseignement, ainsi que la lutte de longue haleine conduite par les Exégètes amateurs contre l'obligation de conserver les données de connexion en sont de saisissants exemples.
Ainsi, La Quadrature du Net travaille actuellement avec différents acteurs afin de proposer des guides juridiques cherchant tant à expliquer le droit qu'à en proposer une application constructive.
La première de ces collaborations a été avec le projet de recherche européen netCommons, qui vise à produire diverses analyses en faveur du développement de réseaux communautaires de télécommunications.
Ce guide, initialement pensé pour répondre aux inquiétudes de bibliothécaires, aborde trois questions, concernant toute organisation qui fournit Internet en libre accès (par WiFi, câble ou poste fixe) :
Quels sites peuvent être bloqués ?
Quelles informations peuvent être collectées au sujet des utilisateurs et utilisatrices ?
Quelles informations doivent être collectées ?
Présenté avant-hier lors d'un événément organisé par l'Association des Bibliothécaires de France, ce guide compte s'enrichir des retours de celles et ceux amenés à répondre à ces questions sur le terrain (qui peuvent directement nous contacter). Il sera suivi d'autres guides, abordant d'autres sujets, vers d'autres publics.
Lutter pour changer la loi ne suffira jamais à protéger nos libertés. Il faut encore comprendre et faire respecter cette loi, et la défendre dès lors qu'elle nous protège. Ce devoir revient à toutes celles et ceux qui agissent au quotidien pour transmettre à tous les possibilités d’émancipation, de cohésion et de partage qu'Internet porte encore.
";s:7:"dateiso";s:15:"20180131_152813";}s:15:"20180126_113454";a:7:{s:5:"title";s:77:"Le Conseil constitutionnel doit reconnaître l'existence du domaine public ! ";s:4:"link";s:110:"https://www.laquadrature.net/fr/le-conseil-constitutionnel-doit-reconna%C3%AEtre-l-existence-du-domaine-public";s:4:"guid";s:37:"10396 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 26 Jan 2018 10:34:54 +0000";s:11:"description";s:16892:"
Paris, le 26 janvier 2018 - Mardi 23 janvier, une audience s'est tenue au Conseil constitutionnel au sujet de la Question Prioritaire de Constitutionnalité (QPC) soulevée par les associations Wikimédia France et La Quadrature du Net pour faire annuler une des dispositions de la loi Création. C'est la création d'un nouveau droit sur l'image des monuments des domaines nationaux (Château de Chambord, Palais du Louvre, etc.) qui était ici contestée. Les deux associations soutiennent que cette mesure méconnaît plusieurs principes reconnus par la Constitution à commencer par l'existence du domaine public.
L'audience a été l'occasion pour Maître Alexis Fitzjean O Cobhthaigh, avocat des deux associations, de rappeler les arguments principaux déjà présentés devant le Conseil d'État1.
Le nouveau droit sur l'image des monuments des domaines nationaux doit en effet être censuré, car il méconnaît un Principe Fondamental Reconnu Par les Lois de la République (PFRLR) dont Wikimédia France et La Quadrature du Net demandent au Conseil constitutionnel de reconnaître l'existence. Depuis la Révolution française, les différentes lois sur le droit d'auteur ont clairement prévu une durée limitée pour les droits patrimoniaux, au terme de laquelle les créations entrent dans le domaine public. En soumettant les usages commerciaux de l'image de ces monuments à autorisation préalable et à redevance, le législateur a fait renaître l'équivalent d'un droit patrimonial et méconnu l'existence et le sens du domaine public.
Par ailleurs, les deux associations ont fait valoir que la loi Création porte atteinte aux contrats en cours et notamment aux licences libres par lesquelles les individus voudraient diffuser des photographies des monuments des domaines nationaux en autorisant la réutilisation, y compris à des fins commerciales. Enfin, le législateur n'a pas encadré de manière suffisamment précise le mécanisme d'autorisation créé par ce texte, ce qui va soumettre l'usage de l'image de ces biens au pouvoir discrétionnaire des gestionnaires de ces domaines, sans garantie suffisante.
Il est prévu que le Conseil constitutionnel rende sa décision le 2 février prochain.
Retrouvez ci-dessous le texte complet de la plaidoirie prononcée par Alexis Fitzjean O Cobhthaigh.
Merci, Monsieur le Président,
Mesdames et Messieurs les membres du Conseil constitutionnel,
A l’origine de l’affaire qui nous occupe aujourd’hui, se trouve un monument qui ne vous est pas inconnu. Un magnifique château de la Loire qui a marqué la France et son histoire, depuis près d’un demi-millénaire. J’irai même jusqu’à soupçonner que l’image de ce château, vous la connaissez bien. Lorsque l’on remonte en effet le Grand escalier d’honneur, ici au Conseil constitutionnel, par-devant lequel vous êtes peut-être passés tout à l’heure, l’on arrive alors sur le Grand salon. Dans ce grand salon sont exposées deux tapisseries provenant de la manufacture d’Aubusson : l’une représente le château de Fontainebleau, l’autre le Château de Chambord.
Et c’est par lui que tout a commencé.
L’article L. 621-42 du code du patrimoine, devenu depuis le 1er janvier dernier, l’article L. 621-38, est venu créer un régime d’autorisation préalable à l’utilisation, à des fins commerciales, de l’image des immeubles des domaines nationaux. Ce pouvoir d’autorisation appartient à l’établissement public gestionnaire ou au préfet. L’autorisation peut prendre la forme d’un acte unilatéral ou d’un contrat, assorti, le cas échéant, d’une redevance financière. Un tel mécanisme me parait radicalement méconnaître les droits et libertés que la Constitution garantit, et ce à de nombreux titres.
Deux d’entre eux m’interpellent, et je souhaiterais m’y attarder. Le premier est une invitation (I), le second une constatation (II).
Une invitation, d’abord. Il ne vous aura pas échappé que certaines discussions nouées lors de la procédure écrite dépassent – et de loin – le cadre de cette affaire. Les dispositions dont vous êtes saisis méconnaissent le principe fondamental reconnu par les lois de la République, de ce qu’on appelle communément le domaine public et qui correspond à l’extinction de l’exclusivité des droits patrimoniaux attachés à une œuvre, au-delà d’un certain temps. Ce principe ne fait pas encore partie de ceux que vous avez dégagé comme principe fondamental reconnu par les lois de la République.
Mais il me semble qu’aujourd’hui l’heure est venue de vous en saisir. Car, manifestement, ce principe répond à l’ensemble des conditions dégagées par votre jurisprudence et il répond, me semble-t-il, à des enjeux qui nous dépassent. Depuis la Révolution française, la tradition républicaine, matérialisée dans les lois de la République, a continuellement affirmé le principe fondamental du domaine public. En outre, le caractère fondamental de ce principe ne fait aucun doute en ce qu’il vient affirmer une règle particulièrement importante et générale qui intéresse, de toute évidence, les droits et libertés fondamentaux.
La force de ce principe, sa constance à travers les âges, sa généralité, son affirmation à l’échelon national, mais également européen et international, conjugué avec la circonstance que cette limitation temporelle a été véritablement pensée et souhaitée par le législateur au fil des siècles, caractérise bien un principe fondamental reconnu par les lois de la République au sens de votre jurisprudence. Il n’est pas sérieusement contestable que le domaine public, non seulement contribue à l’intérêt général, mais encore, engendre également, de nombreuses externalités positives. Les études sont toutes éloquentes et concordantes à cet égard.
Mais il y a un point, en particulier, sur lequel je souhaiterais m’attarder quelques instants. C’est sur l’opérance de ce grief.
Ce que le mémoire du Gouvernement soutient, me semble participer d’une méconnaissance radicale du champ d’application et de la philosophie du domaine public. Au cas présent, les différents architectes des immeubles des domaines nationaux sont décédés depuis plus de 70 ans. Ces monuments correspondent donc à des œuvres pour lesquelles les droits patrimoniaux sont échus depuis fort longtemps. Et la composition architecturale de ces immeubles est donc entrée dans le domaine public de bien longtemps. De sorte que toute personne peut en reproduire l’image, à loisir, y compris, dans un dessein commercial.
Le régime contesté aujourd’hui vient nécessairement nier la nature, le sens et la portée du domaine public. En effet, ce mécanisme contrevient à ce principe fondamental dès lors qu’il s’agit d’engendrer une résurgence, sous une forme légèrement différente mais bien réelle, d’un droit patrimonial exclusif. Les dispositions litigieuses confèrent aux autorités domaniales compétentes, le pouvoir de refuser ou d’autoriser, le cas échéant, sous réserve du paiement d’une redevance, l’utilisation commerciale de l’image de ces biens. Or, cette prérogative constitue le pouvoir traditionnel garanti par le droit d’auteur, et sa composante essentielle, l’exclusivité des droits patrimoniaux attachés à une œuvre donnée.
En créant un nouveau droit lié à l’exploitation de l’image des immeubles des domaines nationaux, le Parlement a nié ce principe fondamental reconnu par les lois de la République. Il n’appartient pas au législateur de faire renaître artificiellement des droits exclusifs d’exploitation, quand bien même ils seraient d’une autre nature, sans remettre en cause l’équilibre constamment réaffirmé par les lois de la République entre droits exclusifs et droits d’usage. Le principe fondamental du domaine public implique, non seulement l’extinction, après l’écoulement d’un certain délai, de l’exclusivité des droits patrimoniaux attachés à une œuvre, mais encore et surtout qu’aucun droit nouveau, peu importe sa forme, ne soit susceptible de s’opposer à la libre utilisation commerciale de cette œuvre.
Le présenter comme « un nouveau droit » attaché à l’image du bien et dont le titulaire est le gestionnaire du domaine national, ne saurait tromper. De fait, ce régime revient à priver toute personne de la possibilité de faire, gratuitement, un usage commercial de l’image de ces biens – sauf à obtenir une autorisation préalable à titre gratuit – méconnaissant ainsi la raison d’être du domaine public. Peu importe le point de vue duquel on peine à déceler la différence avec la disposition de droits patrimoniaux sur une œuvre…
Admettre que des droits connexes puissent restreindre le « domaine public » revient à nier le sens et la portée même de ce principe fondamental. Cette atteinte réduit à néant l’idée qu’il puisse exister des « droits du public » alors que c’est bien là le sens et la portée que le législateur a toujours souhaité lui donner, depuis la Révolution française. Reconnaître un tel principe, voici l’invitation que j’évoquais tout à l’heure. Quant à la constatation, il s’agit d’attirer votre attention sur trois points.
D’abord, comme le soulignaient certains parlementaires lors des débats, la logique sous-jacente principale est celle de la valorisation économique et non celle de la préservation de l’image des domaines. C’est ainsi que les autorités domaniales responsables pourront parfaitement commercialiser l’image des domaines en cause, sans tenir compte de l’impact, potentiellement négatif, que cette utilisation pourra avoir sur ce domaine. Les dispositions attaquées laissent une large place à l’arbitraire des autorités domaniales responsables, reléguant au second plan la préservation de l’image des domaines.
Si le législateur s’était réellement donné pour unique but de préserver l’image ou la renommée des domaines, en évitant qu’ils soient associés à des objets tiers, il se serait vite rendu compte que le droit positif prévoyait déjà tous les mécanismes nécessaires à cet effet. C’est ainsi que la jurisprudence de la Cour de cassation, très claire, prévoit « que le propriétaire d’une chose ne dispose pas d’un droit exclusif sur l’image de celle-ci ; qu’il peut toutefois s’opposer à l’utilisation de cette image par un tiers lorsqu’elle lui cause un trouble anormal ».
En d’autres termes, un propriétaire n’a pas un droit d’autorisation sur l’utilisation qui peut être faite de l’image de son bien, mais un droit d’opposition à une utilisation, par un tiers, qui lui créerait un trouble anormal. Les autorités domaniales pouvaient donc déjà parfaitement s’opposer à des utilisations potentiellement créatrices d’un trouble anormal sur ce fondement. Créer un régime spécial d’autorisation préalable afin de préserver les domaines en cause n’étaient donc pas pertinent. Or, cette valorisation n’est ni une exigence constitutionnelle, ni un intérêt général. Et à supposer même que l’on puisse considérer qu’il s’agit là de l’intérêt général - conception pour le moins curieuse, mais admettons - les atteintes portées à la liberté d’entreprendre et au droit de propriété sont manifestement disproportionnées.
Ensuite, le législateur n’a pas épuisé l’étendu de sa compétence. La loi, ni même le décret d’ailleurs, ne viennent poser les critères permettant d’encadrer les pouvoirs de l’autorité domaniale. Celle-ci peut refuser les autorisations en cause suivant son bon plaisir. De même, elle peut choisir d’assortir, ou non, l’autorisation donnée d’une redevance de façon totalement arbitraire. Cela viendra nécessairement engendrer des ruptures d’égalité et des discriminations. De la même manière, le montant de la redevance peut être fixé de manière purement discrétionnaire.
Enfin, quoiqu’en dise le gouvernement, cette loi porte une atteinte disproportionnée aux contrats en cours. Je fais, en particulier, référence ici aux licences publiques. Ces dernières sont des contrats par lesquelles un auteur offre librement la possibilité d’utiliser son œuvre. Certaines licences permettent parfaitement d’en faire un usage commercial. Or, lorsque l’auteur d’un cliché décide de mettre ce dernier sous licence libre autorisant l’usage commercial, il acte de ce fait un transfert, ou à tout le moins un partage, de la valeur économique endogène de ce cliché.
Le gouvernement soutient que cette loi ne porterait pas atteinte aux contrats en cours, dès lors qu’elle ne vaudrait que pour les contrats conclus après son entrée en vigueur.
Or, de deux choses l’une.
Soit cette loi s’applique bien aux contrats en cours - et donc aux licences libres - et elles vient donc désormais imposer à toute personne d’obtenir une autorisation préalable à toute utilisation d’une photographie représentant un domaine national. Elle vient donc arbitrairement retirer la valeur économique de ces clichés et donc, anéantir la cause et l’objet des contrats de licence. En cela, je ne vois pas en quoi on pourrait sérieusement soutenir qu’il ne s’agit pas d’une atteinte disproportionnée aux contrats en cours en ce que la loi vient purement et simplement en annihiler la raison d’être...
Soit cette loi ne s’applique pas aux contrats en cours et alors elle devient de fait complètement inutile dès lors que, pour le seul château de Chambord, la seule base de données de Wikimédia contient plus de 300 clichés sous licence libre.
Je me permets d’abuser encore quelques instants de votre attention pour conclure sur les exceptions prévues par la loi. Elles aussi posent problème. L’avant dernier alinéa des dispositions contestées prévoit que l’autorisation mentionnée au premier alinéa n’est pas requise lorsque l’image est utilisée dans le cadre de l’exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d’enseignement, de recherche, d’information et d’illustration de l’actualité.
J’ai introduit mon propos tout à l’heure en attirant votre attention sur la tapisserie d’Aubusson accroché là-haut dans votre Grand salon. On m’opposera sûrement en défense que, grâce à ces exceptions - notamment l’exception artistique - la création de cette tapisserie et son commerce ne serait pas plus interdit hier qu’aujourd’hui. Et pourtant, cette tapisserie illustre bien l’ambiguïté de ces notions. Elle a été, je l’ai dit, fabriquée par la manufacture d’Aubusson. Était-ce de l’art ? Était-ce de l’industrie ? Sans doute les manufactures étaient plus proches de l’industrie que de l’art, ou même de l’artisanat.
Le juge n’est pas critique d’art. Ni professeur, ni conservateur, ni chercheur. Son office est déjà suffisamment complexe. Il est des domaines que le droit et le juge doivent s’abstenir de venir saisir, qui doivent rester en dehors de leur champ d’appréciation. L’art, à l’instar de l’histoire, en fait partie.
Il vous appartient en revanche, de vous prononcer sur la constitutionnalité des dispositions contestées. Et j’ai l’honneur de vous demander de censurer, sans en différer l’effet.
1. La vidéo de l'audience est disponible sur le site du Conseil constitutionnel. Vous pouvez aussi la regarder sans flash (et en HTTPS) ici
";s:7:"content";s:16895:"
Paris, le 26 janvier 2018 - Mardi 23 janvier, une audience s'est tenue au Conseil constitutionnel au sujet de la Question Prioritaire de Constitutionnalité (QPC) soulevée par les associations Wikimédia France et La Quadrature du Net pour faire annuler une des dispositions de la loi Création. C'est la création d'un nouveau droit sur l'image des monuments des domaines nationaux (Château de Chambord, Palais du Louvre, etc.) qui était ici contestée. Les deux associations soutiennent que cette mesure méconnaît plusieurs principes reconnus par la Constitution à commencer par l'existence du domaine public.
L'audience a été l'occasion pour Maître Alexis Fitzjean O Cobhthaigh, avocat des deux associations, de rappeler les arguments principaux déjà présentés devant le Conseil d'État1.
Le nouveau droit sur l'image des monuments des domaines nationaux doit en effet être censuré, car il méconnaît un Principe Fondamental Reconnu Par les Lois de la République (PFRLR) dont Wikimédia France et La Quadrature du Net demandent au Conseil constitutionnel de reconnaître l'existence. Depuis la Révolution française, les différentes lois sur le droit d'auteur ont clairement prévu une durée limitée pour les droits patrimoniaux, au terme de laquelle les créations entrent dans le domaine public. En soumettant les usages commerciaux de l'image de ces monuments à autorisation préalable et à redevance, le législateur a fait renaître l'équivalent d'un droit patrimonial et méconnu l'existence et le sens du domaine public.
Par ailleurs, les deux associations ont fait valoir que la loi Création porte atteinte aux contrats en cours et notamment aux licences libres par lesquelles les individus voudraient diffuser des photographies des monuments des domaines nationaux en autorisant la réutilisation, y compris à des fins commerciales. Enfin, le législateur n'a pas encadré de manière suffisamment précise le mécanisme d'autorisation créé par ce texte, ce qui va soumettre l'usage de l'image de ces biens au pouvoir discrétionnaire des gestionnaires de ces domaines, sans garantie suffisante.
Il est prévu que le Conseil constitutionnel rende sa décision le 2 février prochain.
Retrouvez ci-dessous le texte complet de la plaidoirie prononcée par Alexis Fitzjean O Cobhthaigh.
Merci, Monsieur le Président,
Mesdames et Messieurs les membres du Conseil constitutionnel,
A l’origine de l’affaire qui nous occupe aujourd’hui, se trouve un monument qui ne vous est pas inconnu. Un magnifique château de la Loire qui a marqué la France et son histoire, depuis près d’un demi-millénaire. J’irai même jusqu’à soupçonner que l’image de ce château, vous la connaissez bien. Lorsque l’on remonte en effet le Grand escalier d’honneur, ici au Conseil constitutionnel, par-devant lequel vous êtes peut-être passés tout à l’heure, l’on arrive alors sur le Grand salon. Dans ce grand salon sont exposées deux tapisseries provenant de la manufacture d’Aubusson : l’une représente le château de Fontainebleau, l’autre le Château de Chambord.
Et c’est par lui que tout a commencé.
L’article L. 621-42 du code du patrimoine, devenu depuis le 1er janvier dernier, l’article L. 621-38, est venu créer un régime d’autorisation préalable à l’utilisation, à des fins commerciales, de l’image des immeubles des domaines nationaux. Ce pouvoir d’autorisation appartient à l’établissement public gestionnaire ou au préfet. L’autorisation peut prendre la forme d’un acte unilatéral ou d’un contrat, assorti, le cas échéant, d’une redevance financière. Un tel mécanisme me parait radicalement méconnaître les droits et libertés que la Constitution garantit, et ce à de nombreux titres.
Deux d’entre eux m’interpellent, et je souhaiterais m’y attarder. Le premier est une invitation (I), le second une constatation (II).
Une invitation, d’abord. Il ne vous aura pas échappé que certaines discussions nouées lors de la procédure écrite dépassent – et de loin – le cadre de cette affaire. Les dispositions dont vous êtes saisis méconnaissent le principe fondamental reconnu par les lois de la République, de ce qu’on appelle communément le domaine public et qui correspond à l’extinction de l’exclusivité des droits patrimoniaux attachés à une œuvre, au-delà d’un certain temps. Ce principe ne fait pas encore partie de ceux que vous avez dégagé comme principe fondamental reconnu par les lois de la République.
Mais il me semble qu’aujourd’hui l’heure est venue de vous en saisir. Car, manifestement, ce principe répond à l’ensemble des conditions dégagées par votre jurisprudence et il répond, me semble-t-il, à des enjeux qui nous dépassent. Depuis la Révolution française, la tradition républicaine, matérialisée dans les lois de la République, a continuellement affirmé le principe fondamental du domaine public. En outre, le caractère fondamental de ce principe ne fait aucun doute en ce qu’il vient affirmer une règle particulièrement importante et générale qui intéresse, de toute évidence, les droits et libertés fondamentaux.
La force de ce principe, sa constance à travers les âges, sa généralité, son affirmation à l’échelon national, mais également européen et international, conjugué avec la circonstance que cette limitation temporelle a été véritablement pensée et souhaitée par le législateur au fil des siècles, caractérise bien un principe fondamental reconnu par les lois de la République au sens de votre jurisprudence. Il n’est pas sérieusement contestable que le domaine public, non seulement contribue à l’intérêt général, mais encore, engendre également, de nombreuses externalités positives. Les études sont toutes éloquentes et concordantes à cet égard.
Mais il y a un point, en particulier, sur lequel je souhaiterais m’attarder quelques instants. C’est sur l’opérance de ce grief.
Ce que le mémoire du Gouvernement soutient, me semble participer d’une méconnaissance radicale du champ d’application et de la philosophie du domaine public. Au cas présent, les différents architectes des immeubles des domaines nationaux sont décédés depuis plus de 70 ans. Ces monuments correspondent donc à des œuvres pour lesquelles les droits patrimoniaux sont échus depuis fort longtemps. Et la composition architecturale de ces immeubles est donc entrée dans le domaine public de bien longtemps. De sorte que toute personne peut en reproduire l’image, à loisir, y compris, dans un dessein commercial.
Le régime contesté aujourd’hui vient nécessairement nier la nature, le sens et la portée du domaine public. En effet, ce mécanisme contrevient à ce principe fondamental dès lors qu’il s’agit d’engendrer une résurgence, sous une forme légèrement différente mais bien réelle, d’un droit patrimonial exclusif. Les dispositions litigieuses confèrent aux autorités domaniales compétentes, le pouvoir de refuser ou d’autoriser, le cas échéant, sous réserve du paiement d’une redevance, l’utilisation commerciale de l’image de ces biens. Or, cette prérogative constitue le pouvoir traditionnel garanti par le droit d’auteur, et sa composante essentielle, l’exclusivité des droits patrimoniaux attachés à une œuvre donnée.
En créant un nouveau droit lié à l’exploitation de l’image des immeubles des domaines nationaux, le Parlement a nié ce principe fondamental reconnu par les lois de la République. Il n’appartient pas au législateur de faire renaître artificiellement des droits exclusifs d’exploitation, quand bien même ils seraient d’une autre nature, sans remettre en cause l’équilibre constamment réaffirmé par les lois de la République entre droits exclusifs et droits d’usage. Le principe fondamental du domaine public implique, non seulement l’extinction, après l’écoulement d’un certain délai, de l’exclusivité des droits patrimoniaux attachés à une œuvre, mais encore et surtout qu’aucun droit nouveau, peu importe sa forme, ne soit susceptible de s’opposer à la libre utilisation commerciale de cette œuvre.
Le présenter comme « un nouveau droit » attaché à l’image du bien et dont le titulaire est le gestionnaire du domaine national, ne saurait tromper. De fait, ce régime revient à priver toute personne de la possibilité de faire, gratuitement, un usage commercial de l’image de ces biens – sauf à obtenir une autorisation préalable à titre gratuit – méconnaissant ainsi la raison d’être du domaine public. Peu importe le point de vue duquel on peine à déceler la différence avec la disposition de droits patrimoniaux sur une œuvre…
Admettre que des droits connexes puissent restreindre le « domaine public » revient à nier le sens et la portée même de ce principe fondamental. Cette atteinte réduit à néant l’idée qu’il puisse exister des « droits du public » alors que c’est bien là le sens et la portée que le législateur a toujours souhaité lui donner, depuis la Révolution française. Reconnaître un tel principe, voici l’invitation que j’évoquais tout à l’heure. Quant à la constatation, il s’agit d’attirer votre attention sur trois points.
D’abord, comme le soulignaient certains parlementaires lors des débats, la logique sous-jacente principale est celle de la valorisation économique et non celle de la préservation de l’image des domaines. C’est ainsi que les autorités domaniales responsables pourront parfaitement commercialiser l’image des domaines en cause, sans tenir compte de l’impact, potentiellement négatif, que cette utilisation pourra avoir sur ce domaine. Les dispositions attaquées laissent une large place à l’arbitraire des autorités domaniales responsables, reléguant au second plan la préservation de l’image des domaines.
Si le législateur s’était réellement donné pour unique but de préserver l’image ou la renommée des domaines, en évitant qu’ils soient associés à des objets tiers, il se serait vite rendu compte que le droit positif prévoyait déjà tous les mécanismes nécessaires à cet effet. C’est ainsi que la jurisprudence de la Cour de cassation, très claire, prévoit « que le propriétaire d’une chose ne dispose pas d’un droit exclusif sur l’image de celle-ci ; qu’il peut toutefois s’opposer à l’utilisation de cette image par un tiers lorsqu’elle lui cause un trouble anormal ».
En d’autres termes, un propriétaire n’a pas un droit d’autorisation sur l’utilisation qui peut être faite de l’image de son bien, mais un droit d’opposition à une utilisation, par un tiers, qui lui créerait un trouble anormal. Les autorités domaniales pouvaient donc déjà parfaitement s’opposer à des utilisations potentiellement créatrices d’un trouble anormal sur ce fondement. Créer un régime spécial d’autorisation préalable afin de préserver les domaines en cause n’étaient donc pas pertinent. Or, cette valorisation n’est ni une exigence constitutionnelle, ni un intérêt général. Et à supposer même que l’on puisse considérer qu’il s’agit là de l’intérêt général - conception pour le moins curieuse, mais admettons - les atteintes portées à la liberté d’entreprendre et au droit de propriété sont manifestement disproportionnées.
Ensuite, le législateur n’a pas épuisé l’étendu de sa compétence. La loi, ni même le décret d’ailleurs, ne viennent poser les critères permettant d’encadrer les pouvoirs de l’autorité domaniale. Celle-ci peut refuser les autorisations en cause suivant son bon plaisir. De même, elle peut choisir d’assortir, ou non, l’autorisation donnée d’une redevance de façon totalement arbitraire. Cela viendra nécessairement engendrer des ruptures d’égalité et des discriminations. De la même manière, le montant de la redevance peut être fixé de manière purement discrétionnaire.
Enfin, quoiqu’en dise le gouvernement, cette loi porte une atteinte disproportionnée aux contrats en cours. Je fais, en particulier, référence ici aux licences publiques. Ces dernières sont des contrats par lesquelles un auteur offre librement la possibilité d’utiliser son œuvre. Certaines licences permettent parfaitement d’en faire un usage commercial. Or, lorsque l’auteur d’un cliché décide de mettre ce dernier sous licence libre autorisant l’usage commercial, il acte de ce fait un transfert, ou à tout le moins un partage, de la valeur économique endogène de ce cliché.
Le gouvernement soutient que cette loi ne porterait pas atteinte aux contrats en cours, dès lors qu’elle ne vaudrait que pour les contrats conclus après son entrée en vigueur.
Or, de deux choses l’une.
Soit cette loi s’applique bien aux contrats en cours - et donc aux licences libres - et elles vient donc désormais imposer à toute personne d’obtenir une autorisation préalable à toute utilisation d’une photographie représentant un domaine national. Elle vient donc arbitrairement retirer la valeur économique de ces clichés et donc, anéantir la cause et l’objet des contrats de licence. En cela, je ne vois pas en quoi on pourrait sérieusement soutenir qu’il ne s’agit pas d’une atteinte disproportionnée aux contrats en cours en ce que la loi vient purement et simplement en annihiler la raison d’être...
Soit cette loi ne s’applique pas aux contrats en cours et alors elle devient de fait complètement inutile dès lors que, pour le seul château de Chambord, la seule base de données de Wikimédia contient plus de 300 clichés sous licence libre.
Je me permets d’abuser encore quelques instants de votre attention pour conclure sur les exceptions prévues par la loi. Elles aussi posent problème. L’avant dernier alinéa des dispositions contestées prévoit que l’autorisation mentionnée au premier alinéa n’est pas requise lorsque l’image est utilisée dans le cadre de l’exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d’enseignement, de recherche, d’information et d’illustration de l’actualité.
J’ai introduit mon propos tout à l’heure en attirant votre attention sur la tapisserie d’Aubusson accroché là-haut dans votre Grand salon. On m’opposera sûrement en défense que, grâce à ces exceptions - notamment l’exception artistique - la création de cette tapisserie et son commerce ne serait pas plus interdit hier qu’aujourd’hui. Et pourtant, cette tapisserie illustre bien l’ambiguïté de ces notions. Elle a été, je l’ai dit, fabriquée par la manufacture d’Aubusson. Était-ce de l’art ? Était-ce de l’industrie ? Sans doute les manufactures étaient plus proches de l’industrie que de l’art, ou même de l’artisanat.
Le juge n’est pas critique d’art. Ni professeur, ni conservateur, ni chercheur. Son office est déjà suffisamment complexe. Il est des domaines que le droit et le juge doivent s’abstenir de venir saisir, qui doivent rester en dehors de leur champ d’appréciation. L’art, à l’instar de l’histoire, en fait partie.
Il vous appartient en revanche, de vous prononcer sur la constitutionnalité des dispositions contestées. Et j’ai l’honneur de vous demander de censurer, sans en différer l’effet.
1. La vidéo de l'audience est disponible sur le site du Conseil constitutionnel. Vous pouvez aussi la regarder sans flash (et en HTTPS) ici
";s:7:"dateiso";s:15:"20180126_113454";}s:15:"20180124_132552";a:7:{s:5:"title";s:109:"Loi données personnelles : l'Assemblée nationale nie le droit européen pour protéger la loi renseignement";s:4:"link";s:51:"https://www.laquadrature.net/fr/pjl_rgpd_commission";s:4:"guid";s:37:"10395 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 24 Jan 2018 12:25:52 +0000";s:11:"description";s:17513:"
Paris, le 24 janvier 2018 - Hier soir, l'Assemblée nationale a commencé à examiner le projet de loi censé aligner la protection de nos données personnelles sur le droit européen. La rapporteure du texte, Paula Forteza (LREM), et les autres députés ont refusé d'intégrer les nouvelles normes européennes pour corriger la loi renseignement de 2015. Il leur reste deux semaines pour sortir d'une hypocrisie insupportable selon laquelle le droit européen ne devrait être « respecté » que pour détruire nos droits (sociaux, de circulation, etc.), et jamais pour nous protéger de menaces autoritaires.
Des avancées consensuelles
Certes, quelques amendements positifs ont été discutés hier sur ce projet de loi, dont certains que nous proposions. Mme Forteza, MM Bothorel (LREM) et Gosselin (LR) ont proposé de renforcer les actions de groupe contre les entreprises exploitant illégalement nos données personnelles1. M. Brocard (LREM) a proposé de mieux définir la notion de consentement2. M. Bothorel a en outre proposé que les ordinateurs et téléphones ne puissent proposer par défaut des moteurs de recherches surveillant leurs utilisateurs3.
Bien. Mais aborder de tels sujets - finalement assez consensuels pour beaucoup d'entre eux - demandait bien moins de courage que les circonstances ne l'imposaient.
Seule Paula Forteza a commencé à esquisser le véritable débat - celui visant les services de renseignement. Elle a proposé de confier à la CNIL et à la CNCTR4 le contrôle des fichiers tenus par ces services et qui, aujourd'hui, ne peuvent être contrôlés qu'a posteriori ou de façon très parcellaire. Mais le courage de la rapporteure semble s'être rapidement dissipé, celle-ci s'empressant de préciser que ce contrôle ne conduirait, « en aucun cas, à contrôler l’activité des services » ni « à apprécier la pertinence et la réalité de telle ou telle information contenue dans le fichier », mais serait donc purement formel (contrôlant la sécurité et la structure d'ensemble).
De graves incohérences niées
Surtout, ni elle ni aucun député n'a évoqué une seule des nombreuses et graves incohérences que nous leur indiquions entre la loi renseignement de 2015 et la directive européenne 2016/680, que le projet de loi prétend pourtant intégrer en droit français, et qui encadre les traitements de données personnelles mis en œuvre « à des fins de prévention et de détection des infractions pénales, d’enquêtes ou de poursuites en la matière »5.
La lâcheté dont ont fait part les députés a été nourrie dès le début des débats par le gouvernement, qui prétend dans l'exposé des motifs du projet de loi que cette directive ne serait pas « applicable aux traitements intéressant la sûreté de l’État et la défense, qui ne relèvent pas du droit de l’Union européenne ». En plus d'être fausse6, cette affirmation n'a pas grand chose à voir avec le problème, et ne saurait être qu'une piètre excuse pour les députés qui souhaiteraient en couvrir leur couardise.
En effet, la directive 2016/680 encadre les traitements réalisés « à des fins de prévention et de détection des infractions pénales [...], y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces ». Or, la loi renseignement de 2015 autorise précisément des traitements afin de « prévenir » et de « détecter » une multitude d'infractions définies comme telles par le code pénal (terrorisme, traffic de stupéfiants, traites d'êtres humains, vol en bande organisée, manifestations illégales, émeutes...). Ce sont exactement les activités visées par la directive, qui encadre donc clairement les traitements réalisés dans le cadre de la loi renseignement7.
En refusant de corriger la loi renseignement, l'Assemblée nationale fait honneur à l'hypocrisie de son gouvernement qui, invoquant le droit de l'Union européenne dès qu'il s'agit de déconstruire nos droits, s'entête à le violer quand il s'agit de respecter notre vie privée8. Dans les dix jours à venir, l'ensemble des députés seront invités à déposer de nouveaux amendements (le texte n'est aujourd'hui examiné qu'en commission des lois). Puissent-ils être guidés par le courage et la cohérence qui ont manqué à la commission hier.
1. Voir les amendements respectifs de Mme Forteza, MM Bothorel et Gosselin visant à renforcer l'action de groupe : ici, là et là.
2. Voir l'amendement de M. Brocard visant à définir la notion de consentement ici.
3. Voir l'amendement de M. Bothorel sur les moteurs de recherche ici.
4. La Commission nationale de contrôle des techniques de renseignement.
5. Contrairement à ce qu'impose la directive 2016/680, le code de la sécurité intérieure échoue à prévoir un recours juridictionnel effectif contre des mesures de surveillances, ne prévoit aucune information des personnes subissant ces mesures, ne donne pas à l'autorité de contrôle les moyens nécessaires pour accomplir sa mission et permet à certaines mesures d'échapper entièrement à toute limite ou contrôle extérieur.
6. L'article 23 du RGPD (règlement européen général sur la protection des données) prévoit qu'une loi nationale peut déroger à certaines des obligations prévues par ce règlement dès lors que sont en jeu « la sécurité nationale » ou « la défense nationale », mais à la condition que cette loi « respecte l'essence des libertés et droits fondamentaux et qu'elle constitue une mesure nécessaire et proportionnée dans une société démocratique » - reprenant ici directement l'article 52 de la Charte des droits fondamentaux de l'Union européenne. Dès lors, les traitements réalisés pour la sécurité/défense nationale doivent respecter certaines conditions générales que le RGPD comme la Charte imposent explicitement, et sans aucune dérogation. Il serait donc parfaitement absurde de considérer, sans aucune nuance, que ces traitements « ne relèvent pas du droit de l'Union européenne », comme le prétend le gouvernement, perdu dans son obsession d'échapper à la jurisprudence de la Cour de justice de l'Union européenne, particulièrement protectrice des droits des individus en la matière.
7. L'article L. 811-3 du code de la sécurité intérieure liste les finalités que peuvent poursuivre les services de renseignement. Le Conseil constitutionnel (dans sa décision n° 2015-713 DC, considérant 10) a explicitement défini certaines de ces finalité comme consistant en la prévention d'infractions déjà définies en droit pénal :
du terrorisme (infractions définies aux articles 421-1 à 421-6 du code pénal) ;
de la criminalité et de la délinquance organisées (infractions énumérées à l'article 706-73 du code de procédure pénale) ;
des atteintes à la forme républicaine des institutions (infractions définies aux articles 412-1 à 412-8 du code pénal) ;
des violences collectives (infractions définies aux articles 431-1 à 431-10 du code pénal).
Quand il ne s'agit pas de lutter contre des infractions, l'article L. 811-3 autorise alors généralement des traitements poursuivant des finalités « normales », soumises de façon classique au règlement général sur la protection des données (RGPD) qui prévoit des règles au moins aussi stricte que la directive 2016/680. Ces finalités sont : « les intérêts majeurs de la politique étrangère » ; « l'exécution des engagements européens et internationaux de la France » ; « les intérêts économiques, industriels et scientifiques majeurs de la France ».
Seules certaines finalités résiduelles visées par la loi renseignement pourraient être débattues comme concernant « la sûreté de l’État et la défense », ce qui ne les ferait d'ailleurs pas entièrement échapper au champ du droit européen pris dans son ensemble. Il s'agit de : « l'indépendance nationale, l'intégrité du territoire et la défense nationale » ; « la prévention de toute forme d'ingérence étrangère ». Or, même à accepter que ces finalités échapperaient au champ de la directive 2016/680, ceci ne justifierait en rien que le reste de la loi renseignement qui, pour la majorité des finalités qu'elle prévoit, reste soumise à la directive, viole cette dernière entièrement.
Le gouvernement contredit d'ailleurs lui-même l'idée selon laquelle la détection et la prévention des infractions visées par la loi renseignement sortiraient du champ de la directive 2016/680, puisqu'il reconnait que la répression judiciaire des mêmes infractions y entre bien (mentionnant par exemple, dans l'exposé des motifs de son projet, l'encadrement de manifestations et d'émeutes).
8. Depuis au moins un an, le gouvernement refuse d'abroger l'obligation imposée aux opérateurs de télécommunications de conserver pendant un an les données de connexion de l'ensemble de leurs utilisateurs, ce que la Cour de justice de l'Union n'a pourtant cessé de déclarer contraire à la Charte des droits fondamentaux.
";s:7:"content";s:17516:"
Paris, le 24 janvier 2018 - Hier soir, l'Assemblée nationale a commencé à examiner le projet de loi censé aligner la protection de nos données personnelles sur le droit européen. La rapporteure du texte, Paula Forteza (LREM), et les autres députés ont refusé d'intégrer les nouvelles normes européennes pour corriger la loi renseignement de 2015. Il leur reste deux semaines pour sortir d'une hypocrisie insupportable selon laquelle le droit européen ne devrait être « respecté » que pour détruire nos droits (sociaux, de circulation, etc.), et jamais pour nous protéger de menaces autoritaires.
Des avancées consensuelles
Certes, quelques amendements positifs ont été discutés hier sur ce projet de loi, dont certains que nous proposions. Mme Forteza, MM Bothorel (LREM) et Gosselin (LR) ont proposé de renforcer les actions de groupe contre les entreprises exploitant illégalement nos données personnelles1. M. Brocard (LREM) a proposé de mieux définir la notion de consentement2. M. Bothorel a en outre proposé que les ordinateurs et téléphones ne puissent proposer par défaut des moteurs de recherches surveillant leurs utilisateurs3.
Bien. Mais aborder de tels sujets - finalement assez consensuels pour beaucoup d'entre eux - demandait bien moins de courage que les circonstances ne l'imposaient.
Seule Paula Forteza a commencé à esquisser le véritable débat - celui visant les services de renseignement. Elle a proposé de confier à la CNIL et à la CNCTR4 le contrôle des fichiers tenus par ces services et qui, aujourd'hui, ne peuvent être contrôlés qu'a posteriori ou de façon très parcellaire. Mais le courage de la rapporteure semble s'être rapidement dissipé, celle-ci s'empressant de préciser que ce contrôle ne conduirait, « en aucun cas, à contrôler l’activité des services » ni « à apprécier la pertinence et la réalité de telle ou telle information contenue dans le fichier », mais serait donc purement formel (contrôlant la sécurité et la structure d'ensemble).
De graves incohérences niées
Surtout, ni elle ni aucun député n'a évoqué une seule des nombreuses et graves incohérences que nous leur indiquions entre la loi renseignement de 2015 et la directive européenne 2016/680, que le projet de loi prétend pourtant intégrer en droit français, et qui encadre les traitements de données personnelles mis en œuvre « à des fins de prévention et de détection des infractions pénales, d’enquêtes ou de poursuites en la matière »5.
La lâcheté dont ont fait part les députés a été nourrie dès le début des débats par le gouvernement, qui prétend dans l'exposé des motifs du projet de loi que cette directive ne serait pas « applicable aux traitements intéressant la sûreté de l’État et la défense, qui ne relèvent pas du droit de l’Union européenne ». En plus d'être fausse6, cette affirmation n'a pas grand chose à voir avec le problème, et ne saurait être qu'une piètre excuse pour les députés qui souhaiteraient en couvrir leur couardise.
En effet, la directive 2016/680 encadre les traitements réalisés « à des fins de prévention et de détection des infractions pénales [...], y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces ». Or, la loi renseignement de 2015 autorise précisément des traitements afin de « prévenir » et de « détecter » une multitude d'infractions définies comme telles par le code pénal (terrorisme, traffic de stupéfiants, traites d'êtres humains, vol en bande organisée, manifestations illégales, émeutes...). Ce sont exactement les activités visées par la directive, qui encadre donc clairement les traitements réalisés dans le cadre de la loi renseignement7.
En refusant de corriger la loi renseignement, l'Assemblée nationale fait honneur à l'hypocrisie de son gouvernement qui, invoquant le droit de l'Union européenne dès qu'il s'agit de déconstruire nos droits, s'entête à le violer quand il s'agit de respecter notre vie privée8. Dans les dix jours à venir, l'ensemble des députés seront invités à déposer de nouveaux amendements (le texte n'est aujourd'hui examiné qu'en commission des lois). Puissent-ils être guidés par le courage et la cohérence qui ont manqué à la commission hier.
1. Voir les amendements respectifs de Mme Forteza, MM Bothorel et Gosselin visant à renforcer l'action de groupe : ici, là et là.
2. Voir l'amendement de M. Brocard visant à définir la notion de consentement ici.
3. Voir l'amendement de M. Bothorel sur les moteurs de recherche ici.
4. La Commission nationale de contrôle des techniques de renseignement.
5. Contrairement à ce qu'impose la directive 2016/680, le code de la sécurité intérieure échoue à prévoir un recours juridictionnel effectif contre des mesures de surveillances, ne prévoit aucune information des personnes subissant ces mesures, ne donne pas à l'autorité de contrôle les moyens nécessaires pour accomplir sa mission et permet à certaines mesures d'échapper entièrement à toute limite ou contrôle extérieur.
6. L'article 23 du RGPD (règlement européen général sur la protection des données) prévoit qu'une loi nationale peut déroger à certaines des obligations prévues par ce règlement dès lors que sont en jeu « la sécurité nationale » ou « la défense nationale », mais à la condition que cette loi « respecte l'essence des libertés et droits fondamentaux et qu'elle constitue une mesure nécessaire et proportionnée dans une société démocratique » - reprenant ici directement l'article 52 de la Charte des droits fondamentaux de l'Union européenne. Dès lors, les traitements réalisés pour la sécurité/défense nationale doivent respecter certaines conditions générales que le RGPD comme la Charte imposent explicitement, et sans aucune dérogation. Il serait donc parfaitement absurde de considérer, sans aucune nuance, que ces traitements « ne relèvent pas du droit de l'Union européenne », comme le prétend le gouvernement, perdu dans son obsession d'échapper à la jurisprudence de la Cour de justice de l'Union européenne, particulièrement protectrice des droits des individus en la matière.
7. L'article L. 811-3 du code de la sécurité intérieure liste les finalités que peuvent poursuivre les services de renseignement. Le Conseil constitutionnel (dans sa décision n° 2015-713 DC, considérant 10) a explicitement défini certaines de ces finalité comme consistant en la prévention d'infractions déjà définies en droit pénal :
du terrorisme (infractions définies aux articles 421-1 à 421-6 du code pénal) ;
de la criminalité et de la délinquance organisées (infractions énumérées à l'article 706-73 du code de procédure pénale) ;
des atteintes à la forme républicaine des institutions (infractions définies aux articles 412-1 à 412-8 du code pénal) ;
des violences collectives (infractions définies aux articles 431-1 à 431-10 du code pénal).
Quand il ne s'agit pas de lutter contre des infractions, l'article L. 811-3 autorise alors généralement des traitements poursuivant des finalités « normales », soumises de façon classique au règlement général sur la protection des données (RGPD) qui prévoit des règles au moins aussi stricte que la directive 2016/680. Ces finalités sont : « les intérêts majeurs de la politique étrangère » ; « l'exécution des engagements européens et internationaux de la France » ; « les intérêts économiques, industriels et scientifiques majeurs de la France ».
Seules certaines finalités résiduelles visées par la loi renseignement pourraient être débattues comme concernant « la sûreté de l’État et la défense », ce qui ne les ferait d'ailleurs pas entièrement échapper au champ du droit européen pris dans son ensemble. Il s'agit de : « l'indépendance nationale, l'intégrité du territoire et la défense nationale » ; « la prévention de toute forme d'ingérence étrangère ». Or, même à accepter que ces finalités échapperaient au champ de la directive 2016/680, ceci ne justifierait en rien que le reste de la loi renseignement qui, pour la majorité des finalités qu'elle prévoit, reste soumise à la directive, viole cette dernière entièrement.
Le gouvernement contredit d'ailleurs lui-même l'idée selon laquelle la détection et la prévention des infractions visées par la loi renseignement sortiraient du champ de la directive 2016/680, puisqu'il reconnait que la répression judiciaire des mêmes infractions y entre bien (mentionnant par exemple, dans l'exposé des motifs de son projet, l'encadrement de manifestations et d'émeutes).
8. Depuis au moins un an, le gouvernement refuse d'abroger l'obligation imposée aux opérateurs de télécommunications de conserver pendant un an les données de connexion de l'ensemble de leurs utilisateurs, ce que la Cour de justice de l'Union n'a pourtant cessé de déclarer contraire à la Charte des droits fondamentaux.
";s:7:"dateiso";s:15:"20180124_132552";}s:15:"20180118_095157";a:7:{s:5:"title";s:59:"Loi données personnelles : corrigeons la loi renseignement";s:4:"link";s:52:"https://www.laquadrature.net/fr/pjl_rgpd_amendements";s:4:"guid";s:37:"10394 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 18 Jan 2018 08:51:57 +0000";s:11:"description";s:6751:"
Paris, le 18 janvier 2018 - Mardi prochain, l'Assemblé nationale commençera à examiner le projet de loi destiné à adapter le droit français aux nouvelles règles européennes protégeant nos données personnelles. La Quadrature a proposé six amendements à ce texte : l'un d'eux concerne la loi renseignement adoptée en 2015, dont certaines dispositions sont contraires à ces nouvelles règles européennes. Paula Forteza (LREM), engagée sur les sujets numériques et rapporteure du texte, doit saisir cette opportunité décisive pour la protection de notre vie privée.
En 2016, l'Union européenne a adopté deux textes fondamentaux en matière de protection des données. Le plus connu de ces deux textes est le règlement général sur la protection des données (RGPD). Dès le 25 mai prochain, il imposera des obligations précises à toute personne qui exploite les données personnelles d'Européens. Toutefois, par exception, ces obligations ne s'imposeront pas aux activités qui, mises en œuvre pour le compte de l'État, visent à lutter contre les infractions. Cette lutte contre les infractions est, elle, encadrée par un second texte : la directive 2016/680. Contrairement au RGPD, cette directive ne prévoit que des principes généraux que les États membres devront traduire dans leur droit national en règles précises. Ils ont jusqu'au 6 mai pour faire cette transposition.
Le projet de loi examiné mardi par l'Assemblée nationale poursuit deux objectifs : adapter le droit français en prévision de l'entrée en application du RGPD (afin de corriger certaines incohérences entre le droit français existant et le RGPD, par exemple) et traduire les principes de la directive 2016/680 en règles précises dans le droit français. La Quadrature du Net a fait parvenir six amendements aux députés examinant ce projet.
Cinq de ces amendements concernent le RGPD et visent à :
faciliter les actions de groupe, en prévoyant que les personnes (notamment les entreprises) sanctionnées remboursent à l'association les frais engagés pour porter l'action ;
exiger que les données soient chiffrées de bout en bout chaque fois que cela est possible ;
concilier de façon cohérente la liberté d'expression et la protection des données personnelles, notamment en intégrant la jurisprudence de la Cour européenne des droits de l'homme (CEDH) qui instaure le critère de « contribution à un débat d'intérêt général » pour autoriser la publication de données ;
renforcer la protection des données sensibles, en corrigeant des imprécisions du RGPD, en intégrant des positions de la CNIL et en corrigeant le projet de loi.
Le sixième amendement, plus complexe, concerne l'intégration en droit français de la directive 2016/680 au regard des activités de renseignement. En effet, les pouvoirs donnés aux services français par la loi renseignement de 2015 rentrent directement dans le champ des activités visées par cette directive et doivent donc y être conformes. Or, ce n'est pas le cas sur de nombreux points, ce que La Quadrature propose de corriger afin que :
les personnes qui font l'objet d'une mesure de surveillance en soient informées dès que cette mesure prend fin, ou ultérieurement si cela met en péril l'objectif qui a initialement motivé la mesure (actuellement, ces personnes n'ont absolument aucune façon d'être informées des mesures subies, ce qu'exige pourtant la directive) ;
la Commission nationale de contrôle des techniques de renseignement (CNCTR) ait accès aux renseignements transmis aux services français par des services étrangers, afin de vérifier que ceux-ci sont licitement exploités (ce que la CNCTR ne peut pas faire aujourd'hui, alors que la directive l'exige) ;
tout particulier puisse saisir une juridiction pour contester la licéité d'une mesure de surveillance dont il pense faire l'objet (ce qu'exige la directive mais que le droit français ne prévoit pas s'agissant des mesures de surveillance internationale, menée en particulier par la DGSE) ;
les services français ne puissent transmettre ou collecter des renseignements auprès d'autres services, français ou étrangers, qu'en respectant les mêmes conditions que pour la mise en œuvre d'une technique de recueil de renseignement, et sous le contrôle de la CNCTR (ce qui n'est pas le cas aujourd'hui).
Avant-hier, la rapporteure du projet de loi, Paula Forteza, a reçu en audition La Quadrature du Net, les Exégètes amateurs et European Digital Rights (EDRi). Nous lui avons longuement expliqué l'importance de l'opportunité qui s'offrait à elle pour corriger notre droit. Elle est apparue à l'écoute de nos arguments et a semblé partager notre intérêt pour ces questions cruciales. Puisse-t-elle être à la hauteur de ces enjeux et défendre avec sincérité ses engagements en faveur du numérique. La Quadrature du Net invite chacun.e d'entre nous à suivre ses actions pour s'en assurer.
Paris, le 18 janvier 2018 - Mardi prochain, l'Assemblé nationale commençera à examiner le projet de loi destiné à adapter le droit français aux nouvelles règles européennes protégeant nos données personnelles. La Quadrature a proposé six amendements à ce texte : l'un d'eux concerne la loi renseignement adoptée en 2015, dont certaines dispositions sont contraires à ces nouvelles règles européennes. Paula Forteza (LREM), engagée sur les sujets numériques et rapporteure du texte, doit saisir cette opportunité décisive pour la protection de notre vie privée.
En 2016, l'Union européenne a adopté deux textes fondamentaux en matière de protection des données. Le plus connu de ces deux textes est le règlement général sur la protection des données (RGPD). Dès le 25 mai prochain, il imposera des obligations précises à toute personne qui exploite les données personnelles d'Européens. Toutefois, par exception, ces obligations ne s'imposeront pas aux activités qui, mises en œuvre pour le compte de l'État, visent à lutter contre les infractions. Cette lutte contre les infractions est, elle, encadrée par un second texte : la directive 2016/680. Contrairement au RGPD, cette directive ne prévoit que des principes généraux que les États membres devront traduire dans leur droit national en règles précises. Ils ont jusqu'au 6 mai pour faire cette transposition.
Le projet de loi examiné mardi par l'Assemblée nationale poursuit deux objectifs : adapter le droit français en prévision de l'entrée en application du RGPD (afin de corriger certaines incohérences entre le droit français existant et le RGPD, par exemple) et traduire les principes de la directive 2016/680 en règles précises dans le droit français. La Quadrature du Net a fait parvenir six amendements aux députés examinant ce projet.
Cinq de ces amendements concernent le RGPD et visent à :
faciliter les actions de groupe, en prévoyant que les personnes (notamment les entreprises) sanctionnées remboursent à l'association les frais engagés pour porter l'action ;
exiger que les données soient chiffrées de bout en bout chaque fois que cela est possible ;
concilier de façon cohérente la liberté d'expression et la protection des données personnelles, notamment en intégrant la jurisprudence de la Cour européenne des droits de l'homme (CEDH) qui instaure le critère de « contribution à un débat d'intérêt général » pour autoriser la publication de données ;
renforcer la protection des données sensibles, en corrigeant des imprécisions du RGPD, en intégrant des positions de la CNIL et en corrigeant le projet de loi.
Le sixième amendement, plus complexe, concerne l'intégration en droit français de la directive 2016/680 au regard des activités de renseignement. En effet, les pouvoirs donnés aux services français par la loi renseignement de 2015 rentrent directement dans le champ des activités visées par cette directive et doivent donc y être conformes. Or, ce n'est pas le cas sur de nombreux points, ce que La Quadrature propose de corriger afin que :
les personnes qui font l'objet d'une mesure de surveillance en soient informées dès que cette mesure prend fin, ou ultérieurement si cela met en péril l'objectif qui a initialement motivé la mesure (actuellement, ces personnes n'ont absolument aucune façon d'être informées des mesures subies, ce qu'exige pourtant la directive) ;
la Commission nationale de contrôle des techniques de renseignement (CNCTR) ait accès aux renseignements transmis aux services français par des services étrangers, afin de vérifier que ceux-ci sont licitement exploités (ce que la CNCTR ne peut pas faire aujourd'hui, alors que la directive l'exige) ;
tout particulier puisse saisir une juridiction pour contester la licéité d'une mesure de surveillance dont il pense faire l'objet (ce qu'exige la directive mais que le droit français ne prévoit pas s'agissant des mesures de surveillance internationale, menée en particulier par la DGSE) ;
les services français ne puissent transmettre ou collecter des renseignements auprès d'autres services, français ou étrangers, qu'en respectant les mêmes conditions que pour la mise en œuvre d'une technique de recueil de renseignement, et sous le contrôle de la CNCTR (ce qui n'est pas le cas aujourd'hui).
Avant-hier, la rapporteure du projet de loi, Paula Forteza, a reçu en audition La Quadrature du Net, les Exégètes amateurs et European Digital Rights (EDRi). Nous lui avons longuement expliqué l'importance de l'opportunité qui s'offrait à elle pour corriger notre droit. Elle est apparue à l'écoute de nos arguments et a semblé partager notre intérêt pour ces questions cruciales. Puisse-t-elle être à la hauteur de ces enjeux et défendre avec sincérité ses engagements en faveur du numérique. La Quadrature du Net invite chacun.e d'entre nous à suivre ses actions pour s'en assurer.
";s:7:"dateiso";s:15:"20180118_095157";}s:15:"20180111_161005";a:7:{s:5:"title";s:164:"Réponse à la consultation de l’ARCEP « Smartphones, tablettes, assistants vocaux... Les terminaux sont-ils le maillon faible de l’ouverture d’Internet ? »";s:4:"link";s:60:"https://www.laquadrature.net/fr/ARCEP-consultation-terminaux";s:4:"guid";s:37:"10389 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 11 Jan 2018 15:10:05 +0000";s:11:"description";s:4464:"
Paris, le 11 janvier 2018 - L'ARCEP1 a lancé récemment une consultation sur les terminaux et leur rôle dans la mise en place de la neutralité du Net. Les terminaux sont aujourd'hui en effet un frein à la neutralité du Net : environnements fermés, vente liée, situation de duopole, autant de façons de porter atteinte à la neutralité du Net que nous dénonçons depuis longtemps. Nous avons travaillé avec la Fédération des fournisseurs d'accès à Internet associatifs et Exodus Privacy sur une réponse à cette consultation pour y donner notre point de vue.
Le texte de la consultation commence bizarrement puisqu'il indique que « certains acteurs, non visés par le règlement, avaient la capacité de limiter l’accès effectif à certains services et applications en ligne, pour les utilisateurs comme pour les acteurs de l’internet. » Et parmi ces acteurs, l'ARCEP de citer « les terminaux et de leurs systèmes d’exploitation. » C'est surprenant à lire lorsque l'on sait que l'article 3 du règlement européen sur la neutralité du Net indique que l'Internet doit être ouvert, quel que soit le terminal utilisé.2 Le terminal est par conséquent directement visé par ce règlement.
Il est donc fondamental de rappeler les limites posées par les pratiques actuelles imposées par les fournisseurs de terminaux et de rappeler les fondamentaux qui permettront à la fois de respecter le règlement sur l'Internet ouvert, la nécessité pour l'utilisateur de contrôler le terminal de son choix, l'ouverture du marché et celle des environnements applicatifs (Google Play et App Store par exemple).
Nous espérons que cette réponse permettra à l'ARCEP de consolider sa position et d'agir !
1. L'ARCEP est l'autorité de régulation des communications électroniques et des postes
2. Article 3§1 du règlement établissant des mesures relatives à l’accès à un internet ouvert : « Les utilisateurs finals ont le droit d’accéder aux informations et aux contenus et de les diffuser, d’utiliser et de fournir des applications et des services et d’utiliser les équipements terminaux de leur choix, quel que soit le lieu où se trouve l’utilisateur final ou le fournisseur, et quels que soient le lieu, l’origine ou la destination de l’information, du contenu, de l’application ou du service, par l’intermédiaire de leur service d’accès à l’internet. »
";s:7:"content";s:4470:"
Paris, le 11 janvier 2018 - L'ARCEP1 a lancé récemment une consultation sur les terminaux et leur rôle dans la mise en place de la neutralité du Net. Les terminaux sont aujourd'hui en effet un frein à la neutralité du Net : environnements fermés, vente liée, situation de duopole, autant de façons de porter atteinte à la neutralité du Net que nous dénonçons depuis longtemps. Nous avons travaillé avec la Fédération des fournisseurs d'accès à Internet associatifs et Exodus Privacy sur une réponse à cette consultation pour y donner notre point de vue.
Le texte de la consultation commence bizarrement puisqu'il indique que « certains acteurs, non visés par le règlement, avaient la capacité de limiter l’accès effectif à certains services et applications en ligne, pour les utilisateurs comme pour les acteurs de l’internet. » Et parmi ces acteurs, l'ARCEP de citer « les terminaux et de leurs systèmes d’exploitation. » C'est surprenant à lire lorsque l'on sait que l'article 3 du règlement européen sur la neutralité du Net indique que l'Internet doit être ouvert, quel que soit le terminal utilisé.2 Le terminal est par conséquent directement visé par ce règlement.
Il est donc fondamental de rappeler les limites posées par les pratiques actuelles imposées par les fournisseurs de terminaux et de rappeler les fondamentaux qui permettront à la fois de respecter le règlement sur l'Internet ouvert, la nécessité pour l'utilisateur de contrôler le terminal de son choix, l'ouverture du marché et celle des environnements applicatifs (Google Play et App Store par exemple).
Nous espérons que cette réponse permettra à l'ARCEP de consolider sa position et d'agir !
1. L'ARCEP est l'autorité de régulation des communications électroniques et des postes
2. Article 3§1 du règlement établissant des mesures relatives à l’accès à un internet ouvert : « Les utilisateurs finals ont le droit d’accéder aux informations et aux contenus et de les diffuser, d’utiliser et de fournir des applications et des services et d’utiliser les équipements terminaux de leur choix, quel que soit le lieu où se trouve l’utilisateur final ou le fournisseur, et quels que soient le lieu, l’origine ou la destination de l’information, du contenu, de l’application ou du service, par l’intermédiaire de leur service d’accès à l’internet. »
";s:7:"dateiso";s:15:"20180111_161005";}s:15:"20180104_162943";a:7:{s:5:"title";s:70:"Fake-news : derrière l'effet d'annonce, Macron esquive le vrai débat";s:4:"link";s:48:"https://www.laquadrature.net/fr/macron_fake_news";s:4:"guid";s:37:"10388 at https://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 04 Jan 2018 15:29:43 +0000";s:11:"description";s:8317:"
4 janvier 2018, Paris - Hier soir, Emmanuel Macron a annoncé une future loi contre la propagation de « fausses informations ». Derrière un effet d'annonce assez cynique, il révèle son désintérêt pour un sujet qui mérite pourtant un traitement sérieux. La propagation de « fausses informations » est le symptôme d'une distorsion du débat public provoquée par la surveillance économique des grandes plateformes - dont les partis politiques traditionnels s’accommodent très bien, quand ils n'y ont pas recours.
Emmanuel Macron propose que, en période électorale, les juges puissent être saisis en référé pour censurer des « fausses informations1 » par tout moyen, jusqu'au blocage d'un site.
Au regard du droit en vigueur, l'intérêt de cette proposition est particulièrement douteux. La loi de 1881 sur la liberté de la presse incrimine déjà (même hors période électorale) la diffusion d'informations volontairement erronées, du moment que celles-ci portent atteinte à l'honneur d'une personne ou troublent (ou sont susceptibles de troubler) la paix publique2. On comprend mal quel type de « fausses informations » Macron voudrait combattre de plus.
Par ailleurs, la loi de confiance dans l'économie numérique de 2004 prévoit aussi déjà, de façon générique, qu'un juge peut ordonner en référé à tout hébergeur ou, à défaut, à tout opérateur de télécommunication, de prendre « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage » causé par un contenu illicite3. Cette prérogative, dont la portée est par ailleurs dangereusement vague et large, couvre tant la suppression d'un contenu que le blocage d'un site.
Manifestement, la proposition de M. Macron est un pur effet d'annonce. En vérité, il n'a que faire de la propagation des « fausses informations » ni du problème fondamental dont elles sont le symptôme. Ce sera donc à chacune d'entre nous de nous en préoccuper.
Les « fake-news », symptôme d'une distorsion générale du débat en ligne
Emmanuel Macron base son effet d'annonce sur l'idée que « propager puissamment une fausse nouvelle sur les réseaux sociaux ne requiert aujourd'hui que quelques dizaines de milliers d'euros ». Il passe à côté de l'essentiel du débat : c'est le modèle économique des grands réseaux sociaux qui, de lui-même, favorise la propagation (gratuite) d'informations qui distordent le débat public, dont les fake-news (et ce toute l'année, période d'élection ou non).
Les contenus affichés sur le fil d'actualité Facebook, ou les vidéos suggérées sur YouTube, par exemple, sont choisies par chacune de ces plateformes. Pour rentabiliser au mieux leurs services, ces entreprises ont tout intérêt à favoriser certains textes, images ou vidéos. D'abord, mettre en avant des contenus qui n'intéressent qu'un groupe d'utilisateurs présentant des caractéristiques communes permet de profiler automatiquement les autres utilisateurs qui consultent ce contenu. Ensuite, une fois un utilisateur mis dans une case, la plateforme peut affiner son profilage en lui soumettant des contenus de plus en plus précis, l'enfermant dans une bulle de plus en plus restreinte. Et l'utilisateur, une fois identifié, diffusera à son tour les contenus qui lui ont été arbitrairement attribués, et participera malgré-lui à l'enfermement d'autres utilisateurs4.
En parallèle, les plateformes ont aussi intérêt à favoriser des contenus « attrape-clics », courts et peu subtils, n'ayant pas pour objectif de porter un discours pertinent mais simplement d'attirer l’œil. La diffusion rapide et facilitée de tels contenus donne autant d'occasions d'analyser les interactions des utilisateurs pour établir des profils plus précis.
L'un dans l'autre, le modèle du ciblage publicitaire conduit à écarter des débats les opinions les plus subtiles et nuancées, peu clivantes (car intéressant des personnes trop différentes pour permettre de les cibler précisément) ou générant peu de clics. Une fois ces positions écartées, le champ est laissé libre à la propagation de positions caricaturales, peu réfléchies, provocantes ou simplement mensongères.
Enfin, non content d'avoir distordu le débat public, le ciblage des utilisateurs constitue en fin de course un outil de choix pour des campagnes actives de propagande politique (la participation de Cambridge Analytica au Brexit et à l'élection de Trump en est un exemple alarmant). Le tableau est complet.
La propagation de fausses informations n'est que le symptôme d'un mal bien plus large causé par le ciblage publicitaire. La qualité du débat public exige un espace neutre, où le tissu des opinions n'est pas déchiré par des considérations marchandes. Emmanuel Macron propose de ne traiter que le symptôme, et de la façon la plus absurde qui soit. Traitons donc le mal par nous-mêmes.
1. Comme définition simple de « fausse information » ou « fake-news », nous proposons : une information présentée comme sérieuse et objective mais délibérément fausse ou tronquée.
2. Voir les article 27 et 29 de la loi du 29 juillet 1881 sur la liberté de la presse.
3. Voir l'article 6, I, 8 de loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique.
4. Pour approfondir le sujet de l'influence du modèle économique des plateformes sur l'information elle-même et sur l'utilisation statistique de resemblances entre individus pour leur délivrer un contenu spécifique, lire l'article de Serge Proulx : Capitalisme et communication : une monétisation de la relation sociale.
4 janvier 2018, Paris - Hier soir, Emmanuel Macron a annoncé une future loi contre la propagation de « fausses informations ». Derrière un effet d'annonce assez cynique, il révèle son désintérêt pour un sujet qui mérite pourtant un traitement sérieux. La propagation de « fausses informations » est le symptôme d'une distorsion du débat public provoquée par la surveillance économique des grandes plateformes - dont les partis politiques traditionnels s’accommodent très bien, quand ils n'y ont pas recours.
Emmanuel Macron propose que, en période électorale, les juges puissent être saisis en référé pour censurer des « fausses informations1 » par tout moyen, jusqu'au blocage d'un site.
Au regard du droit en vigueur, l'intérêt de cette proposition est particulièrement douteux. La loi de 1881 sur la liberté de la presse incrimine déjà (même hors période électorale) la diffusion d'informations volontairement erronées, du moment que celles-ci portent atteinte à l'honneur d'une personne ou troublent (ou sont susceptibles de troubler) la paix publique2. On comprend mal quel type de « fausses informations » Macron voudrait combattre de plus.
Par ailleurs, la loi de confiance dans l'économie numérique de 2004 prévoit aussi déjà, de façon générique, qu'un juge peut ordonner en référé à tout hébergeur ou, à défaut, à tout opérateur de télécommunication, de prendre « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage » causé par un contenu illicite3. Cette prérogative, dont la portée est par ailleurs dangereusement vague et large, couvre tant la suppression d'un contenu que le blocage d'un site.
Manifestement, la proposition de M. Macron est un pur effet d'annonce. En vérité, il n'a que faire de la propagation des « fausses informations » ni du problème fondamental dont elles sont le symptôme. Ce sera donc à chacune d'entre nous de nous en préoccuper.
Les « fake-news », symptôme d'une distorsion générale du débat en ligne
Emmanuel Macron base son effet d'annonce sur l'idée que « propager puissamment une fausse nouvelle sur les réseaux sociaux ne requiert aujourd'hui que quelques dizaines de milliers d'euros ». Il passe à côté de l'essentiel du débat : c'est le modèle économique des grands réseaux sociaux qui, de lui-même, favorise la propagation (gratuite) d'informations qui distordent le débat public, dont les fake-news (et ce toute l'année, période d'élection ou non).
Les contenus affichés sur le fil d'actualité Facebook, ou les vidéos suggérées sur YouTube, par exemple, sont choisies par chacune de ces plateformes. Pour rentabiliser au mieux leurs services, ces entreprises ont tout intérêt à favoriser certains textes, images ou vidéos. D'abord, mettre en avant des contenus qui n'intéressent qu'un groupe d'utilisateurs présentant des caractéristiques communes permet de profiler automatiquement les autres utilisateurs qui consultent ce contenu. Ensuite, une fois un utilisateur mis dans une case, la plateforme peut affiner son profilage en lui soumettant des contenus de plus en plus précis, l'enfermant dans une bulle de plus en plus restreinte. Et l'utilisateur, une fois identifié, diffusera à son tour les contenus qui lui ont été arbitrairement attribués, et participera malgré-lui à l'enfermement d'autres utilisateurs4.
En parallèle, les plateformes ont aussi intérêt à favoriser des contenus « attrape-clics », courts et peu subtils, n'ayant pas pour objectif de porter un discours pertinent mais simplement d'attirer l’œil. La diffusion rapide et facilitée de tels contenus donne autant d'occasions d'analyser les interactions des utilisateurs pour établir des profils plus précis.
L'un dans l'autre, le modèle du ciblage publicitaire conduit à écarter des débats les opinions les plus subtiles et nuancées, peu clivantes (car intéressant des personnes trop différentes pour permettre de les cibler précisément) ou générant peu de clics. Une fois ces positions écartées, le champ est laissé libre à la propagation de positions caricaturales, peu réfléchies, provocantes ou simplement mensongères.
Enfin, non content d'avoir distordu le débat public, le ciblage des utilisateurs constitue en fin de course un outil de choix pour des campagnes actives de propagande politique (la participation de Cambridge Analytica au Brexit et à l'élection de Trump en est un exemple alarmant). Le tableau est complet.
La propagation de fausses informations n'est que le symptôme d'un mal bien plus large causé par le ciblage publicitaire. La qualité du débat public exige un espace neutre, où le tissu des opinions n'est pas déchiré par des considérations marchandes. Emmanuel Macron propose de ne traiter que le symptôme, et de la façon la plus absurde qui soit. Traitons donc le mal par nous-mêmes.
1. Comme définition simple de « fausse information » ou « fake-news », nous proposons : une information présentée comme sérieuse et objective mais délibérément fausse ou tronquée.
2. Voir les article 27 et 29 de la loi du 29 juillet 1881 sur la liberté de la presse.
3. Voir l'article 6, I, 8 de loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique.
4. Pour approfondir le sujet de l'influence du modèle économique des plateformes sur l'information elle-même et sur l'utilisation statistique de resemblances entre individus pour leur délivrer un contenu spécifique, lire l'article de Serge Proulx : Capitalisme et communication : une monétisation de la relation sociale.
";s:7:"dateiso";s:15:"20180104_162943";}s:15:"20171220_142751";a:7:{s:5:"title";s:40:"Abandon de la neutralité du Net aux USA";s:4:"link";s:67:"http://www.laquadrature.net/fr/tribune_neutralite_du_net_Liberation";s:4:"guid";s:36:"10386 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 20 Dec 2017 13:27:51 +0000";s:11:"description";s:5294:"
Paris, le 21 décembre 2017 - Nous publions ici la version intégrale d'une tribune sur la neutralité du Net publiée par Benjamin Bayart dans Libération le 14 décembre dernier, avec leur autorisation.
L'autorité de régulation des télécoms américaine est en train de renoncer à défendre la neutralité du Net. Ajit Pai, qui est à la tête de cette autorité, la FCC (Federal Communication Commision), a d'ailleurs été mis à ce poste par l'administration Trump précisément avec cette mission. Ce programme fait beaucoup de bruit, des deux côtés de l'Atlantique, dans le petit monde de l'Internet. Voyons rapidement pourquoi.
Le principe est souvent présenté de manière assez complexe, quand ce n'est pas incompréhensible, alors qu'il est en fait relativement simple. Le métier d'un fournisseur d'accès à Internet est de transporter les données des abonnés. Parce que, oui, c'est bien l'abonné qui a demandé les données, et pas YouTube qui a décidé tout seul d'envoyer une vidéo. Le principe de neutralité consiste à transporter ces données sans discrimination. Sans favoriser le diffuseur de vidéos qui a un accord avec l'opérateur, accord actionnarial ou commercial par exemple, contre le diffuseur qui n'a pas un tel accord.
Pourquoi ?
Philosophiquement, parce que l'abonné est le client. Parce que l'opérateur doit être au service de son abonné. Si un diffuseur peut passer un accord avec l'opérateur pour favoriser sa plateforme, quel est l'objet de cet accord ? L'abonné. Il perd sa position de sujet pour devenir un objet, une marchandise, que l'opérateur vend à la plateforme.
Économiquement, la conséquence est qu'une plateforme en position de force pourra payer cette redevance, là où un nouvel acteur économique ne pourra pas. L'effet économique est d'empêcher les nouveaux venus, et d'assurer la pérennité des positions de force acquises, tuant l'innovation et la concurrence. L'effet politique est de créer un levier que les États peuvent utiliser pour stériliser toute expression dissidente.
Quel sera l'effet aux États-Unis de la fin de la neutralité du Net ? Cela donnera de la force aux grands opérateurs, déjà en situation de monopole (dans une ville américaine, quand il y a deux opérateurs, ce sont celui qui fait de l'ADSL, et celui qui fait du câble, et encore, pas partout). Ces grands opérateurs, qui sont très en retard technologiquement, en espèrent un surplus de revenus sans avoir à investir, en prélevant une part des revenus des géants comme Google, Facebook ou Netflix. L'effet second, ce sera de renforcer la position dominante de ces géants : étant les seuls à pouvoir payer la rente demandée par les opérateurs, il seront protégés.
En Europe, nous avons des bases légales plus solides pour protéger la neutralité du Net. Un règlement européen, loi directement applicable dans toute l'Union sans attendre une lente transposition par les parlements nationaux. C'est bien plus solide qu'une règle établie par une autorité administrative. Bien entendu, nos grands opérateurs continuent de s'attaquer à cette règle. Par le lobbying politique, bien entendu. Par le lobbying technique, aussi.
Il y a deux réactions possibles de l'Europe. Ou bien elle cède lentement aux sirènes des opérateurs, elle rabote petit à petit la neutralité du Net, retirant un bout au nom de la sécurité, retirant un bout au nom de l'alignement avec le marché américain, etc. Et alors nous entérinons solidement le fait qu'il n'y aura pas de nouveaux modèles économiques. Nous assurons que les seuls géants possibles sont les géants américains actuels. Et en creux, nous admettons que les « valeurs européennes » sont une farce, la vraie règle étant celle du marché, et surtout celle du marché américain. Bref, la première piste c'est de renoncer. Renoncer à la protection des données personnelles, renoncer au fait que le réseau soit la marchandise et donc accepter que ce soit l'utilisateur qui serve de marchandise.
L'alternative, c'est que l'Europe s'appuie au contraire sur ses valeurs, et sur les règles qu'elle a mises en place (la neutralité du Net, le règlement européen sur les données personnelles, etc). En défendant ces positions, nous avons alors une chance : les nouveaux venus américains auront un handicap, un réseau non-neutre. Les entreprises innovantes européennes en revanche, auront un accès facile à un grand marché, une Europe de 500 millions de citoyens qui ont des droits. Et une Europe forte, capable d'imposer ses règles aux grands groupes américains. Bref, nous avons là une opportunité intéressante, que l'Europe devienne un terreau plus favorable à l'innovation sociale, et économique, par la protection des citoyens.
Certes, c'est considérer que la cause est perdue pour nos frères américains. Mais si nous échouons à les aider à sortir de cette impasse, il ne me semble pas souhaitable de couler dans leur naufrage juste par solidarité.
";s:7:"content";s:5294:"
Paris, le 21 décembre 2017 - Nous publions ici la version intégrale d'une tribune sur la neutralité du Net publiée par Benjamin Bayart dans Libération le 14 décembre dernier, avec leur autorisation.
L'autorité de régulation des télécoms américaine est en train de renoncer à défendre la neutralité du Net. Ajit Pai, qui est à la tête de cette autorité, la FCC (Federal Communication Commision), a d'ailleurs été mis à ce poste par l'administration Trump précisément avec cette mission. Ce programme fait beaucoup de bruit, des deux côtés de l'Atlantique, dans le petit monde de l'Internet. Voyons rapidement pourquoi.
Le principe est souvent présenté de manière assez complexe, quand ce n'est pas incompréhensible, alors qu'il est en fait relativement simple. Le métier d'un fournisseur d'accès à Internet est de transporter les données des abonnés. Parce que, oui, c'est bien l'abonné qui a demandé les données, et pas YouTube qui a décidé tout seul d'envoyer une vidéo. Le principe de neutralité consiste à transporter ces données sans discrimination. Sans favoriser le diffuseur de vidéos qui a un accord avec l'opérateur, accord actionnarial ou commercial par exemple, contre le diffuseur qui n'a pas un tel accord.
Pourquoi ?
Philosophiquement, parce que l'abonné est le client. Parce que l'opérateur doit être au service de son abonné. Si un diffuseur peut passer un accord avec l'opérateur pour favoriser sa plateforme, quel est l'objet de cet accord ? L'abonné. Il perd sa position de sujet pour devenir un objet, une marchandise, que l'opérateur vend à la plateforme.
Économiquement, la conséquence est qu'une plateforme en position de force pourra payer cette redevance, là où un nouvel acteur économique ne pourra pas. L'effet économique est d'empêcher les nouveaux venus, et d'assurer la pérennité des positions de force acquises, tuant l'innovation et la concurrence. L'effet politique est de créer un levier que les États peuvent utiliser pour stériliser toute expression dissidente.
Quel sera l'effet aux États-Unis de la fin de la neutralité du Net ? Cela donnera de la force aux grands opérateurs, déjà en situation de monopole (dans une ville américaine, quand il y a deux opérateurs, ce sont celui qui fait de l'ADSL, et celui qui fait du câble, et encore, pas partout). Ces grands opérateurs, qui sont très en retard technologiquement, en espèrent un surplus de revenus sans avoir à investir, en prélevant une part des revenus des géants comme Google, Facebook ou Netflix. L'effet second, ce sera de renforcer la position dominante de ces géants : étant les seuls à pouvoir payer la rente demandée par les opérateurs, il seront protégés.
En Europe, nous avons des bases légales plus solides pour protéger la neutralité du Net. Un règlement européen, loi directement applicable dans toute l'Union sans attendre une lente transposition par les parlements nationaux. C'est bien plus solide qu'une règle établie par une autorité administrative. Bien entendu, nos grands opérateurs continuent de s'attaquer à cette règle. Par le lobbying politique, bien entendu. Par le lobbying technique, aussi.
Il y a deux réactions possibles de l'Europe. Ou bien elle cède lentement aux sirènes des opérateurs, elle rabote petit à petit la neutralité du Net, retirant un bout au nom de la sécurité, retirant un bout au nom de l'alignement avec le marché américain, etc. Et alors nous entérinons solidement le fait qu'il n'y aura pas de nouveaux modèles économiques. Nous assurons que les seuls géants possibles sont les géants américains actuels. Et en creux, nous admettons que les « valeurs européennes » sont une farce, la vraie règle étant celle du marché, et surtout celle du marché américain. Bref, la première piste c'est de renoncer. Renoncer à la protection des données personnelles, renoncer au fait que le réseau soit la marchandise et donc accepter que ce soit l'utilisateur qui serve de marchandise.
L'alternative, c'est que l'Europe s'appuie au contraire sur ses valeurs, et sur les règles qu'elle a mises en place (la neutralité du Net, le règlement européen sur les données personnelles, etc). En défendant ces positions, nous avons alors une chance : les nouveaux venus américains auront un handicap, un réseau non-neutre. Les entreprises innovantes européennes en revanche, auront un accès facile à un grand marché, une Europe de 500 millions de citoyens qui ont des droits. Et une Europe forte, capable d'imposer ses règles aux grands groupes américains. Bref, nous avons là une opportunité intéressante, que l'Europe devienne un terreau plus favorable à l'innovation sociale, et économique, par la protection des citoyens.
Certes, c'est considérer que la cause est perdue pour nos frères américains. Mais si nous échouons à les aider à sortir de cette impasse, il ne me semble pas souhaitable de couler dans leur naufrage juste par solidarité.
";s:7:"dateiso";s:15:"20171220_142751";}s:15:"20171220_110122";a:7:{s:5:"title";s:58:"Mise en demeure de WhatsApp : l'espoir d'un bouleversement";s:4:"link";s:44:"http://www.laquadrature.net/fr/cnil_whatsapp";s:4:"guid";s:36:"10385 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 20 Dec 2017 10:01:22 +0000";s:11:"description";s:16108:"
Paris, le 20 décembre 2017 - Avant-hier, la CNIL a annoncé mettre en demeure WhatsApp de corriger son système de transfert de données personnelles à Facebook. L'entreprise a un mois pour ce faire, sous peine d'être sanctionnée (le montant maximal de l'amende est de 3 millions d'euros). La CNIL considère ce transfert illicite car se fondant sur le consentement forcé des utilisateurs, ceux-ci ne pouvant s'y opposer qu'en renonçant à utiliser le service. La Quadrature du Net se réjouit de l'analyse faite par la CNIL, car c'est exactement celle qu'elle défend depuis des années. Les conséquences en seront particulièrement importantes.
La décision publiée avant-hier par la CNIL fait directement suite à un autre événement décisif, survenu la semaine dernière : le G29 (groupe de travail réunissant les CNIL européennes) a publié un projet de lignes directrices détaillant la façon dont la notion de « consentement » sera interprétée par les CNIL européennes dans leur application du règlement général sur la protection des données (RGPD) à partir du 26 mai prochain.
Ces lignes directrices reprennent dans une large mesure les mêmes positions que celles défendues par La Quadrature du Net depuis des années, en rendant explicites certaines interprétations du RGPD que de nombreuses entreprises et gouvernements refusaient jusqu'ici d'accepter. Ces interprétations sont d'autant plus utiles qu'elles contrent directement certaines positions dangereuses dans le débat législatif en cours sur le règlement ePrivacy.
La mise en demeure de WhatsApp n'est ni plus ni moins que la stricte application de ces lignes directrices.
La liberté et la spécificité du consentement
Depuis la semaine dernière, le G29 explique parfaitement que « le RGPD prévoit que si la personne concernée n'a pas un véritable choix, se sent contrainte de consentir ou subira des conséquences négatives si elle ne consent pas, alors son consentement n'est pas valide »1, ce qui est une clarification importante à la fois du RGPD2 et des positions passées du G293.
Le G29 souligne une des conséquences fondamentales de cette notion : « le RGPD garantit que le traitement de données personnelles pour lequel le consentement est demandé ne peut pas devenir, directement ou indirectement, la contrepartie d'un contrat »4. Le Parlement européen avait d'ailleurs déjà commencé à prendre le même chemin le mois dernier, en décidant que « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises ».
Soulignons qu'il y a bien un type de traitement que l'utilisateur peut être obligé d'accepter pour utiliser le service : les traitements qui sont techniquement indispensables pour fournir le service (tels que des traitements de sécurité ou, s'agissant de services payants, de facturation). Cette « exception » ne fait pas débat, étant assez logique.
Enfin, le G29 rappelle que le consentement doit aussi être « spécifique », ce qui implique que les utilisateurs « devraient être libres de choisir quelle finalité [de traitement] ils acceptent, plutôt que d'avoir à consentir à un ensemble de finalités de traitement »5. Il s'agit d'une conséquence directe du caractère libre du consentement : on ne doit pas être contraint de consentir à une chose (être fiché, par exemple) au motif qu'on souhaite consentir à une autre (la transmission de ses communications à ses amis, par exemple).
Un consentement qui n'est ni libre ni spécifique n'est pas valide et ne peut autoriser aucun traitement de données personnelles.
Le cas WhatsApp
Le cas de WhatsApp est probablement le premier cas d'application aussi clair de ces exigences.
Comme expliqué dans ses conditions générales d'utilisation (CGU), WhatsApp transfère à Facebook (qui l'a racheté en 2014) diverses données personnelles. Les CGU ne détaillent pas la nature de ces données, mais WhatsApp a expliqué à la CNIL qu'il s'agirait de « l’identifiant du compte WhatsApp de l’utilisateur, des informations relatives à l’appareil utilisé et des informations relatives à l’utilisation de l’application » (p. 3 de la décision de la CNIL). Les CGU expliquent vaguement l'objectif du transfert de ces données : « aider [Whatsapp] à exploiter, fournir, améliorer, comprendre, personnaliser, prendre en charge et commercialiser [ses] Services et [ceux de Facebook] ». Enfin, WhatsApp explique à la CNIL que ce transfert serait licite car les utilisateurs y ont consenti en acceptant ces CGU.
D'une part, comme la CNIL l'explique très bien, alors que l'objectif du transfert n'est en rien indispensable à la fourniture du service WhatsApp, « le refus de la personne concernée de donner son consentement à la transmission de ses données s’accompagne nécessairement d’une conséquence négative importante puisqu’elle sera contrainte de supprimer son compte et ne pourra utiliser l’application WhatsApp » (p. 7). La CNIL en conclut logiquement que ce consentement n'est pas libre.
D'autre part, la CNIL souligne que l'utilisateur « consent de façon générale à la politique de confidentialité de la société », sans pouvoir choisir de consentir à certains traitements (ceux liés à la sécurité typiquement) tout en en refusant d'autres (ceux visant à améliorer le service). Les utilisateurs ne pouvant donc consentir de façon spécifique, leur consentement est encore invalide.
La CNIL donne un mois à WhatsApp pour permettre à ses utilisateurs de refuser librement et spécifiquement le transfert de leurs données à Facebook. À défaut, ce transfert devrait tout simplement prendre fin, puisqu'il ne pourrait être autorisé par aucun consentement valide.
Des conséquences considérables
Appliquées à d'autres services que WhatsApp, ces exigences auront des conséquences colossales.
Prenons directement le cas de la société mère de WhatsApp, Facebook, et de son réseau social. Actuellement, les utilisateurs de ce réseau n'ont qu'une seule façon d'échapper au fichage et au ciblage publicitaire qui y a lieu : en supprimant leur compte. En acceptant les CGU de Facebook, au moment de leur inscription, les utilisateurs n'y ont donc pas consenti librement (c'était tout ou rien). Or, puisque Facebook ne peut justifier ce fichage et ce ciblage qu'avec le consentement de ses utilisateurs, et que ce consentement n'est pas valide, ces activités sont illicites. Si Facebook ne veut pas être interdit dans l'Union européenne, il devra permettre à ses utilisateurs de continuer à utiliser son réseau social tout en échappant à cette surveillance.
On peut légitimement se demander comment Facebook pourra continuer à financer l’infrastructure sur laquelle repose ses services et comment, concrètement, il pourra survivre. La conclusion est simple : si Facebook ne trouve aucune source de financement ne reposant pas sur l'exploitation forcée des données personnelles de ses utilisateurs, il devra fermer son réseau social en Europe. Les mêmes conséquences peuvent être dessinées pour Google, Twitter, Amazon... et WhatsApp, comme on l'a vu.
Cette conclusion, aussi impressionnante peut-elle paraître pour certains, est en vérité l'objectif précisément recherché par le G29 et la CNIL dans leurs récentes positions. C'est aussi celui poursuivi par La Quadrature : empêcher la subsistance de modèles économiques fondés sur l'exploitation forcée d'une liberté fondamentale.
Cet objectif ne vise pas à interdire tout traitement de données personnelles (il en existe une myriade d'utiles pour la société, c'est évident), mais à empêcher qu'une industrie ne survive sur leur exploitation économique massive. Les seuls traitements légitimes de données personnelles sont ceux reconnus comme tels collectivement (par la loi) et ceux acceptés de façon désintéressée par les personnes concernées. Cette logique s'oppose en théorie au maintien d'une industrie tirant sa richesse de traitements massifs de données personnelles.
« La Quadrature du Net se réjouit de la décision publiée avant-hier par la CNIL : elle laisse espérer un bouleversement dans l'équilibre d'Internet, qui ne cessait jusqu'ici de se concentrer autour d'acteurs hégémoniques tirant leurs forces de l'exploitation injustifiable des libertés de tous les internautes. Nous espérons que la CNIL sera cohérente avec cette décision et en appliquera la logique contre l'ensemble des services des géants de l'Internet, pour commencer - à défaut de quoi chacune d'entre nous devra l'y pousser, par des plaintes auprès d'elle ou en saisissant les tribunaux », conclut Arthur Messaud, militant à La Quadrature du Net.
Notre traduction de « the GDPR prescribes that if the data subject has no real choice, feels compelled to consent or will endure negative consequences if they do not consent, then consent will not be valid » (p. 6).
L'article 7§4 du RGPD prévoit que, « au moment de déterminer si le consentement est donné librement, il y a lieu de tenir le plus grand compte de la question de savoir, entre autres, si l'exécution d'un contrat, y compris la fourniture d'un service, est subordonnée au consentement au traitement de données à caractère personnel qui n'est pas nécessaire à l'exécution dudit contrat ». Or, cette exigence ne donne pas directement de critère concret pour évaluer la liberté d'un consentement. Le considérant 43 du RGPD précise heureusement ce point : « le consentement est présumé ne pas avoir été donné librement [...] si l'exécution d'un contrat, y compris la prestation d'un service, est subordonnée au consentement malgré que celui-ci ne soit pas nécessaire à une telle exécution ». Les opposants à la liberté du consentement continuaient toutefois de prétendre qu'il fallait limiter le sens de cette précision, soit en la limitant à l'exécution des contrats (alors que de nombreux traitements peuvent se faire hors contrat) soit en soulignant la structure logique imparfaite de ce considérant (en effet, le considérant parle d'un « consentement » non nécessaire à l'exécution d'un contrat alors que, à être rigoureux, il aurait fallu parler du « traitement » non nécessaire à son exécution). Les imprécisions ou imperfections du RGPD ont ici été entièrement corrigées par le G29.
Dans son avis 15/2011 (WP187) du 13 juillet 2011, le G29 était mois précis qu'aujourd'hui, exigeant que le refus de consentir n'implique aucune « conséquence négative significative » (p. 12), alors qu'il exige aujourd'hui que le refus n'implique aucune « conséquence négative » tout court. Cette reformulation est décisive puisque le caractère « significatif » d'un préjudice était parfaitement vague et imprévisible, au point de risquer de priver cette exigence de toute portée.
Notre traduction de « the GDPR ensures that the processing of personal data for which consent is sought cannot become directly or indirectly the counter-performance of a contract » (p. 9).
Notre traduction de : « the data subjects should be free to choose which purpose they accept, rather than having to consent to a bundle of processing purposes » (p. 11).
";s:7:"content";s:16108:"
Paris, le 20 décembre 2017 - Avant-hier, la CNIL a annoncé mettre en demeure WhatsApp de corriger son système de transfert de données personnelles à Facebook. L'entreprise a un mois pour ce faire, sous peine d'être sanctionnée (le montant maximal de l'amende est de 3 millions d'euros). La CNIL considère ce transfert illicite car se fondant sur le consentement forcé des utilisateurs, ceux-ci ne pouvant s'y opposer qu'en renonçant à utiliser le service. La Quadrature du Net se réjouit de l'analyse faite par la CNIL, car c'est exactement celle qu'elle défend depuis des années. Les conséquences en seront particulièrement importantes.
La décision publiée avant-hier par la CNIL fait directement suite à un autre événement décisif, survenu la semaine dernière : le G29 (groupe de travail réunissant les CNIL européennes) a publié un projet de lignes directrices détaillant la façon dont la notion de « consentement » sera interprétée par les CNIL européennes dans leur application du règlement général sur la protection des données (RGPD) à partir du 26 mai prochain.
Ces lignes directrices reprennent dans une large mesure les mêmes positions que celles défendues par La Quadrature du Net depuis des années, en rendant explicites certaines interprétations du RGPD que de nombreuses entreprises et gouvernements refusaient jusqu'ici d'accepter. Ces interprétations sont d'autant plus utiles qu'elles contrent directement certaines positions dangereuses dans le débat législatif en cours sur le règlement ePrivacy.
La mise en demeure de WhatsApp n'est ni plus ni moins que la stricte application de ces lignes directrices.
La liberté et la spécificité du consentement
Depuis la semaine dernière, le G29 explique parfaitement que « le RGPD prévoit que si la personne concernée n'a pas un véritable choix, se sent contrainte de consentir ou subira des conséquences négatives si elle ne consent pas, alors son consentement n'est pas valide »1, ce qui est une clarification importante à la fois du RGPD2 et des positions passées du G293.
Le G29 souligne une des conséquences fondamentales de cette notion : « le RGPD garantit que le traitement de données personnelles pour lequel le consentement est demandé ne peut pas devenir, directement ou indirectement, la contrepartie d'un contrat »4. Le Parlement européen avait d'ailleurs déjà commencé à prendre le même chemin le mois dernier, en décidant que « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises ».
Soulignons qu'il y a bien un type de traitement que l'utilisateur peut être obligé d'accepter pour utiliser le service : les traitements qui sont techniquement indispensables pour fournir le service (tels que des traitements de sécurité ou, s'agissant de services payants, de facturation). Cette « exception » ne fait pas débat, étant assez logique.
Enfin, le G29 rappelle que le consentement doit aussi être « spécifique », ce qui implique que les utilisateurs « devraient être libres de choisir quelle finalité [de traitement] ils acceptent, plutôt que d'avoir à consentir à un ensemble de finalités de traitement »5. Il s'agit d'une conséquence directe du caractère libre du consentement : on ne doit pas être contraint de consentir à une chose (être fiché, par exemple) au motif qu'on souhaite consentir à une autre (la transmission de ses communications à ses amis, par exemple).
Un consentement qui n'est ni libre ni spécifique n'est pas valide et ne peut autoriser aucun traitement de données personnelles.
Le cas WhatsApp
Le cas de WhatsApp est probablement le premier cas d'application aussi clair de ces exigences.
Comme expliqué dans ses conditions générales d'utilisation (CGU), WhatsApp transfère à Facebook (qui l'a racheté en 2014) diverses données personnelles. Les CGU ne détaillent pas la nature de ces données, mais WhatsApp a expliqué à la CNIL qu'il s'agirait de « l’identifiant du compte WhatsApp de l’utilisateur, des informations relatives à l’appareil utilisé et des informations relatives à l’utilisation de l’application » (p. 3 de la décision de la CNIL). Les CGU expliquent vaguement l'objectif du transfert de ces données : « aider [Whatsapp] à exploiter, fournir, améliorer, comprendre, personnaliser, prendre en charge et commercialiser [ses] Services et [ceux de Facebook] ». Enfin, WhatsApp explique à la CNIL que ce transfert serait licite car les utilisateurs y ont consenti en acceptant ces CGU.
D'une part, comme la CNIL l'explique très bien, alors que l'objectif du transfert n'est en rien indispensable à la fourniture du service WhatsApp, « le refus de la personne concernée de donner son consentement à la transmission de ses données s’accompagne nécessairement d’une conséquence négative importante puisqu’elle sera contrainte de supprimer son compte et ne pourra utiliser l’application WhatsApp » (p. 7). La CNIL en conclut logiquement que ce consentement n'est pas libre.
D'autre part, la CNIL souligne que l'utilisateur « consent de façon générale à la politique de confidentialité de la société », sans pouvoir choisir de consentir à certains traitements (ceux liés à la sécurité typiquement) tout en en refusant d'autres (ceux visant à améliorer le service). Les utilisateurs ne pouvant donc consentir de façon spécifique, leur consentement est encore invalide.
La CNIL donne un mois à WhatsApp pour permettre à ses utilisateurs de refuser librement et spécifiquement le transfert de leurs données à Facebook. À défaut, ce transfert devrait tout simplement prendre fin, puisqu'il ne pourrait être autorisé par aucun consentement valide.
Des conséquences considérables
Appliquées à d'autres services que WhatsApp, ces exigences auront des conséquences colossales.
Prenons directement le cas de la société mère de WhatsApp, Facebook, et de son réseau social. Actuellement, les utilisateurs de ce réseau n'ont qu'une seule façon d'échapper au fichage et au ciblage publicitaire qui y a lieu : en supprimant leur compte. En acceptant les CGU de Facebook, au moment de leur inscription, les utilisateurs n'y ont donc pas consenti librement (c'était tout ou rien). Or, puisque Facebook ne peut justifier ce fichage et ce ciblage qu'avec le consentement de ses utilisateurs, et que ce consentement n'est pas valide, ces activités sont illicites. Si Facebook ne veut pas être interdit dans l'Union européenne, il devra permettre à ses utilisateurs de continuer à utiliser son réseau social tout en échappant à cette surveillance.
On peut légitimement se demander comment Facebook pourra continuer à financer l’infrastructure sur laquelle repose ses services et comment, concrètement, il pourra survivre. La conclusion est simple : si Facebook ne trouve aucune source de financement ne reposant pas sur l'exploitation forcée des données personnelles de ses utilisateurs, il devra fermer son réseau social en Europe. Les mêmes conséquences peuvent être dessinées pour Google, Twitter, Amazon... et WhatsApp, comme on l'a vu.
Cette conclusion, aussi impressionnante peut-elle paraître pour certains, est en vérité l'objectif précisément recherché par le G29 et la CNIL dans leurs récentes positions. C'est aussi celui poursuivi par La Quadrature : empêcher la subsistance de modèles économiques fondés sur l'exploitation forcée d'une liberté fondamentale.
Cet objectif ne vise pas à interdire tout traitement de données personnelles (il en existe une myriade d'utiles pour la société, c'est évident), mais à empêcher qu'une industrie ne survive sur leur exploitation économique massive. Les seuls traitements légitimes de données personnelles sont ceux reconnus comme tels collectivement (par la loi) et ceux acceptés de façon désintéressée par les personnes concernées. Cette logique s'oppose en théorie au maintien d'une industrie tirant sa richesse de traitements massifs de données personnelles.
« La Quadrature du Net se réjouit de la décision publiée avant-hier par la CNIL : elle laisse espérer un bouleversement dans l'équilibre d'Internet, qui ne cessait jusqu'ici de se concentrer autour d'acteurs hégémoniques tirant leurs forces de l'exploitation injustifiable des libertés de tous les internautes. Nous espérons que la CNIL sera cohérente avec cette décision et en appliquera la logique contre l'ensemble des services des géants de l'Internet, pour commencer - à défaut de quoi chacune d'entre nous devra l'y pousser, par des plaintes auprès d'elle ou en saisissant les tribunaux », conclut Arthur Messaud, militant à La Quadrature du Net.
Notre traduction de « the GDPR prescribes that if the data subject has no real choice, feels compelled to consent or will endure negative consequences if they do not consent, then consent will not be valid » (p. 6).
L'article 7§4 du RGPD prévoit que, « au moment de déterminer si le consentement est donné librement, il y a lieu de tenir le plus grand compte de la question de savoir, entre autres, si l'exécution d'un contrat, y compris la fourniture d'un service, est subordonnée au consentement au traitement de données à caractère personnel qui n'est pas nécessaire à l'exécution dudit contrat ». Or, cette exigence ne donne pas directement de critère concret pour évaluer la liberté d'un consentement. Le considérant 43 du RGPD précise heureusement ce point : « le consentement est présumé ne pas avoir été donné librement [...] si l'exécution d'un contrat, y compris la prestation d'un service, est subordonnée au consentement malgré que celui-ci ne soit pas nécessaire à une telle exécution ». Les opposants à la liberté du consentement continuaient toutefois de prétendre qu'il fallait limiter le sens de cette précision, soit en la limitant à l'exécution des contrats (alors que de nombreux traitements peuvent se faire hors contrat) soit en soulignant la structure logique imparfaite de ce considérant (en effet, le considérant parle d'un « consentement » non nécessaire à l'exécution d'un contrat alors que, à être rigoureux, il aurait fallu parler du « traitement » non nécessaire à son exécution). Les imprécisions ou imperfections du RGPD ont ici été entièrement corrigées par le G29.
Dans son avis 15/2011 (WP187) du 13 juillet 2011, le G29 était mois précis qu'aujourd'hui, exigeant que le refus de consentir n'implique aucune « conséquence négative significative » (p. 12), alors qu'il exige aujourd'hui que le refus n'implique aucune « conséquence négative » tout court. Cette reformulation est décisive puisque le caractère « significatif » d'un préjudice était parfaitement vague et imprévisible, au point de risquer de priver cette exigence de toute portée.
Notre traduction de « the GDPR ensures that the processing of personal data for which consent is sought cannot become directly or indirectly the counter-performance of a contract » (p. 9).
Notre traduction de : « the data subjects should be free to choose which purpose they accept, rather than having to consent to a bundle of processing purposes » (p. 11).
";s:7:"dateiso";s:15:"20171220_110122";}s:15:"20171218_131300";a:7:{s:5:"title";s:76:"Encore besoin de vous : La Quadrature du Net prolonge sa campagne de soutien";s:4:"link";s:57:"http://www.laquadrature.net/fr/relance_campagne_dons_2017";s:4:"guid";s:36:"10383 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 18 Dec 2017 12:13:00 +0000";s:11:"description";s:5762:"
Paris, le 18 décembre 2017 - La Quadrature du Net a décidé de prolonger sa campagne annuelle de soutien lancée le 14 novembre dernier. En effet, l'objectif des 320 000 euros qui lui sont nécessaires pour fonctionner en 2018 est loin d'être atteint, puisque seuls 50% sont assurés à ce jour. Pour qu'elle vous aide à défendre vos droits dans le monde numérique, soutenez La Quadrature du Net : donnez, partagez, faites tourner !
Comme tous les ans, et comme beaucoup d'associations qui tentent de rester indépendantes, La Quadrature du Net a lancé il y a un mois sa campagne de dons individuels pour recueillir le montant qui lui permettra de continuer à défendre nos droits et nos libertés à l'ère du numérique. Et sur le sujet 2018 s'annonce plein de défis intéressants.
Entre les attaques régulières sur la neutralité du Net, notamment aux USA et les nombreuses remises en cause du chiffrement, nous devons rester vigilant-es et s'assurer qu'Internet reste l'outil fondamental d'émancipation et d'accès à l'information qu'il est encore.
Au niveau européen, nous allons poursuivre avec la fédération FDN et d'autres réseaux associatifs européens le travail de suivi entamé sur le Paquet télécom et notamment le code européen des communications électroniques. Face à la pression des États et des lobbies de télécommunications nous défendrons les contre-pouvoirs que sont les modèles alternatifs, décentralisés et démocratiques.
La Quadrature continuera aussi à se faire le relais de nos vives inquiétudes concernant le futur règlement ePrivacy sur la confidentialité des communications, afin de pousser les parlementaires européens et le gouvernement français à protéger ce principe fondamental, qui fait obstacle aux volontés hégémoniques des géants du numérique.
En parallèle à ce « front de défense » sur le règlement ePrivacy, le règlement général sur la protection des données, adopté l'an dernier par l'Union européenne, offrira dès mai prochain (moment de son entrée en vigueur) de nouvelles et entousiasmantes opportunités d'ouvrir un « front d'attaque » contre les géant du Net. La Quadrature affutera ses nouvelles armes pour que nous puissons construire un Internet libre, conforme à nos valeurs de respect de la vie privée, de libre participation au débat public et d'émancipation vis-à-vis des « algorithmes » qui visent à déshumaniser nos rapports sociaux.
En France, la surveillance illégitime de la population poursuit son chemin, que ce soit par les futurs textes sécuritaires promis par le gouvernement ou bien par le refus de ce dernier, depuis maintenant presque un an, d'abroger les règles contraires au droit de l'Union européenne en matière de conservation des données de connexion de l'ensemble de la population. Encore un point où La Quadrature ne se contentera pas de rester sur la défensive, mais a déjà entrepris de ralier le plus grand nombre possible d'acteurs du Net à son refus de collaborer de façon illicite à une surveillance de masse injustifiable.
En plus de ces combats, La Quadrature du Net va aussi s'attacher à la sécurisation juridique des alternatives libres et décentralisées qui existent, ainsi que se pencher sur divers points liés à son fonctionnement :
la question de ses outils et des outils qu'elle met à disposition du public : des outils pour faire quoi ? pour faire comment ? avec quels objectifs ? Ainsi, de nouvelles versions du site web et de la revue de presse sont au programme, le tout dans une réflexion plus générale sur nos outils et leur utilisation ;
la question de ses modes d'action : nous avons commencé en 2017 à imaginer de nouveaux modes d'action et d'interpellation, et notre objectif en 2018 est de mettre en oeuvre ce que nous avons imaginé (campagnes d'affichages, happenings...), avec l'aide de toutes celles et tous ceux qui voudront nous rejoindre ;
les défis sont aussi organisationnels, avec l'ouverture à un premier cercle de membres, avec lesquels il s'agira de construire La Quadrature du futur, en lien avec tous les bénévoles, contributeurs, donateurs qui souhaiteront nous aider à relever ce défi !
2018 sera donc une année charnière pour La Quadrature du Net, et pour cela nous avons besoin de sécuriser un budget qui nous permette de fonctionner sans trop de difficultés. Nous avons pour le moment réussi à réunir un peu plus de 50% de notre objectif, c'est pourquoi nous prolongeons notre campagne et nous vous demandons, à vous qui soutenez nos actions, de faire circuler cet appel et de convaincre autour de vous de la nécessité du travail effectué par La Quadrature.
Pour contribuer à la défense et au renforcement de nos droits et libertés, appelez à faire un don sur soutien.laquadrature.net (et si possible appelez à des dons récurrents, ce sont ceux qui nous donnent une meilleure visibilité sur notre budget et nous permettent vraiment de nous projeter sur l'année).
Merci <3
";s:7:"content";s:5762:"
Paris, le 18 décembre 2017 - La Quadrature du Net a décidé de prolonger sa campagne annuelle de soutien lancée le 14 novembre dernier. En effet, l'objectif des 320 000 euros qui lui sont nécessaires pour fonctionner en 2018 est loin d'être atteint, puisque seuls 50% sont assurés à ce jour. Pour qu'elle vous aide à défendre vos droits dans le monde numérique, soutenez La Quadrature du Net : donnez, partagez, faites tourner !
Comme tous les ans, et comme beaucoup d'associations qui tentent de rester indépendantes, La Quadrature du Net a lancé il y a un mois sa campagne de dons individuels pour recueillir le montant qui lui permettra de continuer à défendre nos droits et nos libertés à l'ère du numérique. Et sur le sujet 2018 s'annonce plein de défis intéressants.
Entre les attaques régulières sur la neutralité du Net, notamment aux USA et les nombreuses remises en cause du chiffrement, nous devons rester vigilant-es et s'assurer qu'Internet reste l'outil fondamental d'émancipation et d'accès à l'information qu'il est encore.
Au niveau européen, nous allons poursuivre avec la fédération FDN et d'autres réseaux associatifs européens le travail de suivi entamé sur le Paquet télécom et notamment le code européen des communications électroniques. Face à la pression des États et des lobbies de télécommunications nous défendrons les contre-pouvoirs que sont les modèles alternatifs, décentralisés et démocratiques.
La Quadrature continuera aussi à se faire le relais de nos vives inquiétudes concernant le futur règlement ePrivacy sur la confidentialité des communications, afin de pousser les parlementaires européens et le gouvernement français à protéger ce principe fondamental, qui fait obstacle aux volontés hégémoniques des géants du numérique.
En parallèle à ce « front de défense » sur le règlement ePrivacy, le règlement général sur la protection des données, adopté l'an dernier par l'Union européenne, offrira dès mai prochain (moment de son entrée en vigueur) de nouvelles et entousiasmantes opportunités d'ouvrir un « front d'attaque » contre les géant du Net. La Quadrature affutera ses nouvelles armes pour que nous puissons construire un Internet libre, conforme à nos valeurs de respect de la vie privée, de libre participation au débat public et d'émancipation vis-à-vis des « algorithmes » qui visent à déshumaniser nos rapports sociaux.
En France, la surveillance illégitime de la population poursuit son chemin, que ce soit par les futurs textes sécuritaires promis par le gouvernement ou bien par le refus de ce dernier, depuis maintenant presque un an, d'abroger les règles contraires au droit de l'Union européenne en matière de conservation des données de connexion de l'ensemble de la population. Encore un point où La Quadrature ne se contentera pas de rester sur la défensive, mais a déjà entrepris de ralier le plus grand nombre possible d'acteurs du Net à son refus de collaborer de façon illicite à une surveillance de masse injustifiable.
En plus de ces combats, La Quadrature du Net va aussi s'attacher à la sécurisation juridique des alternatives libres et décentralisées qui existent, ainsi que se pencher sur divers points liés à son fonctionnement :
la question de ses outils et des outils qu'elle met à disposition du public : des outils pour faire quoi ? pour faire comment ? avec quels objectifs ? Ainsi, de nouvelles versions du site web et de la revue de presse sont au programme, le tout dans une réflexion plus générale sur nos outils et leur utilisation ;
la question de ses modes d'action : nous avons commencé en 2017 à imaginer de nouveaux modes d'action et d'interpellation, et notre objectif en 2018 est de mettre en oeuvre ce que nous avons imaginé (campagnes d'affichages, happenings...), avec l'aide de toutes celles et tous ceux qui voudront nous rejoindre ;
les défis sont aussi organisationnels, avec l'ouverture à un premier cercle de membres, avec lesquels il s'agira de construire La Quadrature du futur, en lien avec tous les bénévoles, contributeurs, donateurs qui souhaiteront nous aider à relever ce défi !
2018 sera donc une année charnière pour La Quadrature du Net, et pour cela nous avons besoin de sécuriser un budget qui nous permette de fonctionner sans trop de difficultés. Nous avons pour le moment réussi à réunir un peu plus de 50% de notre objectif, c'est pourquoi nous prolongeons notre campagne et nous vous demandons, à vous qui soutenez nos actions, de faire circuler cet appel et de convaincre autour de vous de la nécessité du travail effectué par La Quadrature.
Pour contribuer à la défense et au renforcement de nos droits et libertés, appelez à faire un don sur soutien.laquadrature.net (et si possible appelez à des dons récurrents, ce sont ceux qui nous donnent une meilleure visibilité sur notre budget et nous permettent vraiment de nous projeter sur l'année).
Merci <3
";s:7:"dateiso";s:15:"20171218_131300";}s:15:"20171215_101742";a:7:{s:5:"title";s:45:"Les compteurs, intelligents ou débilitants ?";s:4:"link";s:68:"http://www.laquadrature.net/fr/compteurs-intelligents-ou-debilitants";s:4:"guid";s:36:"10381 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 15 Dec 2017 09:17:42 +0000";s:11:"description";s:5024:"
Paris, le 15 décembre 2017 - Nous publions ici sous forme de tribune, un extrait de l'intervention de Philippe Aigrain, membre fondateur de La Quadrature du Net, lors d'une table ronde à l'Assemblée nationale le 14 décembre 2017 sur le thème des compteurs intelligents. La vidéo de cette table ronde organisée par la commission des affaires économiques et l’Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) est disponible sur le site de l'Assemblée nationale.
Depuis quarante ans que je participe aux débats sur les enjeux sociétaux des techniques, une situation m’est devenue familière. Des personnes ou plus souvent des organisations développent une solution technique pour tenter d’optimiser un certain paramètre (par exemple le lissage des pointes de consommation d’électricité, mais ce n’est qu’un exemple parmi des dizaines). Pour obtenir les fonds nécessaires au déploiement de cette solution, ils en font miroiter aux décideurs internes ou politiques d’autres avantages (par exemple l’exploitation possible des données présentées comme l’or noir du 21e siècle). Ils tentent autant que possible de contrôler le contexte de déploiement de cette solution par des mécanismes de propriété, législatifs ou par le choix d’architectures techniques. Apparaissent des oppositions de la part de personnes qui s’estiment impactées par ces systèmes déployés sans eux ou en ne les consultant que sur des options secondaires. Ces opposants invoquent des raisons multiples de rejet, dont la nature et la multiplicité paraissent aux yeux des promoteurs de ces systèmes résulter d’une volonté caractérisée d’empêcher le progrès. Pour décrédibiliser les oppositions, les promoteurs se saisissent des critiques avancées qui leur paraissent les plus aisées à réfuter ou à confiner, souvent celles portant sur les risques pour la santé (par exemple les effets des champs électromagnétiques créés par des communications par courant porteur de ligne).
Loin de disparaître, les oppositions se renforcent et retrouvent ou commencent à cerner des motifs plus essentiels, ceux qui relèvent des rapports de pouvoir, de la dépossession des instruments utilisés pour des enjeux de la vie quotidienne et de la violence de l’intrusion dans la sphère intime. Voilà exactement où nous en sommes en ce qui concerne le déploiement des compteurs qu’on a nommé intelligents pour mieux masquer la dépossession qu’ils infligent aux usagers traités en objets de contrôle et d’une surveillance pudiquement appelée analyse des comportements ou production des données. Il ne faut donc pas s’étonner que les compteurs jugés intelligents par leurs concepteurs soient considérés par ceux qui ne les ont pas choisis comme des compteurs débilitants.
Si vous voulez sauver les compteurs de nouvelle génération, ou tout au moins ne pas avoir à les installer de force, il faudra donc accepter de rouvrir le débat sur les relations de pouvoir et les capacités qu’ils donnent respectivement aux distributeurs et producteurs d’énergie et aux usagers et citoyens. Ce n’est pas qu’un problème de données personnelles. Dans ce domaine comme tant d’autres, les personnes acceptent de fournir des données bien plus intimes, par exemple sur l’alimentation et la santé, pour des études, à condition d’être associées à la définition de leurs buts et à leur mise en œuvre et que des garanties d’indépendance à l’égard des grands intérêts économiques existent, ce qui est hélas rarement le cas.
La réouverture de ces débats sur les pouvoirs d’agir de chacun, loin d’être une perte de temps, est la seule chance d’en gagner, même si cela passe par la mise à la poubelle d’une génération de Linkys et Gazpars. Attention, il ne s’agit pas que de calmer des peurs jugées irrationnelles par les techniciens. Il s’agit de prendre en compte qu’il y a un enjeu démocratique essentiel, une condition d’exercice des droits fondamentaux lorsqu’on déploie des dispositifs informatisés dans la sphère intime, celle du foyer ou celle des comportements quotidiens. Il s’agit de prendre conscience que le fait qu’un compteur appartienne au distributeur et soit sous son contrôle - qui était presque universellement accepté lorsqu’il s’agissait d’un dispositif « bête » - devient intolérable lorsqu’il incorpore une « intelligence » (des algorithmes aussi élémentaires soient-ils) conçue par d’autres dont on ne partage pas nécessairement les buts. La technique est une composante essentielle de la vie humaine, mais elle ne remplace pas la démocratie.
";s:7:"content";s:5024:"
Paris, le 15 décembre 2017 - Nous publions ici sous forme de tribune, un extrait de l'intervention de Philippe Aigrain, membre fondateur de La Quadrature du Net, lors d'une table ronde à l'Assemblée nationale le 14 décembre 2017 sur le thème des compteurs intelligents. La vidéo de cette table ronde organisée par la commission des affaires économiques et l’Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) est disponible sur le site de l'Assemblée nationale.
Depuis quarante ans que je participe aux débats sur les enjeux sociétaux des techniques, une situation m’est devenue familière. Des personnes ou plus souvent des organisations développent une solution technique pour tenter d’optimiser un certain paramètre (par exemple le lissage des pointes de consommation d’électricité, mais ce n’est qu’un exemple parmi des dizaines). Pour obtenir les fonds nécessaires au déploiement de cette solution, ils en font miroiter aux décideurs internes ou politiques d’autres avantages (par exemple l’exploitation possible des données présentées comme l’or noir du 21e siècle). Ils tentent autant que possible de contrôler le contexte de déploiement de cette solution par des mécanismes de propriété, législatifs ou par le choix d’architectures techniques. Apparaissent des oppositions de la part de personnes qui s’estiment impactées par ces systèmes déployés sans eux ou en ne les consultant que sur des options secondaires. Ces opposants invoquent des raisons multiples de rejet, dont la nature et la multiplicité paraissent aux yeux des promoteurs de ces systèmes résulter d’une volonté caractérisée d’empêcher le progrès. Pour décrédibiliser les oppositions, les promoteurs se saisissent des critiques avancées qui leur paraissent les plus aisées à réfuter ou à confiner, souvent celles portant sur les risques pour la santé (par exemple les effets des champs électromagnétiques créés par des communications par courant porteur de ligne).
Loin de disparaître, les oppositions se renforcent et retrouvent ou commencent à cerner des motifs plus essentiels, ceux qui relèvent des rapports de pouvoir, de la dépossession des instruments utilisés pour des enjeux de la vie quotidienne et de la violence de l’intrusion dans la sphère intime. Voilà exactement où nous en sommes en ce qui concerne le déploiement des compteurs qu’on a nommé intelligents pour mieux masquer la dépossession qu’ils infligent aux usagers traités en objets de contrôle et d’une surveillance pudiquement appelée analyse des comportements ou production des données. Il ne faut donc pas s’étonner que les compteurs jugés intelligents par leurs concepteurs soient considérés par ceux qui ne les ont pas choisis comme des compteurs débilitants.
Si vous voulez sauver les compteurs de nouvelle génération, ou tout au moins ne pas avoir à les installer de force, il faudra donc accepter de rouvrir le débat sur les relations de pouvoir et les capacités qu’ils donnent respectivement aux distributeurs et producteurs d’énergie et aux usagers et citoyens. Ce n’est pas qu’un problème de données personnelles. Dans ce domaine comme tant d’autres, les personnes acceptent de fournir des données bien plus intimes, par exemple sur l’alimentation et la santé, pour des études, à condition d’être associées à la définition de leurs buts et à leur mise en œuvre et que des garanties d’indépendance à l’égard des grands intérêts économiques existent, ce qui est hélas rarement le cas.
La réouverture de ces débats sur les pouvoirs d’agir de chacun, loin d’être une perte de temps, est la seule chance d’en gagner, même si cela passe par la mise à la poubelle d’une génération de Linkys et Gazpars. Attention, il ne s’agit pas que de calmer des peurs jugées irrationnelles par les techniciens. Il s’agit de prendre en compte qu’il y a un enjeu démocratique essentiel, une condition d’exercice des droits fondamentaux lorsqu’on déploie des dispositifs informatisés dans la sphère intime, celle du foyer ou celle des comportements quotidiens. Il s’agit de prendre conscience que le fait qu’un compteur appartienne au distributeur et soit sous son contrôle - qui était presque universellement accepté lorsqu’il s’agissait d’un dispositif « bête » - devient intolérable lorsqu’il incorpore une « intelligence » (des algorithmes aussi élémentaires soient-ils) conçue par d’autres dont on ne partage pas nécessairement les buts. La technique est une composante essentielle de la vie humaine, mais elle ne remplace pas la démocratie.
";s:7:"dateiso";s:15:"20171215_101742";}s:15:"20171212_140449";a:7:{s:5:"title";s:44:"États-Unis : fin de la neutralité du Net ?";s:4:"link";s:47:"http://www.laquadrature.net/fr/fcc_fin_net_neut";s:4:"guid";s:36:"10371 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 12 Dec 2017 13:04:49 +0000";s:11:"description";s:3264:"
Paris, 12 décembre 2017 — Le 14 décembre, la Federal Communication Commission (FCC, l'autorité américaine de régulation des télécoms) s'apprête à imposer de nouvelles règles qui vont briser la neutralité du Net, le principe selon lequel tout trafic Internet doit être traité de manière égale, sans discrimination.
En 2015, sous le gouvernement Obama, la FCC avait obtenu de nouvelles règles lui permettant d'interdire aux fournisseurs d'accès Internet (FAI) d’entraver l’accès des utilisateurs aux contenus. Fin novembre dernier, le nouveau président de la FCC, Ajit Pai, annonçait souhaiter annuler ces règles pour revenir au cadre réglementaire antérieur à 2015, soumettant la régulation du FAI aux règles générales du droit de la consommation et de la concurrence, parfaitement inadaptées et éliminant dans les faits toute protection.
Ces changements suivent la pression mise sur la FCC et le Congrès par les principaux FAI des États-Unis (AT&T, Verizon, Comcast) pour obtenir l'autorisation de ralentir l'accès à certains sites. Les sites en question seraient ainsi obligés de payer les FAI pour que leurs utilisateurs puissent y accéder facilement, sans ralentissement. Ces FAI doivent être stoppés dans leur tentative de vouloir décider quel contenu est accessible à quel utilisateur et à quel prix. Par conséquent, il est indispensable que le régulateur américain garantisse la neutralité du Net et que les FAI demeurent de simples transmetteurs d'informations afin que tous les utilisateurs, quelles que soient leurs ressources, puissent accéder au même réseau, que ce soit pour consulter ou diffuser les informations et services de leur choix.
Une initiative de Fight for the future a été mise en place. Pour montrer à la FCC qu'on ne peut pas porter atteinte à la neutralité du Net, Break The Internet propose de « casser l'Internet » en affichant un message simulant la réduction d'accès ou de débit que provoquerait l'adoption de ces mesures. Le message incite les états-uniens à appeler les membres du Congrès pour défendre la neutralité du Net.
La Quadrature du Net soutient cette initiative. Si vous souhaitez également agir en ce sens, Battle for the net détaille les actions possibles et chacune est libre d'en inventer d'autres.
Paris, 12 décembre 2017 — Le 14 décembre, la Federal Communication Commission (FCC, l'autorité américaine de régulation des télécoms) s'apprête à imposer de nouvelles règles qui vont briser la neutralité du Net, le principe selon lequel tout trafic Internet doit être traité de manière égale, sans discrimination.
En 2015, sous le gouvernement Obama, la FCC avait obtenu de nouvelles règles lui permettant d'interdire aux fournisseurs d'accès Internet (FAI) d’entraver l’accès des utilisateurs aux contenus. Fin novembre dernier, le nouveau président de la FCC, Ajit Pai, annonçait souhaiter annuler ces règles pour revenir au cadre réglementaire antérieur à 2015, soumettant la régulation du FAI aux règles générales du droit de la consommation et de la concurrence, parfaitement inadaptées et éliminant dans les faits toute protection.
Ces changements suivent la pression mise sur la FCC et le Congrès par les principaux FAI des États-Unis (AT&T, Verizon, Comcast) pour obtenir l'autorisation de ralentir l'accès à certains sites. Les sites en question seraient ainsi obligés de payer les FAI pour que leurs utilisateurs puissent y accéder facilement, sans ralentissement. Ces FAI doivent être stoppés dans leur tentative de vouloir décider quel contenu est accessible à quel utilisateur et à quel prix. Par conséquent, il est indispensable que le régulateur américain garantisse la neutralité du Net et que les FAI demeurent de simples transmetteurs d'informations afin que tous les utilisateurs, quelles que soient leurs ressources, puissent accéder au même réseau, que ce soit pour consulter ou diffuser les informations et services de leur choix.
Une initiative de Fight for the future a été mise en place. Pour montrer à la FCC qu'on ne peut pas porter atteinte à la neutralité du Net, Break The Internet propose de « casser l'Internet » en affichant un message simulant la réduction d'accès ou de débit que provoquerait l'adoption de ces mesures. Le message incite les états-uniens à appeler les membres du Congrès pour défendre la neutralité du Net.
La Quadrature du Net soutient cette initiative. Si vous souhaitez également agir en ce sens, Battle for the net détaille les actions possibles et chacune est libre d'en inventer d'autres.
";s:7:"dateiso";s:15:"20171212_140449";}s:15:"20171206_092036";a:7:{s:5:"title";s:63:"Mahjoubi et Villani doivent prendre position sur le chiffrement";s:4:"link";s:59:"http://www.laquadrature.net/fr/Mahjoubi-Villani-Chiffrement";s:4:"guid";s:36:"10368 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 06 Dec 2017 08:20:36 +0000";s:11:"description";s:19958:"
Paris, le 6 décembre 2017 -- En cette fin d'année 2017, les attaques contre le chiffrement se font plus agressives et proviennent de tous les côtés. D'une part, les États font de la surenchère pour l'empêcher ou le contourner. D'autre part, les opérateurs tentent avec des arguments fallacieux de limiter le chiffrement au niveau des standards d'Internet, en passant via l'Internet Engineering Task Force (IETF). La Quadrature du Net dénonce ces attaques et appelle MM. Mahjoubi, secrétaire d'État au Numérique, et Villani, député et chercheur spécialiste du chiffrement, à prendre leurs responsabilités politiques.
Les attaques des États
La semaine dernière, le ministre de l'Intérieur allemand a annoncé vouloir des « portes dérobées » (ou backdoors) dans tous les appareils numériques afin d'accéder aux données. Cette position radicale est contraire à toute expertise un peu sérieuse de sécurité informatique1 et aux récentes positions parfaitement explicites du Parlement européen2. Toutefois, à défaut d'être sensé, le gouvernement allemand a le mérite de l'honnêteté.
Mme May et M. Macron, déclaration commune du 13 juin 2017
Le jeu a longtemps été plus trouble en France. M. Macron avait bien déjà dénoncé lors de la campagne présidentielle les « messageries instantanées fortement cryptées » qui permettent selon lui d'échapper aux services de sécurité. Mais il se gardait bien de préciser son intention. Son futur secrétaire d'État au numérique, Mounir Mahjoubi (qui s'était résolument engagé en faveur d'un chiffrement fort lorsqu'il présidait encore le CNNum) s'était alors empressé de tenter de rassurer experts et citoyens, sans grand succès - l'absurdité des propos de M. Macron lui laissant peu de marge de manœuvre. Le Président semble n'avoir d'ailleurs pas retenu la leçon puisque, à peine élu, lors d'une déclaration commune avec Theresa May en juin, il annonçait encore vouloir « améliorer les moyens d’accès aux contenus cryptés, dans des conditions qui préservent la confidentialité des correspondances, afin que ces messageries ne puissent pas être l’outil des terroristes ou des criminels », sans être plus précis.
La position du gouvernement français s'est récemment révélée. Comme nous l'expliquions le mois dernier, le Parlement européen vient d'introduire une nouvelle obligation dans le règlement ePrivacy : tout prestataire de communications doit, quand il le peut, protéger les messages qu'il achemine par un chiffrement de bout en bout3.
Pour les convaincre de ne pas adopter cette obligation, le gouvernement français avait envoyé aux eurodéputés français une lettre, que nous publions ici. Il s'oppose frontalement au chiffrement de bout en bout4, exigeant que les prestataires de services puissent avoir accès au contenu des communications (et, par eux, que la police et les services français y aient aussi accès).
Bref, pour réaliser la surveillance de masse (le chiffrement de bout en bout n'empêchant en rien la surveillance ciblée), M. Macron veut mettre les entreprises dans une situation technique où elles pourront surveiller et réguler nos communications.
Les attaques de l'industrie numérique
Le 10 octobre dernier, Kathleen Moriarty, de Dell, et Al Morton, de AT&T5, ont proposé une Request for Comments (RFC). Les RFC décrivent les aspects techniques d'Internet pour parfois devenir des standards. Cette RFC s'attaque au « chiffrement omniprésent » qui poserait problème aux opérateurs pour acheminer correctement le trafic. Avec des arguments fallacieux, les opérateurs font activement leur lobbying et tentent d'obtenir la possibilité de mettre fin à la neutralité du Net et au chiffrement. Une pierre deux coups contre nos libertés.
Les arguments avancés sont extrêmement mauvais. Ils varient de flous à fallacieux, quant ils ne sont pas carrément techniquement faux. Les opérateurs visent le chiffrement, pour leur permettre d'une part la remise en cause de la neutralité du Net (pour faire payer plus les utilisateurs et fournisseurs de services), et d'autre part pour avoir accès aux communications et pouvoir y injecter des informations (l'exemple cité dans la RFC est celui de certains opérateurs mobiles qui transmettent l'identité de l'abonné au site visité). Les attaques contre la neutralité du Net, très virulentes aux États-Unis depuis l'élection de Donald Trump, arrivent ainsi sournoisement à l'IETF, instance informelle mais internationale. Le chiffrement, outil de confidentialité, gêne donc les opérateurs qui peuvent moins facilement manipuler le réseau à leur guise, y compris pour porter atteinte de manière directe à la confidentialité des échanges, ou pour contourner la neutralité du Net.
Le texte de ce projet de RFC est écrit de manière particulièrement pernicieuse. Il décrit certaines pratiques des gros opérateurs, supposant que parce qu'elles existent elles sont légitimes. On introduit ici un premier biais : nombre de ces pratiques sont brutalement contraires au droit européen sur la neutralité du Net ou sur la vie privée. Plus insidieusement, le texte implique que ces pratiques sont inévitables et pour tout dire souhaitables, avec des arguments parfois très étranges.
Ainsi, les industriels qui sont à la manœuvre font croire que le chiffrement des communications empêche la gestion du réseau. C'est bien évidemment faux. Les en-têtes techniques (IP, TCP - qui permettent l'acheminement et la gestion des communications) ne sont jamais chiffrés, seul le contenu l'est. Par exemple dans une communication HTTPS (connection à un site de façon sécurisée), tout le contenu est chiffré, y compris les informations techniques sur la requête (cookies, mots de passe, informations sur la navigateur, etc). L'opérateur qui transporte le flux d'information n'a pas à savoir ce qui circule, c'est précisément l'objet de la neutralité du Net. La seule opération de gestion du réseau qui devient alors impossible est celle qui consiste à traiter différement la communication en fonction de son contenu. Précisément l'opération interdite par les textes européens. Ces industriels nous disent donc « Nous sommes hors la loi [en tout cas en Europe], considérons que c'est souhaitable, et voulons continuer à l'être ».
Même type de mensonges sur le Deep Packet Inspection (DPI)6. Le texte nous explique que le DPI est utilisé par le support technique pour aider à résoudre les pannes des utilisateurs finals. La vaste blague.
Cette attaque contre le chiffrement est une attaque déguisée contre la neutralité du Net et contre le respect de la vie privée et du secret des communications électroniques. Dans une sorte d'alliance de fait avec des États qui seraient ravis de voir cette brêche technique être imposée et assumée par d'autres.
Appel à MM. Mahjoubi et Villani
Mounir Mahjoubi
Cédric Villani
MM. Mahjoubi et Villani ont, par le passé, avant d'être aux affaires, chacun pris des positions utiles et puissantes sur le chiffrement. L'un en tant que président de Conseil national du numérique, s'opposant aux envolées autoritaires et insensées de l'ancien gouvernement. L'autre en tant que mathématicien, s'interrogeant de longue date sur la place politique des mathématiques et ayant d'ailleurs spécifiquement dédié un de ses ouvrages de vulgarisation7 à la question du chiffrement.
Nous les appelons donc vivement, comme membre du gouvernement pour l'un et représentant de la Nation pour l'autre, à prendre publiquement position sur le chiffrement de bout en bout face aux positions de l'administration française ainsi que sur ce projet de RFC. Puisse la raison dont ils ont fait preuve par le passé s'exprimer de nouveau pour ramener un peu de sens à un débat que l'irresponsabilité et le mensonge semblent aujourd'hui dominer.
2. Dans sa version du règlement ePrivacy du 19 octobre dernier, le Parlement européen interdit explicitement les backdoors (voir considérant 26 bis).
3. Le chiffrement dit « de bout en bout » est une mesure de sécurité garantissant techniquement que seuls les destinataires choisis par l'expéditeur puissent avoir accès au contenu d'une communication. Il se distingue du chiffrement dit « de point à point » qui ne protège le message qu'entre les différents intermédiaires qui l'acheminent de l'expéditeur aux destinataires, ce qui permet à ces intermédiaires d'avoir accès au contenu. Le parlement européen, à l'article 17 de sa version du règlement ePrivacy, fait clairement cette distinction en exigeant que : « Les fournisseurs de services de communications électroniques se conforment aux obligations en matière de sécurité prévues par le règlement (UE) 2016/679 et la [directive du Parlement européen et du Conseil établissant le code des communications électroniques européen]. Les fournisseurs de services de communications électroniques assurent une protection satisfaisante contre l’accès non autorisé aux données de communications électroniques ou l’altération de celles-ci, et veillent à ce que la confidentialité et l’intégrité de la communication soient garanties par des mesures techniques de pointe, notamment des méthodes cryptographiques telles que le chiffrement de bout en bout. »
4. L'argumentation de l'administration française, pages 3 et 4, est particulièrement insidieuse : elle se contente de déplorer qu'un type particulier d'attaque qu'elle est susceptible d'utiliser (celle de l'« homme du milieu ») serait empêché par le chiffrement de bout en bout et s'empresse dès lors de conclure, sans argumenter, qu'aucun type d'attaque (on pourrait citer le piratage du terminal, l'infiltration humaine dans un réseau, la pose de caméra, etc.) ne pourrait être mis en œuvre... ce qui est évidemment faux. Plus généralement, l'administration française feint de croire que l'interdiction de surveiller les communications, prévue par le règlement, s'appliquerait aux États et non aux seules entreprises, ce qu'une simple lecture de l'article 2 du règlement suffit à révéler comme étant particulièrement fallacieux : les États membres ne sont contraints par le règlement qu'à partir du moment où ils souhaitent soustraire les entreprises aux obligations que ce texte impose à celles-ci ; le règlement ne contraint pas les États quant aux « activités menées par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, y compris la protection contre des menaces pour la sécurité publique et la prévention de telles menaces. ».
5.AT&T est le premier fournisseur d'accès à internet américain et Dell est le troisième constructeur d'ordinateurs au monde.
6. Analyse en profondeur du contenu des communications.
7. Codage et cryptographie - Mathématiciens, espions et pirates informatiques, de Joan Gomez et Cédric Villani, 2013, Le monde des mathématiques (un extrait est disponible sur le site du CNRS).
Paris, le 6 décembre 2017 -- En cette fin d'année 2017, les attaques contre le chiffrement se font plus agressives et proviennent de tous les côtés. D'une part, les États font de la surenchère pour l'empêcher ou le contourner. D'autre part, les opérateurs tentent avec des arguments fallacieux de limiter le chiffrement au niveau des standards d'Internet, en passant via l'Internet Engineering Task Force (IETF). La Quadrature du Net dénonce ces attaques et appelle MM. Mahjoubi, secrétaire d'État au Numérique, et Villani, député et chercheur spécialiste du chiffrement, à prendre leurs responsabilités politiques.
Les attaques des États
La semaine dernière, le ministre de l'Intérieur allemand a annoncé vouloir des « portes dérobées » (ou backdoors) dans tous les appareils numériques afin d'accéder aux données. Cette position radicale est contraire à toute expertise un peu sérieuse de sécurité informatique1 et aux récentes positions parfaitement explicites du Parlement européen2. Toutefois, à défaut d'être sensé, le gouvernement allemand a le mérite de l'honnêteté.
Mme May et M. Macron, déclaration commune du 13 juin 2017
Le jeu a longtemps été plus trouble en France. M. Macron avait bien déjà dénoncé lors de la campagne présidentielle les « messageries instantanées fortement cryptées » qui permettent selon lui d'échapper aux services de sécurité. Mais il se gardait bien de préciser son intention. Son futur secrétaire d'État au numérique, Mounir Mahjoubi (qui s'était résolument engagé en faveur d'un chiffrement fort lorsqu'il présidait encore le CNNum) s'était alors empressé de tenter de rassurer experts et citoyens, sans grand succès - l'absurdité des propos de M. Macron lui laissant peu de marge de manœuvre. Le Président semble n'avoir d'ailleurs pas retenu la leçon puisque, à peine élu, lors d'une déclaration commune avec Theresa May en juin, il annonçait encore vouloir « améliorer les moyens d’accès aux contenus cryptés, dans des conditions qui préservent la confidentialité des correspondances, afin que ces messageries ne puissent pas être l’outil des terroristes ou des criminels », sans être plus précis.
La position du gouvernement français s'est récemment révélée. Comme nous l'expliquions le mois dernier, le Parlement européen vient d'introduire une nouvelle obligation dans le règlement ePrivacy : tout prestataire de communications doit, quand il le peut, protéger les messages qu'il achemine par un chiffrement de bout en bout3.
Pour les convaincre de ne pas adopter cette obligation, le gouvernement français avait envoyé aux eurodéputés français une lettre, que nous publions ici. Il s'oppose frontalement au chiffrement de bout en bout4, exigeant que les prestataires de services puissent avoir accès au contenu des communications (et, par eux, que la police et les services français y aient aussi accès).
Bref, pour réaliser la surveillance de masse (le chiffrement de bout en bout n'empêchant en rien la surveillance ciblée), M. Macron veut mettre les entreprises dans une situation technique où elles pourront surveiller et réguler nos communications.
Les attaques de l'industrie numérique
Le 10 octobre dernier, Kathleen Moriarty, de Dell, et Al Morton, de AT&T5, ont proposé une Request for Comments (RFC). Les RFC décrivent les aspects techniques d'Internet pour parfois devenir des standards. Cette RFC s'attaque au « chiffrement omniprésent » qui poserait problème aux opérateurs pour acheminer correctement le trafic. Avec des arguments fallacieux, les opérateurs font activement leur lobbying et tentent d'obtenir la possibilité de mettre fin à la neutralité du Net et au chiffrement. Une pierre deux coups contre nos libertés.
Les arguments avancés sont extrêmement mauvais. Ils varient de flous à fallacieux, quant ils ne sont pas carrément techniquement faux. Les opérateurs visent le chiffrement, pour leur permettre d'une part la remise en cause de la neutralité du Net (pour faire payer plus les utilisateurs et fournisseurs de services), et d'autre part pour avoir accès aux communications et pouvoir y injecter des informations (l'exemple cité dans la RFC est celui de certains opérateurs mobiles qui transmettent l'identité de l'abonné au site visité). Les attaques contre la neutralité du Net, très virulentes aux États-Unis depuis l'élection de Donald Trump, arrivent ainsi sournoisement à l'IETF, instance informelle mais internationale. Le chiffrement, outil de confidentialité, gêne donc les opérateurs qui peuvent moins facilement manipuler le réseau à leur guise, y compris pour porter atteinte de manière directe à la confidentialité des échanges, ou pour contourner la neutralité du Net.
Le texte de ce projet de RFC est écrit de manière particulièrement pernicieuse. Il décrit certaines pratiques des gros opérateurs, supposant que parce qu'elles existent elles sont légitimes. On introduit ici un premier biais : nombre de ces pratiques sont brutalement contraires au droit européen sur la neutralité du Net ou sur la vie privée. Plus insidieusement, le texte implique que ces pratiques sont inévitables et pour tout dire souhaitables, avec des arguments parfois très étranges.
Ainsi, les industriels qui sont à la manœuvre font croire que le chiffrement des communications empêche la gestion du réseau. C'est bien évidemment faux. Les en-têtes techniques (IP, TCP - qui permettent l'acheminement et la gestion des communications) ne sont jamais chiffrés, seul le contenu l'est. Par exemple dans une communication HTTPS (connection à un site de façon sécurisée), tout le contenu est chiffré, y compris les informations techniques sur la requête (cookies, mots de passe, informations sur la navigateur, etc). L'opérateur qui transporte le flux d'information n'a pas à savoir ce qui circule, c'est précisément l'objet de la neutralité du Net. La seule opération de gestion du réseau qui devient alors impossible est celle qui consiste à traiter différement la communication en fonction de son contenu. Précisément l'opération interdite par les textes européens. Ces industriels nous disent donc « Nous sommes hors la loi [en tout cas en Europe], considérons que c'est souhaitable, et voulons continuer à l'être ».
Même type de mensonges sur le Deep Packet Inspection (DPI)6. Le texte nous explique que le DPI est utilisé par le support technique pour aider à résoudre les pannes des utilisateurs finals. La vaste blague.
Cette attaque contre le chiffrement est une attaque déguisée contre la neutralité du Net et contre le respect de la vie privée et du secret des communications électroniques. Dans une sorte d'alliance de fait avec des États qui seraient ravis de voir cette brêche technique être imposée et assumée par d'autres.
Appel à MM. Mahjoubi et Villani
Mounir Mahjoubi
Cédric Villani
MM. Mahjoubi et Villani ont, par le passé, avant d'être aux affaires, chacun pris des positions utiles et puissantes sur le chiffrement. L'un en tant que président de Conseil national du numérique, s'opposant aux envolées autoritaires et insensées de l'ancien gouvernement. L'autre en tant que mathématicien, s'interrogeant de longue date sur la place politique des mathématiques et ayant d'ailleurs spécifiquement dédié un de ses ouvrages de vulgarisation7 à la question du chiffrement.
Nous les appelons donc vivement, comme membre du gouvernement pour l'un et représentant de la Nation pour l'autre, à prendre publiquement position sur le chiffrement de bout en bout face aux positions de l'administration française ainsi que sur ce projet de RFC. Puisse la raison dont ils ont fait preuve par le passé s'exprimer de nouveau pour ramener un peu de sens à un débat que l'irresponsabilité et le mensonge semblent aujourd'hui dominer.
2. Dans sa version du règlement ePrivacy du 19 octobre dernier, le Parlement européen interdit explicitement les backdoors (voir considérant 26 bis).
3. Le chiffrement dit « de bout en bout » est une mesure de sécurité garantissant techniquement que seuls les destinataires choisis par l'expéditeur puissent avoir accès au contenu d'une communication. Il se distingue du chiffrement dit « de point à point » qui ne protège le message qu'entre les différents intermédiaires qui l'acheminent de l'expéditeur aux destinataires, ce qui permet à ces intermédiaires d'avoir accès au contenu. Le parlement européen, à l'article 17 de sa version du règlement ePrivacy, fait clairement cette distinction en exigeant que : « Les fournisseurs de services de communications électroniques se conforment aux obligations en matière de sécurité prévues par le règlement (UE) 2016/679 et la [directive du Parlement européen et du Conseil établissant le code des communications électroniques européen]. Les fournisseurs de services de communications électroniques assurent une protection satisfaisante contre l’accès non autorisé aux données de communications électroniques ou l’altération de celles-ci, et veillent à ce que la confidentialité et l’intégrité de la communication soient garanties par des mesures techniques de pointe, notamment des méthodes cryptographiques telles que le chiffrement de bout en bout. »
4. L'argumentation de l'administration française, pages 3 et 4, est particulièrement insidieuse : elle se contente de déplorer qu'un type particulier d'attaque qu'elle est susceptible d'utiliser (celle de l'« homme du milieu ») serait empêché par le chiffrement de bout en bout et s'empresse dès lors de conclure, sans argumenter, qu'aucun type d'attaque (on pourrait citer le piratage du terminal, l'infiltration humaine dans un réseau, la pose de caméra, etc.) ne pourrait être mis en œuvre... ce qui est évidemment faux. Plus généralement, l'administration française feint de croire que l'interdiction de surveiller les communications, prévue par le règlement, s'appliquerait aux États et non aux seules entreprises, ce qu'une simple lecture de l'article 2 du règlement suffit à révéler comme étant particulièrement fallacieux : les États membres ne sont contraints par le règlement qu'à partir du moment où ils souhaitent soustraire les entreprises aux obligations que ce texte impose à celles-ci ; le règlement ne contraint pas les États quant aux « activités menées par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, y compris la protection contre des menaces pour la sécurité publique et la prévention de telles menaces. ».
5.AT&T est le premier fournisseur d'accès à internet américain et Dell est le troisième constructeur d'ordinateurs au monde.
6. Analyse en profondeur du contenu des communications.
7. Codage et cryptographie - Mathématiciens, espions et pirates informatiques, de Joan Gomez et Cédric Villani, 2013, Le monde des mathématiques (un extrait est disponible sur le site du CNRS).
";s:7:"dateiso";s:15:"20171206_092036";}s:15:"20171204_183433";a:7:{s:5:"title";s:28:"Google, Amesys, même combat";s:4:"link";s:52:"http://www.laquadrature.net/fr/smash-hypercapitalism";s:4:"guid";s:36:"10367 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 04 Dec 2017 17:34:33 +0000";s:11:"description";s:15587:"
Paris, le 5 décembre 2017 — La Quadrature du Net publie ci-dessous une tribune d'Okhin
Du 21 au 24 novembre dernier, à Villepinte (région parisienne), se tenait le salon Milipol (pour Militaire/Police), « l'événement mondial de la sécurité des États ».
En plus des habituels trafiquants marchands d'armes qui font la fierté de l'industrie française (ayons une pensée émue pour Michèle Alliot-Marie qui exporta en Tunisie notre savoir-faire en matière de maintien de l'ordre), il y a, depuis quelques années maintenant, des marchands de matériel informatique et de solutions de supervision des populations.
Vous avez forcément entendu parler d'Amesys, de Qosmos, de Palantir et autres Hacking Team qui se sont spécialisés dans le développement de solutions clef en main d'espionnage et de surveillance de la population. Et, les affaires étant les affaires, la plupart d'entre eux vendent à toute personne désirant acheter du matériel, qu'il s'agisse des dictatures libyenne ou syrienne, ou des démocraties sociales occidentales compatibles avec l'économie de marché (France, Allemagne, Royaume-Uni). On parle dans ces cas de capitalisme de la surveillance, c'est-à-dire de mesurer la valeur des choses grâce à la fonction de surveillance.
La surveillance se base sur la connaissance. En épidémiologie par exemple, c'est connaître le vecteur infectieux, le documenter, savoir comment il se propage et se transmet, mesurer son temps d'incubation éventuel, déterminer ses symptômes pour comprendre son fonctionnement et trouver éventuellement un remède.
Dans le cadre de la surveillance des personnes, cela se traduit par la connaissance de ces personnes, leur identification dans le temps et l'espace, connaître leurs habitudes et leurs façons de réagir, mesurer leur sensibilité à telle ou telle idée. La surveillance c'est la connaissance. Et la connaissance c'est ce qui permet de définir les choses, de les identifier. Le capitalisme de la surveillance est donc un capitalisme de la connaissance, de l'identité. Ce que vendent Amesys, Palantir ou autres à leurs clients c'est l'assignation d'une identité définie par eux ou par leur client à un groupe de personnes en fonction de mesures et d'observations, i.e. de données.
Dans le cas des États, cette assignation identitaire amène à des conséquences qui peuvent être extrêmement violentes pour certaines populations, amenant à des répressions fortes, une suppression d'un certain type de personnes d'un certain quartier, à de l'injustice prédictive basée sur des statistiques biaisées par des biais racistes - le racisme structurel - et qui donc ne peuvent que renforcer ces biais. Les smart cities, dans leur version la plus extrême, sont les étapes finales de ce processus, l'identification permanente, fixiste, en tous points de tous les individus, l'impossibilité de bénéficier des services communs et publics sans révéler son identité, sans donner aux surveillants encore plus de connaissances sur nos vies et nos identités, pour leur permettre de mieux définir nos identités, de mieux vendre aux États la détermination, l'essentialisation, la réduction des complexités de nos vies à des étiquettes : terroriste, migrant, réfugié, musulman, femme, queer, bon citoyen.
Dans cette analyse qui est faite, on parle très vite, très souvent d'algorithmes ou d'intelligence artificielle. On les accuse de tous les maux, d'être racistes, de faire l'apologie du génocide, d'être sexistes, de censurer les discours d'éducation à la sexualité, d'invisibiliser les minorités sexuelles, comme si les intelligences artificielles, les algoritmes, disposaient de conscience, émergeaient de nulle part, avaient décidé d'être néo-nazi. Pardon, alt-right. Mais, au final, personne ne dit ce que sont les algorithmes, ou les intelligences artificielles. On va commencer par la seconde. L'intelligence artificielle est un algorithme doté d'une grande complexité et utilisant de grosses quantités de données pour donner l'illusion d'une intelligence, mais d'une intelligence ne comprenant pas ce qu'est un contexte et non dotée de conscience. Reste à définir ce qu'est un algorithme donc.
Appelons le wiktionnaire à la rescousse. Un algorithme est une « méthode générale pour résoudre un ensemble de problèmes, qui, appliquée systématiquement et d’une manière automatisée à une donnée ou à un ensemble de données, et répétant un certain nombre de fois un procédé élémentaire, finit par fournir une solution, un classement, une mise en avant d’un phénomène, d’un profil, ou de détecter une fraude ». C'est donc une formule mathématique, ne prenant pas en compte les cas particuliers, et qui a pour but d'analyser des données pour trouver une solution à un problème.
Ces algorithmes ne sont pas en charge de collecter les données, de définir le problème ou de prendre des décisions. Ils analysent des données qui leur sont transmises et fournissent une classification de ces données en fonction de critères qui ont été décidés par les personnes qui les écrivent, qui les configurent et qui les utilisent. L'ensemble des problèmes sur la reconnaissance faciale qu'ont rencontrés la plupart des entreprises de la Silicon Valley résulte du jeu de données utilisé pour identifier une personne et la reconnaître, car il ne contenait que des images de personnes blanches. Le chat bot de Microsoft - Tay - s'est avéré tenir des propos négationnistes ou appelant au meurtre et à l'extermination. Non pas parce que Tay a une conscience politique qui lui permette de comprendre les propos qu'elle tient, mais parce que des personnes l'ont inondée de propos racistes ou négationnistes, fournissant un corpus de données servant de base aux interactions du chat bot, l'amenant donc à écrire des propos racistes et négationnistes. Microsoft a rapidement retiré ce chat bot de la circulation et l'entreprise a depuis promis d'être plus « attentive » .
Parallèlement, nous entendons également, et de plus en plus, parler d'économie de l'attention. De capitalisme de l'attention. Ce qui aurait de la valeur serait ce à quoi nous faisons attention, ce que nous regardons. Sous entendu, nous, utilisatrices de ce système, sommes capables de faire le choix de ce que nous voulons regarder et lire, de faire le choix de la connaissance à laquelle nous avons accès. Internet permet, en théorie, un accès non discriminé à l'intégralité des informations et des données, et donc de la connaissance, du savoir. Après tout, la connaissance est une information à laquelle j'accède pour la première fois. Et cette acquisition de connaissance me permet de comprendre le monde, de me positionner par rapport à lui, et donc de me définir et de le comprendre, exactement ce que font les systèmes de surveillance massive utilisés par les États.
Réguler l'accès à l'information et choisir quels contenus montrer à quelle personne permet donc, également, de contrôler comment vont se définir les personnes, comment elles vont comprendre le monde. L'économie de l'attention est basée sur ce principe. Pour garantir que vous interagissiez avec la connaissance qui vous est proposée, qui est la façon dont ces nouveaux capitalistes mesurent la valeur, il est important de vous surveiller, de vous mesurer, de vous analyser, de vous assigner des identités. Et donc de contrôler la connaissance à laquelle vous avez accès et celle que vous produisez.
Les gigantesques plateformes financées par les GAFAM1 servent exactement à ça. Facebook vous empêche activement d'accéder à l'ensemble de l'information présente sur leur réseau, vous demandant de vous connecter pour accéder à d'autres plateformes que la leur, ou vous pistant partout une fois que vous êtes connectés, leur permettant ainsi de récolter encore plus de connaissances à votre sujet, d'augmenter leur capacité de surveillance et donc d'identification et de contrôle. Remplissant dans ce cas exactement la même fonction que les systèmes répressifs des régimes étatiques.
Notamment car Facebook, Apple, Google, Amazon, Microsoft décident ce qu'il est moral de faire, quelles identités doivent être renforcées ou au contraire dévaluées. Par exemple, Youtube, en supprimant la possibilité pour un contenu parlant de sexualités de rapporter de l'argent aux créatrices, envoie un message assez clair aux personnes faisant de l'éducation sexuelle, ou parlant de problématique touchant les personnes queer : votre production de connaissance n'est pas bienvenue ici, nous ne voulons pas que des personnes puissent s'identifier à vous. Il en va de même avec Facebook et son rapport à la nudité ou Apple qui filtre également tout ce qui pourrait parler de sexe, quitte à censurer le contenu des musées. En dévalorisant certaines connaissances, en la supprimant de certaines plateformes, les personnes à la tête de ces entreprises permettent d'effacer totalement de l'espace public des pans entiers de la société, de supprimer les voix des minorités, d'empêcher la contradiction de leurs valeurs et permettent donc de renforcer les biais des personnes consommant la connaissance disponible, amenant à une polarisation, une simplification et à une antagonisation du monde.
Alors effectivement, Facebook en soi ne mettra personne dans les geôles de Bachar el-Assad, du moins pas dans une complicité active, mais l'entreprise fait partie d'un système disposant de deux faces. Une face violente, répressive, alimentant les délires paranoïaques des États d'une part, et une face « douce » et insidieuse, utilisant les publicitaires et la restriction de l'accès à la connaissance pour permettre aux entreprises conservatrices de nous imposer leur vision bipolaire du monde, renforcement les sentiments d'appartenance à un groupe identitaire, avec les conséquences violentes que l'on connaît.
Et pour s'en persuader, il suffit de regarder les liens entre ces deux faces. Peter Thiel, fondateur, avec Elon Musk, de PayPal et qui détient maintenant 7% de Facebook est également le fondateur de Palantir Technologies, entreprise qui a, notamment, obtenu le marché public des boîtes noires en France, tout en étant aussi l'outil officiel de la NSA. Thiel a également participé aux nombreux procès qui ont fait mettre à Gawker la clef sous la porte suite à la révélation de l'homosexualité de P. Thiel par Gawker. Thiel, enfin, est l'un des influents soutiens des républicains nord américains, il a notamment participé à la campagne de Ted Cruz avant de rejoindre l'équipe de Trump et de participer à la transition à la maison blanche. Il a de fait nécessairement discuté, échangé et parlé avec Robert Mercer, l'un des directeurs de Cambridge Analytica, une entreprise dont le but est de cibler les électeurs grâce à de nombreux points de collectes, principalement récupérés par Facebook afin de pouvoir les cibler directement et influencer leurs votes.
Alors oui, lorsque l'on pose la question de démanteler Google, la question de démanteler Palantir se pose aussi, et celle consistant à vouloir privilégier les seconds car ils représentent un danger plus important pour la sécurité des uns et des autres. Mais sans l'omniprésence des systèmes d'identification, sans les exaoctets de données récoltées sans notre consentement dans le but d'individualiser le contenu auquel nous avons accès - selon des critères sur lesquels nous n'avons aucun contrôle - la mise en place de la surveillance et de l'identité devient complexe, coûteuse et impossible.
Il faut démanteler les systèmes capitalistes identitaires si l'on veut détruire les systèmes d'oppressions basés sur l'identité ou sur l'accès biaisé à la connaissance. Il faut s'affranchir des moteurs de ce système que sont la publicité, le pistage et l'identification permanente. Il faut questionner et démanteler le racisme, le néo-colonialisme, le sexisme des entreprises de la Silicon Valley au lieu de s'étonner que leurs algorithmes soient racistes. Car ils sont devenus omniprésents et nous empêchent de nous définir, de vivre, d'exister comme nous l'entendons, avec nos cultures complexes et nos identités changeantes.
1. Acronyme utilisé pour désigner les géantes industries américaines, Google, Apple, Facebook, Amazon, Microsoft.
";s:7:"content";s:15587:"
Paris, le 5 décembre 2017 — La Quadrature du Net publie ci-dessous une tribune d'Okhin
Du 21 au 24 novembre dernier, à Villepinte (région parisienne), se tenait le salon Milipol (pour Militaire/Police), « l'événement mondial de la sécurité des États ».
En plus des habituels trafiquants marchands d'armes qui font la fierté de l'industrie française (ayons une pensée émue pour Michèle Alliot-Marie qui exporta en Tunisie notre savoir-faire en matière de maintien de l'ordre), il y a, depuis quelques années maintenant, des marchands de matériel informatique et de solutions de supervision des populations.
Vous avez forcément entendu parler d'Amesys, de Qosmos, de Palantir et autres Hacking Team qui se sont spécialisés dans le développement de solutions clef en main d'espionnage et de surveillance de la population. Et, les affaires étant les affaires, la plupart d'entre eux vendent à toute personne désirant acheter du matériel, qu'il s'agisse des dictatures libyenne ou syrienne, ou des démocraties sociales occidentales compatibles avec l'économie de marché (France, Allemagne, Royaume-Uni). On parle dans ces cas de capitalisme de la surveillance, c'est-à-dire de mesurer la valeur des choses grâce à la fonction de surveillance.
La surveillance se base sur la connaissance. En épidémiologie par exemple, c'est connaître le vecteur infectieux, le documenter, savoir comment il se propage et se transmet, mesurer son temps d'incubation éventuel, déterminer ses symptômes pour comprendre son fonctionnement et trouver éventuellement un remède.
Dans le cadre de la surveillance des personnes, cela se traduit par la connaissance de ces personnes, leur identification dans le temps et l'espace, connaître leurs habitudes et leurs façons de réagir, mesurer leur sensibilité à telle ou telle idée. La surveillance c'est la connaissance. Et la connaissance c'est ce qui permet de définir les choses, de les identifier. Le capitalisme de la surveillance est donc un capitalisme de la connaissance, de l'identité. Ce que vendent Amesys, Palantir ou autres à leurs clients c'est l'assignation d'une identité définie par eux ou par leur client à un groupe de personnes en fonction de mesures et d'observations, i.e. de données.
Dans le cas des États, cette assignation identitaire amène à des conséquences qui peuvent être extrêmement violentes pour certaines populations, amenant à des répressions fortes, une suppression d'un certain type de personnes d'un certain quartier, à de l'injustice prédictive basée sur des statistiques biaisées par des biais racistes - le racisme structurel - et qui donc ne peuvent que renforcer ces biais. Les smart cities, dans leur version la plus extrême, sont les étapes finales de ce processus, l'identification permanente, fixiste, en tous points de tous les individus, l'impossibilité de bénéficier des services communs et publics sans révéler son identité, sans donner aux surveillants encore plus de connaissances sur nos vies et nos identités, pour leur permettre de mieux définir nos identités, de mieux vendre aux États la détermination, l'essentialisation, la réduction des complexités de nos vies à des étiquettes : terroriste, migrant, réfugié, musulman, femme, queer, bon citoyen.
Dans cette analyse qui est faite, on parle très vite, très souvent d'algorithmes ou d'intelligence artificielle. On les accuse de tous les maux, d'être racistes, de faire l'apologie du génocide, d'être sexistes, de censurer les discours d'éducation à la sexualité, d'invisibiliser les minorités sexuelles, comme si les intelligences artificielles, les algoritmes, disposaient de conscience, émergeaient de nulle part, avaient décidé d'être néo-nazi. Pardon, alt-right. Mais, au final, personne ne dit ce que sont les algorithmes, ou les intelligences artificielles. On va commencer par la seconde. L'intelligence artificielle est un algorithme doté d'une grande complexité et utilisant de grosses quantités de données pour donner l'illusion d'une intelligence, mais d'une intelligence ne comprenant pas ce qu'est un contexte et non dotée de conscience. Reste à définir ce qu'est un algorithme donc.
Appelons le wiktionnaire à la rescousse. Un algorithme est une « méthode générale pour résoudre un ensemble de problèmes, qui, appliquée systématiquement et d’une manière automatisée à une donnée ou à un ensemble de données, et répétant un certain nombre de fois un procédé élémentaire, finit par fournir une solution, un classement, une mise en avant d’un phénomène, d’un profil, ou de détecter une fraude ». C'est donc une formule mathématique, ne prenant pas en compte les cas particuliers, et qui a pour but d'analyser des données pour trouver une solution à un problème.
Ces algorithmes ne sont pas en charge de collecter les données, de définir le problème ou de prendre des décisions. Ils analysent des données qui leur sont transmises et fournissent une classification de ces données en fonction de critères qui ont été décidés par les personnes qui les écrivent, qui les configurent et qui les utilisent. L'ensemble des problèmes sur la reconnaissance faciale qu'ont rencontrés la plupart des entreprises de la Silicon Valley résulte du jeu de données utilisé pour identifier une personne et la reconnaître, car il ne contenait que des images de personnes blanches. Le chat bot de Microsoft - Tay - s'est avéré tenir des propos négationnistes ou appelant au meurtre et à l'extermination. Non pas parce que Tay a une conscience politique qui lui permette de comprendre les propos qu'elle tient, mais parce que des personnes l'ont inondée de propos racistes ou négationnistes, fournissant un corpus de données servant de base aux interactions du chat bot, l'amenant donc à écrire des propos racistes et négationnistes. Microsoft a rapidement retiré ce chat bot de la circulation et l'entreprise a depuis promis d'être plus « attentive » .
Parallèlement, nous entendons également, et de plus en plus, parler d'économie de l'attention. De capitalisme de l'attention. Ce qui aurait de la valeur serait ce à quoi nous faisons attention, ce que nous regardons. Sous entendu, nous, utilisatrices de ce système, sommes capables de faire le choix de ce que nous voulons regarder et lire, de faire le choix de la connaissance à laquelle nous avons accès. Internet permet, en théorie, un accès non discriminé à l'intégralité des informations et des données, et donc de la connaissance, du savoir. Après tout, la connaissance est une information à laquelle j'accède pour la première fois. Et cette acquisition de connaissance me permet de comprendre le monde, de me positionner par rapport à lui, et donc de me définir et de le comprendre, exactement ce que font les systèmes de surveillance massive utilisés par les États.
Réguler l'accès à l'information et choisir quels contenus montrer à quelle personne permet donc, également, de contrôler comment vont se définir les personnes, comment elles vont comprendre le monde. L'économie de l'attention est basée sur ce principe. Pour garantir que vous interagissiez avec la connaissance qui vous est proposée, qui est la façon dont ces nouveaux capitalistes mesurent la valeur, il est important de vous surveiller, de vous mesurer, de vous analyser, de vous assigner des identités. Et donc de contrôler la connaissance à laquelle vous avez accès et celle que vous produisez.
Les gigantesques plateformes financées par les GAFAM1 servent exactement à ça. Facebook vous empêche activement d'accéder à l'ensemble de l'information présente sur leur réseau, vous demandant de vous connecter pour accéder à d'autres plateformes que la leur, ou vous pistant partout une fois que vous êtes connectés, leur permettant ainsi de récolter encore plus de connaissances à votre sujet, d'augmenter leur capacité de surveillance et donc d'identification et de contrôle. Remplissant dans ce cas exactement la même fonction que les systèmes répressifs des régimes étatiques.
Notamment car Facebook, Apple, Google, Amazon, Microsoft décident ce qu'il est moral de faire, quelles identités doivent être renforcées ou au contraire dévaluées. Par exemple, Youtube, en supprimant la possibilité pour un contenu parlant de sexualités de rapporter de l'argent aux créatrices, envoie un message assez clair aux personnes faisant de l'éducation sexuelle, ou parlant de problématique touchant les personnes queer : votre production de connaissance n'est pas bienvenue ici, nous ne voulons pas que des personnes puissent s'identifier à vous. Il en va de même avec Facebook et son rapport à la nudité ou Apple qui filtre également tout ce qui pourrait parler de sexe, quitte à censurer le contenu des musées. En dévalorisant certaines connaissances, en la supprimant de certaines plateformes, les personnes à la tête de ces entreprises permettent d'effacer totalement de l'espace public des pans entiers de la société, de supprimer les voix des minorités, d'empêcher la contradiction de leurs valeurs et permettent donc de renforcer les biais des personnes consommant la connaissance disponible, amenant à une polarisation, une simplification et à une antagonisation du monde.
Alors effectivement, Facebook en soi ne mettra personne dans les geôles de Bachar el-Assad, du moins pas dans une complicité active, mais l'entreprise fait partie d'un système disposant de deux faces. Une face violente, répressive, alimentant les délires paranoïaques des États d'une part, et une face « douce » et insidieuse, utilisant les publicitaires et la restriction de l'accès à la connaissance pour permettre aux entreprises conservatrices de nous imposer leur vision bipolaire du monde, renforcement les sentiments d'appartenance à un groupe identitaire, avec les conséquences violentes que l'on connaît.
Et pour s'en persuader, il suffit de regarder les liens entre ces deux faces. Peter Thiel, fondateur, avec Elon Musk, de PayPal et qui détient maintenant 7% de Facebook est également le fondateur de Palantir Technologies, entreprise qui a, notamment, obtenu le marché public des boîtes noires en France, tout en étant aussi l'outil officiel de la NSA. Thiel a également participé aux nombreux procès qui ont fait mettre à Gawker la clef sous la porte suite à la révélation de l'homosexualité de P. Thiel par Gawker. Thiel, enfin, est l'un des influents soutiens des républicains nord américains, il a notamment participé à la campagne de Ted Cruz avant de rejoindre l'équipe de Trump et de participer à la transition à la maison blanche. Il a de fait nécessairement discuté, échangé et parlé avec Robert Mercer, l'un des directeurs de Cambridge Analytica, une entreprise dont le but est de cibler les électeurs grâce à de nombreux points de collectes, principalement récupérés par Facebook afin de pouvoir les cibler directement et influencer leurs votes.
Alors oui, lorsque l'on pose la question de démanteler Google, la question de démanteler Palantir se pose aussi, et celle consistant à vouloir privilégier les seconds car ils représentent un danger plus important pour la sécurité des uns et des autres. Mais sans l'omniprésence des systèmes d'identification, sans les exaoctets de données récoltées sans notre consentement dans le but d'individualiser le contenu auquel nous avons accès - selon des critères sur lesquels nous n'avons aucun contrôle - la mise en place de la surveillance et de l'identité devient complexe, coûteuse et impossible.
Il faut démanteler les systèmes capitalistes identitaires si l'on veut détruire les systèmes d'oppressions basés sur l'identité ou sur l'accès biaisé à la connaissance. Il faut s'affranchir des moteurs de ce système que sont la publicité, le pistage et l'identification permanente. Il faut questionner et démanteler le racisme, le néo-colonialisme, le sexisme des entreprises de la Silicon Valley au lieu de s'étonner que leurs algorithmes soient racistes. Car ils sont devenus omniprésents et nous empêchent de nous définir, de vivre, d'exister comme nous l'entendons, avec nos cultures complexes et nos identités changeantes.
1. Acronyme utilisé pour désigner les géantes industries américaines, Google, Apple, Facebook, Amazon, Microsoft.
";s:7:"dateiso";s:15:"20171204_183433";}s:15:"20171129_154353";a:7:{s:5:"title";s:51:"Facebook poursuit son ambition de remplacer l'État";s:4:"link";s:84:"http://www.laquadrature.net/fr/Facebook_poursuit_son_ambition_de_remplacer_%C3%89tat";s:4:"guid";s:36:"10365 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 29 Nov 2017 14:43:53 +0000";s:11:"description";s:9242:"
Une tribune d'Arthur Messaud
Paris, le 29 novembre 2017 -- En deux jours, coup sur coup, Facebook a annoncé déployer ses outils de surveillance de masse pour détecter les comportements suicidaires puis pour lutter contre le terrorisme. La concomitance de ces annonces révèle parfaitement la politique de fond du réseau social hégémonique : se rendre aussi légitime que les États et, avec l'accord bien compris des « démocraties libérales », remplacer celles-ci pas à pas.
Hier, Facebook a détaillé la mise en œuvre de sa lutte automatisée contre les contenus à caractère terroriste, qu'il avait déja annoncée en juin dernier. Il explique fièrement que « 99% des contenus terroristes liés à Al-Qaeda et ISIS retirés de Facebook sont des contenus détectés avant que qui que ce soit ne les ait signalés et, dans certains cas, avant qu'ils ne soient publiés »1. Facebook n'a ainsi plus aucune honte à avouer ses intentions : la lutte contre la parole terroriste en ligne n'est plus du ressort de l'État -- Facebook est bien plus efficace ! Cette lutte n'est plus fixée selon des normes débattues démocratiquement, mais laissée à l'unique volonté politique d'entreprises capitalistiques, qui n'ont aucun compte à rendre au peuple.
Et c'est exactement ce à quoi appelaient Macron et May l'été dernier : les géants du Net doivent prendre à leur charge la régulation de leurs réseaux hégémoniques (Facebook explique d'ailleurs que les contenus retirés automatiquement ne sont en principe pas transmis aux autorités publiques, qui pourraient en poursuivre les auteurs2, la séparation des rôles étant ainsi totale et quasiment hermétique).
Le cynisme de la situation est d'autant plus fort que la partie de la lutte que l'État prend encore à sa charge (la détection des individus dangereux) use des mêmes outils que ceux déployés par le secteur privé. Les « algorithmes » dont Facebook vante aujourd'hui l'efficacité reposent sur la même logique que les « boîtes noires » autorisées en France en 2015, et sont développés par la même industrie, qui partage l'exacte même idéologie (Palantir Technologies a été fondée par Peter Thiel, qui détient également 7% de Facebook).
Par ailleurs, avant-hier, Facebook annonçait déployer ses outils de surveillance de masse pour détecter des comportements suicidaires afin d'apporter l'aide nécessaire aux personnes en détresse. La démarche ne serait pas si critiquable si elle n'était pas automatisée, si les utilisateurs pouvaient choisir d'échapper à l'analyse (ce n'est pas le cas) et s'il ne s'agissait pas d'une simple expérimentation pour des usages bien plus larges. Comme s'est empressé d'expliquer Mark Zuckerberg, « dans le futur, l'IA sera davantage capable de comprendre la subtilité du langage et sera capable d'identifier différents problèmes au-delà du suicide, notamment détecter rapidement davantage de cas de harcèlement ou de haine »3.
En vérité, en se plaçant comme défenseur de ses utilisateurs (sans l'avis de ceux-ci), Facebook espère repousser ses nombreux détracteurs qui lui reprochent des atteintes injustifiables à la vie privée de toute la population, à la qualité du débat public et à la vie démocratique dans son ensemble.
Ainsi, de façon parfaitement insidieuse, Facebook prétend que son outil d'aide aux personnes suicidaires sera déployé partout dans le monde... sauf dans l'Union européenne. Il sous-entend là clairement que l'Union européenne prévoirait des règles de protection des données personnelles trop contraignantes pour lui permettre de « protéger la population ». Cette prétention est évidemment fausse : le règlement général sur la protection des données pourrait autoriser une telle pratique de multiples façons 4. Ce mensonge n'a qu'un but : opposer la sécurité des personnes à la protection de leur vie privée (principal obstacle à la pérennité économique de Facebook). Cette opposition est d'ailleurs directement reprise de la bouche des États déployant une surveillance de masse au nom de la sécurité : récupérer leurs pouvoirs implique sans surprise d'en reprendre les mensonges.
En conclusion, ces deux annonces dessinent un discours général assez net : soumettez-vous à Facebook, car lui seul peut vous protéger (ne comptez pas sur l'État, qui lui a délégué ce rôle). L'entreprise ne se prive d'ailleurs pas d'expliquer être « confiante que l'IA va devenir un outil plus important dans l'arsenal de protection et de sécurité sur l'Internet »5. Internet est dangereux, prenez refuge sous l'hégémonie de multinationales totalitaires, vite !
L'arrogance avec laquelle Facebook affiche ses ambitions de contrôler Internet révèle la volonté partagée des « démocraties libérales » et des entreprises hégémoniques de transférer les pouvoirs régaliens des premières vers celles-ci. Nous devons toutes et tous refuser définitivement la légitimité politique que ces entreprises entendent prendre. Seul le peuple est légitime pour décider collectivement des contraintes lui permettant de se protéger contre le terrorisme, les discours de haine, les tendances suicidaires ou n'importe quel autre danger. Dans la continuité ultra-libérale de ses prédécesseurs, Macron déconstruit l'État, pour le pire, en confiant ce rôle à des acteurs privés.
1. Notre traduction de « Today, 99% of the ISIS and Al Qaeda-related terror content we remove from Facebook is content we detect before anyone in our community has flagged it to us, and in some cases, before it goes live on the site. »
2. En juin, Facebook : « We increasingly use AI to identify and remove terrorist content, but computers are not very good at identifying what constitutes a credible threat that merits escalation to law enforcement. »
3. Notre traduction de : « In the future, AI will be able to understand more of the subtle nuances of language, and will be able to identify different issues beyond suicide as well, including quickly spotting more kinds of bullying and hate. »
4. Elle pourrait être fondée sur le consentement, l'intérêt légitime, ou « la sauvegarde des intérêts vitaux de la personne » surveillée (RGPD, article 6).
5. Notre traduction de « we’re hopeful AI will become a more important tool in the arsenal of protection and safety on the internet ».
";s:7:"content";s:9242:"
Une tribune d'Arthur Messaud
Paris, le 29 novembre 2017 -- En deux jours, coup sur coup, Facebook a annoncé déployer ses outils de surveillance de masse pour détecter les comportements suicidaires puis pour lutter contre le terrorisme. La concomitance de ces annonces révèle parfaitement la politique de fond du réseau social hégémonique : se rendre aussi légitime que les États et, avec l'accord bien compris des « démocraties libérales », remplacer celles-ci pas à pas.
Hier, Facebook a détaillé la mise en œuvre de sa lutte automatisée contre les contenus à caractère terroriste, qu'il avait déja annoncée en juin dernier. Il explique fièrement que « 99% des contenus terroristes liés à Al-Qaeda et ISIS retirés de Facebook sont des contenus détectés avant que qui que ce soit ne les ait signalés et, dans certains cas, avant qu'ils ne soient publiés »1. Facebook n'a ainsi plus aucune honte à avouer ses intentions : la lutte contre la parole terroriste en ligne n'est plus du ressort de l'État -- Facebook est bien plus efficace ! Cette lutte n'est plus fixée selon des normes débattues démocratiquement, mais laissée à l'unique volonté politique d'entreprises capitalistiques, qui n'ont aucun compte à rendre au peuple.
Et c'est exactement ce à quoi appelaient Macron et May l'été dernier : les géants du Net doivent prendre à leur charge la régulation de leurs réseaux hégémoniques (Facebook explique d'ailleurs que les contenus retirés automatiquement ne sont en principe pas transmis aux autorités publiques, qui pourraient en poursuivre les auteurs2, la séparation des rôles étant ainsi totale et quasiment hermétique).
Le cynisme de la situation est d'autant plus fort que la partie de la lutte que l'État prend encore à sa charge (la détection des individus dangereux) use des mêmes outils que ceux déployés par le secteur privé. Les « algorithmes » dont Facebook vante aujourd'hui l'efficacité reposent sur la même logique que les « boîtes noires » autorisées en France en 2015, et sont développés par la même industrie, qui partage l'exacte même idéologie (Palantir Technologies a été fondée par Peter Thiel, qui détient également 7% de Facebook).
Par ailleurs, avant-hier, Facebook annonçait déployer ses outils de surveillance de masse pour détecter des comportements suicidaires afin d'apporter l'aide nécessaire aux personnes en détresse. La démarche ne serait pas si critiquable si elle n'était pas automatisée, si les utilisateurs pouvaient choisir d'échapper à l'analyse (ce n'est pas le cas) et s'il ne s'agissait pas d'une simple expérimentation pour des usages bien plus larges. Comme s'est empressé d'expliquer Mark Zuckerberg, « dans le futur, l'IA sera davantage capable de comprendre la subtilité du langage et sera capable d'identifier différents problèmes au-delà du suicide, notamment détecter rapidement davantage de cas de harcèlement ou de haine »3.
En vérité, en se plaçant comme défenseur de ses utilisateurs (sans l'avis de ceux-ci), Facebook espère repousser ses nombreux détracteurs qui lui reprochent des atteintes injustifiables à la vie privée de toute la population, à la qualité du débat public et à la vie démocratique dans son ensemble.
Ainsi, de façon parfaitement insidieuse, Facebook prétend que son outil d'aide aux personnes suicidaires sera déployé partout dans le monde... sauf dans l'Union européenne. Il sous-entend là clairement que l'Union européenne prévoirait des règles de protection des données personnelles trop contraignantes pour lui permettre de « protéger la population ». Cette prétention est évidemment fausse : le règlement général sur la protection des données pourrait autoriser une telle pratique de multiples façons 4. Ce mensonge n'a qu'un but : opposer la sécurité des personnes à la protection de leur vie privée (principal obstacle à la pérennité économique de Facebook). Cette opposition est d'ailleurs directement reprise de la bouche des États déployant une surveillance de masse au nom de la sécurité : récupérer leurs pouvoirs implique sans surprise d'en reprendre les mensonges.
En conclusion, ces deux annonces dessinent un discours général assez net : soumettez-vous à Facebook, car lui seul peut vous protéger (ne comptez pas sur l'État, qui lui a délégué ce rôle). L'entreprise ne se prive d'ailleurs pas d'expliquer être « confiante que l'IA va devenir un outil plus important dans l'arsenal de protection et de sécurité sur l'Internet »5. Internet est dangereux, prenez refuge sous l'hégémonie de multinationales totalitaires, vite !
L'arrogance avec laquelle Facebook affiche ses ambitions de contrôler Internet révèle la volonté partagée des « démocraties libérales » et des entreprises hégémoniques de transférer les pouvoirs régaliens des premières vers celles-ci. Nous devons toutes et tous refuser définitivement la légitimité politique que ces entreprises entendent prendre. Seul le peuple est légitime pour décider collectivement des contraintes lui permettant de se protéger contre le terrorisme, les discours de haine, les tendances suicidaires ou n'importe quel autre danger. Dans la continuité ultra-libérale de ses prédécesseurs, Macron déconstruit l'État, pour le pire, en confiant ce rôle à des acteurs privés.
1. Notre traduction de « Today, 99% of the ISIS and Al Qaeda-related terror content we remove from Facebook is content we detect before anyone in our community has flagged it to us, and in some cases, before it goes live on the site. »
2. En juin, Facebook : « We increasingly use AI to identify and remove terrorist content, but computers are not very good at identifying what constitutes a credible threat that merits escalation to law enforcement. »
3. Notre traduction de : « In the future, AI will be able to understand more of the subtle nuances of language, and will be able to identify different issues beyond suicide as well, including quickly spotting more kinds of bullying and hate. »
4. Elle pourrait être fondée sur le consentement, l'intérêt légitime, ou « la sauvegarde des intérêts vitaux de la personne » surveillée (RGPD, article 6).
5. Notre traduction de « we’re hopeful AI will become a more important tool in the arsenal of protection and safety on the internet ».
";s:7:"dateiso";s:15:"20171129_154353";}s:15:"20171121_170229";a:7:{s:5:"title";s:85:"Pour le Parlement européen, nos données personnelles ne sont pas des marchandises !";s:4:"link";s:45:"http://www.laquadrature.net/fr/contenu_num_pe";s:4:"guid";s:36:"10356 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 21 Nov 2017 16:02:29 +0000";s:11:"description";s:4825:"
Paris, le 21 novembre 2017 -- Ce matin, le Parlement européen a adopté sa position sur une nouvelle directive qui encadrera les « contrats de fourniture de contenu numérique ». Il y a inscrit un principe fondamental, déjà esquissé il y a quelques semaines dans le règlement ePrivacy : « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises ».
Le 26 octobre dernier, le Parlement européen a adopté sa position sur le règlement ePrivacy, en précisant que « nul utilisateur ne peut se voir refuser l’accès à un service [...] au motif qu’il n’a pas consenti [...] à un traitement de ses données à caractère personnel [...] non nécessaire à la fourniture du service » (voir article 8, paragraphe 1 bis, du rapport LIBE).
Cette disposition faisait directement écho au Règlement Général sur la Protection des Données (RGPD) adopté l'an dernier, qui prévoie (article 7 et considérant 43) que « le consentement est présumé ne pas avoir été donné librement [...] si l'exécution d'un contrat, y compris la prestation d'un service, est subordonnée au consentement malgré que celui-ci ne soit pas nécessaire à une telle exécution ».
Aujourd'hui, le Parlement européen est allé encore plus loin en déclarant que « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises »1 (considérant 13 du rapport adopté aujourd'hui). Nous pouvons seulement regretter que le Parlement n'ait pas eu le courage de tirer toutes les conséquences légales de sa position et n'ait pas clairement interdit les contrat de type « service contre données ». Il se refuse à explicitement « décider si de tels contrats devraient ou non être autorisés et laisse aux lois nationales la question de la validité de ces contrats »2. Mais il a aussi précisé que sa position « ne devrait, en aucun cas, donner l'impression qu'elle légitime ou encourage des pratiques basées sur la monétisation des données personnelles »3 (voir considérant 13).
Le texte adopté aujourd'hui (tout comme celui adopté le mois dernier sur ePrivacy) devra encore être débattu par les États membres, qui pourront affaiblir entièrement ces nouvelles précisions.
Toutefois, aujourd'hui, le Parlement a pris un autre pas décisif vers la reconnaissance d'un principe fondamental, pour lequel La Quadrature du Net se bat depuis des années : que le droit à la vie privée et à la protection des données, tout comme n'importe quel autre droit fondamental, ne puisse être vendu.
1. Notre traduction de « personal data cannot be compared to a price, and therefore cannot be considered as a commodity ».
2. Notre traduction de « decide on whether such contracts should be allowed or not and leaves to national law the question of validity of [those] contracts ».
3. Notre traduction de « should, in no way, give the impression that it legitimises or encourages a practice based on monetisation of personal data ».
";s:7:"content";s:4828:"
Paris, le 21 novembre 2017 -- Ce matin, le Parlement européen a adopté sa position sur une nouvelle directive qui encadrera les « contrats de fourniture de contenu numérique ». Il y a inscrit un principe fondamental, déjà esquissé il y a quelques semaines dans le règlement ePrivacy : « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises ».
Le 26 octobre dernier, le Parlement européen a adopté sa position sur le règlement ePrivacy, en précisant que « nul utilisateur ne peut se voir refuser l’accès à un service [...] au motif qu’il n’a pas consenti [...] à un traitement de ses données à caractère personnel [...] non nécessaire à la fourniture du service » (voir article 8, paragraphe 1 bis, du rapport LIBE).
Cette disposition faisait directement écho au Règlement Général sur la Protection des Données (RGPD) adopté l'an dernier, qui prévoie (article 7 et considérant 43) que « le consentement est présumé ne pas avoir été donné librement [...] si l'exécution d'un contrat, y compris la prestation d'un service, est subordonnée au consentement malgré que celui-ci ne soit pas nécessaire à une telle exécution ».
Aujourd'hui, le Parlement européen est allé encore plus loin en déclarant que « les données personnelles ne peuvent être comparées à un prix et, ainsi, ne peuvent être considérées comme des marchandises »1 (considérant 13 du rapport adopté aujourd'hui). Nous pouvons seulement regretter que le Parlement n'ait pas eu le courage de tirer toutes les conséquences légales de sa position et n'ait pas clairement interdit les contrat de type « service contre données ». Il se refuse à explicitement « décider si de tels contrats devraient ou non être autorisés et laisse aux lois nationales la question de la validité de ces contrats »2. Mais il a aussi précisé que sa position « ne devrait, en aucun cas, donner l'impression qu'elle légitime ou encourage des pratiques basées sur la monétisation des données personnelles »3 (voir considérant 13).
Le texte adopté aujourd'hui (tout comme celui adopté le mois dernier sur ePrivacy) devra encore être débattu par les États membres, qui pourront affaiblir entièrement ces nouvelles précisions.
Toutefois, aujourd'hui, le Parlement a pris un autre pas décisif vers la reconnaissance d'un principe fondamental, pour lequel La Quadrature du Net se bat depuis des années : que le droit à la vie privée et à la protection des données, tout comme n'importe quel autre droit fondamental, ne puisse être vendu.
1. Notre traduction de « personal data cannot be compared to a price, and therefore cannot be considered as a commodity ».
2. Notre traduction de « decide on whether such contracts should be allowed or not and leaves to national law the question of validity of [those] contracts ».
3. Notre traduction de « should, in no way, give the impression that it legitimises or encourages a practice based on monetisation of personal data ».
";s:7:"dateiso";s:15:"20171121_170229";}s:15:"20171115_103013";a:7:{s:5:"title";s:93:"Renseignement : derrière le brouillard juridique, la légalisation du Deep Packet Inspection";s:4:"link";s:66:"http://www.laquadrature.net/fr/renseignement_l%C3%A9galisation_dpi";s:4:"guid";s:36:"10345 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 15 Nov 2017 09:30:13 +0000";s:11:"description";s:66016:"
Analyse de Félix Tréguer, membre fondateur de La Quadrature du Net et chercheur.
Après avoir fait couler beaucoup d'encre en 2015 lors de l'adoption de la loi renseignement, ces sondes dédiées à la surveillance en temps réel des communications Internet de millions de résidents français sont désormais employées légalement par les services dans le but de repérer certaines communications « suspectes ». C'est ce qu'a annoncé Francis Delon, le président de la Commission nationale de contrôle des techniques de renseignement (CNCTR) lors d'un colloque mardi 14 novembre à Grenoble.
Sauf que cette annonce est l'arbre qui cache la forêt. On nous explique que le « contenu » des communications n'est pas concerné, et que le secret des correspondances est donc sauf. Mais lorsqu'on lit entre les lignes de la loi et que l'on suit les quelques journalistes d'investigation qui planchent sur le sujet, il est clair que le droit français cherche depuis 2013 à légaliser l'usage des techniques de « Deep Packet Inspection », lesquelles constituent en fait le point d'articulation entre différentes logiques du renseignement technique contemporain.
Jusqu'à présent, chez les défenseurs des libertés publiques intéressés par le renseignement – militants, juristes, universitaires, etc. –, nous étions nombreux à suspecter le recours à de telles techniques de surveillance sans comprendre précisément comment elles pouvaient s'inscrire dans le cadre juridique. En réalité, certaines ambiguïtés légistiques faisaient obstacle à la compréhension de l'articulation droit/technique, faute de transparence sur la nature des outils techniques utilisés par les services et leurs usages.
Or, compte tenu des informations révélées par Reflets.info et Mediapart l'an dernier sur des sondes DPI installées dès 2009 chez les grands fournisseurs d'accès français, on peut raisonnablement penser que les « boîtes noires » sont en réalité déjà expérimentées depuis longtemps.
Certes, l'efficacité opérationnelle de tels outils reste à démontrer, compte tenu notamment de l'augmentation du trafic Internet chiffré ces dernières années. Mais depuis 2013, et plus encore depuis 2016, le droit français autorise ces sondes à scanner le trafic d'une grande part de la population pour « flasher » depuis les réseaux des opérateurs télécoms français certains « sélecteurs » : il peut s'agir de données de connexion traitées par les FAI (notamment l'IP d'origine, l'IP de destination), mais aussi toutes sortes de métadonnées décelables dans ce trafic et traitées par les serveurs consultés, notamment les « protocoles » associés à certains services en ligne et des identifiants non chiffrés (pseudos, hash de mots de passe, etc.). À travers cette analyse du trafic Internet, les services peuvent repérer des cibles, voire même dresser des graphes sociaux détaillés (qui communique avec qui, quand, à l'aide de quel service en ligne, etc.).
Le mécanisme juridique qui permet ces formes de surveillance sur le territoire repose sur l'exploitation stratégique par les services de renseignement de la distinction entre métadonnées et contenu des communications : au lieu de considérer les identifiants associés aux services en ligne comme le contenu des communications acheminées par les FAI – ce qu'ils sont au plan technique –, ces identifiants contenus dans les paquets conservent le statut juridique de métadonnées, et peuvent ainsi être collectés à l'aide d'outils DPI.
Inaugurée en 2013 par la LPM (Loi de programmation militaire) et reconduite par la loi renseignement pour la lutte antiterroriste, cette surveillance en temps réel des identifiants contenus dans les communications Internet permet aux services de massifier la surveillance, en contournant les quotas prévus en matière d'interceptions de sécurité (plafond de 2000 interceptions simultanées, pour cette technique qui permet de collecter les métadonnées et le contenu des messages).
Ce texte revient sur cette construction juridique en lien avec l'évolution des techniques de renseignement, et tente d'illustrer la manière dont elle permet de combiner une surveillance automatisée et exploratoire à travers des outils Big Data et des interceptions « ciblées » de l'ensemble du trafic de cibles précisément identifiées. Mais avant d'entrer dans le vif du sujet, revenons sur certains éléments de contexte.
1. Éléments de contexte
1.1 Le renseignement et l'exploitation des failles juridiques
D'abord, il faut bien avoir en tête que les services sauront s’immiscer dans n'importe quelle petite faille juridique pour trouver une assise juridique à des outils techniques et des pratiques policières très contestables, mais sur lesquelles – faute d'un Snowden à la française (et malgré certaines enquêtes journalistiques qui ont fait sensation) – même les gens qui suivent le sujet d'assez près se heurtent au secret d'État.
On a donc tendance à se rendre compte bien tard de ces failles juridiques et de la manière dont elles sont exploitées au plan opérationnel, et on se demande alors comment on a pu passer à côté tout ce temps-là. Cette mauvaise articulation des raisonnements entre droit et outils techniques contribue à ce que les droits fondamentaux aient toujours plusieurs trains de retard sur les pratiques de surveillance.
Il y a plein d'exemples de ce que je décris ici, comme la surveillance hertzienne inaugurée en 1991. Je vais en détailler un autre, parce qu'il est essentiel à la démonstration, et il est central pour les enjeux contemporains de la surveillance en France. Il concerne l'accès administratif aux informations et documents détenus par les opérateurs télécoms et hébergeurs.
1.2 L'exemple de l'accès aux métadonnées
Pour rappel, l'obligation de conservation des données de connexion (souvent synonyme d'un autre terme bien plus vague sur lequel on va revenir, celui d'« informations et documents » détenus par les intermédiaires technique) date au plan législatif de 2001 pour les opérateurs, de 2004 pour les fournisseurs de services en ligne (c'est-à-dire des personnes physiques ou morales qui mettent à disposition du public des services de communication au public en ligne et stockent des données : hébergeur, réseau social, forum, site de eCommerce, fournisseur public de messagerie, etc.).
Rappelons aussi quelques unes des données concernées par ces obligations de conservation – c'est important pour la suite.
Pour les opérateurs télécoms et FAI :
les informations permettant d'identifier l'utilisateur (les noms, prénoms et adresse données par l'abonné à son FAI) ;
les caractéristiques techniques ainsi que la date, l'horaire et la durée de chaque communication (quelle adresse IP était donnée à qui, à quelle date pendant combien de temps) ;
les données relatives aux équipements terminaux de communication utilisés (adresse MAC, des données relatives à des cookies ou autres identifiants de session détenus par le FAI) ;
les données permettant d'identifier le ou les destinataires de la communication (a priori pour Internet, l'IP de destination, mais on a des doutes sur le fait que techniquement les FAI acceptent de stocker tout ça, car toutes les IP consultées par toute la population française, ça fait beaucoup de données et donc ça coûte cher à conserver. Bref, on est pas sûr – et en soit cette incertitude est déjà révélatrice d'un vrai problème –, mais on peut faire l'hypothèse que les FAI ne les conservent pas, en tout cas pas par défaut).
Pour les hébergeurs / fournisseurs de service en ligne :
l'identifiant de la connexion à l'origine de la communication (on comprend que c'est ce qu'on appelle vulgairement le log in : ça peut être l'alias Twitter, l'adresse mail pour se connecter à sa messagerie, son identifiant Facebook, etc.) ;
les types de protocoles utilisés pour la connexion au service (Gmail, Facebook, Telegram, Tor et quantité d'autres services en ligne ont des protocoles spécifiques qui sont en quelque sorte leurs signatures) ;
le mot de passe (a priori hashé, dans un format qui ne permet pas de retrouver le mot de passe, mais au moins de vérifier sa signature, son empreinte).
L'accès à ces données de connexion a été ouvert aux services en 2006 pour la seule lutte antiterroriste et pour les seuls opérateurs télécoms. Des techniciens au fait de ces histoires nous expliquaient que les opérateurs ne conservaient pas les IP consultées. Cet accès aux données de connexion était donc uniquement censé permettre d'identifier des suspects de terrorisme dont on aurait récupéré l'adresse IP, en demandant au FAI les noms et prénoms correspondant à cette IP. Pas si choquant me direz-vous. C'est vrai, surtout en comparaison des choses révélées ces dernières années, notamment par Snowden.
Mais dans un rapport de l'Assemblée nationale publié en mai 2013, soit juste avant le début des révélations Snowden, il était écrit que pour contourner cette restriction du décret de 2006 et accéder aux métadonnées pour d'autres motifs que l'antiterrorisme, les services s'appuyaient sur une disposition, l'article L. 244-2 du code de la sécurité intérieure, créé en 1991.1
1.3 La LPM : blanchiment législatif de l'illégal
C'est précisément ce détournement que la LPM a permis de légaliser, quelques mois plus tard, en élargissant drastiquement la manière dont les services pouvait accéder à ces données : non plus pour la seule lutte antiterroriste, mais pour l'ensemble de leurs missions. Première rupture juridique.
Pour les finalités énumérées à l'article L. 241-2, peut être autorisé le recueil, auprès des opérateurs de communications électroniques et des personnes mentionnées à l'article L. 34-1 du code des postes et des communications électroniques ainsi que des personnes mentionnées aux 1 et 2 du I de l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, des informations ou documents traités ou conservés par leurs réseaux ou services de communications électroniques, y compris les données techniques relatives à l'identification des numéros d'abonnement ou de connexion à des services de communications électroniques, au recensement de l'ensemble des numéros d'abonnement ou de connexion d'une personne désignée, à la localisation des équipements terminaux utilisés ainsi qu'aux communications d'un abonné portant sur la liste des numéros appelés et appelants, la durée et la date des communications [cet article a été repris par la loi renseignement et est aujourd'hui à l'article L. 851-1 du CSI.
À quoi renvoie ce terme d'« informations et documents » ? On s'en est beaucoup inquiétés à l'époque de l'examen de la LPM, car nous trouvions l'expression extrêmement vague. Mais le gouvernement et les parlementaires qui soutenaient le texte tentaient de nous rassurer en disant qu'il s'agissait un vocable ancien, datant de la loi de 1991, qu'il renvoyait simplement aux métadonnées, et non pas aux informations ou documents contenus dans les messages.
Résumons donc cette deuxième rupture juridique : les services peuvent désormais accéder non plus aux données des seuls opérateurs télécoms, mais aux « informations et documents » non seulement conservés mais également « traités » par les opérateurs télécoms ou fournisseurs de service, notamment des données relatives aux « identifiants de connexion » (des log-in, typiquement) ou à la géolocalisation des terminaux.
Ces données sont donc « recueillies » sur demande des services, notamment via ce qui constitue la troisième rupture juridique introduite par la LPM : il ne s'agit plus seulement d'accéder a posteriori aux données conservées par les intermédiaires techniques (FAI et hébergeurs donc), mais également « en temps réel » sur « sollicitation du réseau » :
Art. L. 246-3.-Pour les finalités énumérées à l'article L. 241-2, les informations ou documents mentionnés à l'article L. 246-1 peuvent être recueillis sur sollicitation du réseau et transmis en temps réel par les opérateurs aux agents mentionnés au I de l'article L. 246-2 ».
Là encore, cela nous avait beaucoup inquiété, sans qu'on réussisse bien à comprendre ce qui se jouait là.
Un an plus tard, en catimini le 24 décembre 2014, le gouvernement fait paraître le décret d'application. Ouf ! Les « informations et documents » sont bien limités aux métadonnées, leur définition n'est pas élargie par rapport aux décrets de 2006 et 2011, comme la loi pouvait pourtant y inviter. En effet, le décret précise (R. 241-1 CSI ) :
Pour l'application de l'article L. 246-1, les informations et les documents pouvant faire, à l'exclusion de tout autre, l'objet d'une demande de recueil sont ceux énumérés aux articles R. 1013 et R. 10-14 du code des postes et des communications électroniques et à l'article 1 er du décret n° 2011-219 du 25 février 2011 modifié relatif à la conservation et à la communication des données permettant d'identifier toute personne ayant contribué à la création d'un contenu mis en ligne.
Une autre disposition précise qu'il peut s'agir aussi de données de gélolocalisation des terminaux. Quant à la notion de « sollicitation en temps réel » du réseau, là encore, la CNIL – consultée pour avis sur le décret, se dit satisfaite. Marc Rees écrit à l'époque :
Le décret prévoit ici que cette sollicitation « est effectuée par l'opérateur qui exploite le réseau », et non pas par les autorités elles-mêmes. La CNIL estime dès lors que cette formulation « interdit toute possibilité d'aspiration massive et directe des données par les services concernés et, plus généralement, tout accès direct des agents des services de renseignement aux réseaux des opérateurs, dans la mesure où l'intervention sur les réseaux concernés est réalisée par les opérateurs de communication eux-mêmes. »
À ce moment-là, les opposants à la LPM sont en quelque sorte rassurés – le décret pose plein de problèmes, mais la surveillance massive semble désormais impossible.
1.4 Le coup de toilette de la loi renseignement
Six mois plus tard, la version promulguée en juillet 2015 de la loi renseignement reprend le vocable de la LPM mais réorganise l'accès aux métadonnées comme suit :
L 851-1 : accès a posteriori aux métadonnées conservées par les FAI et hébergeurs et aux données de gélolocalisation ;
L 851-2 : accès en temps réel aux métadonnées des FAI et hébergeurs pour les personnes « susceptibles d'être en lien avec une menace » terroriste (alors que dans la LPM, c'était pour l'ensemble des finalités) ;
L 851-3 : boîtes noires : aka traitements automatisés des métadonnées, conservées par les FAI ou hébergeurs, pour repérer des communications suspectes en lien avec le terrorisme ;
L 851-4 : géolocalisation en temps réel des terminaux.
À bien des égards, la loi renseignement apporte des garanties supplémentaires par rapport à la LPM : « normalisation » des procédures de contrôle préalables sous l'égide de la CNCTR pour l'accès aux métadonnées (plus simplement une personnalité qualifiée qui autorise), restriction de l'accès en temps réel et des boîtes noires à la seule lutte antiterroriste. Comme si les responsables des services avaient eu peur de ce que la loi les autorisait à faire… Ou comme si certains au sein de l'État avaient voulu remettre un peu de mesure dans l'utilisation de dispositifs de surveillance extrêmement intrusifs.
2. De la difficulté de comprendre comment le droit marche en pratique
Depuis le vote de la loi renseignement, les Exégètes amateurs (groupe d'action contentieuse commun aux associations La Quadrature du Net, FDN et Fédération FDN) ont déposé plusieurs recours devant le Conseil d'État qui touchent à l'ensemble de la loi.
Après une QPC remportée sur la question de la surveillance hertzienne en octobre 2016, le Conseil constitutionnel nous a donné gain de cause sur un autre recours relatif à l'accès en temps réel aux données de connexion. La disposition avait déjà été validée dans la décision du Conseil sur la loi renseignement en juillet 2015, mais un an plus tard, après les attentats de Nice, elle a été élargie non seulement aux personnes susceptibles d'être en lien avec une menace, mais à leur entourage, et aux personnes en lien avec cet entourage (les « n + 2 »). Les n+2 de 11 000 fichés S, ça fait potentiellement des centaines de milliers de personnes. Beaucoup de monde donc.
2.1 L'exemple de la QPC sur la surveillance en temps réel
Ce à quoi nous nous heurtions dans nos raisonnements dans ce dossier, c'est la manière dont le droit est mis en musique au plan opérationnel. Par exemple, on comprenait bien l'intérêt pour la surveillance en temps réel des métadonnées téléphoniques, et en soi, c'est déjà extrêmement intrusif. En gros, la loi donne accès en temps réel au journal d'appel détaillé des personnes visées. Plutôt que de s'embêter à faire une interception ciblée, on recueille en temps réel les métadonnées et on fait le graphe social de la personne – qui elle appelle, qui l'appelle, à quelle heure, combien de temps –, le tout étant automatisé grâce à des outils Big Data. Cela nécessite moins de ressources que d'éplucher le détail des conversations téléphoniques, et c'est donc d'une certaine manière plus efficace.
Mais pour Internet, on était moins sûr. On réfléchissait généralement de cette manière (un raisonnement analogue vaudrait pour les boîtes noires du L. 851-3 CSI) :
côté FAI : les outils de surveillance qui font la sollicitation sont installées sur des bouts de réseau, et interceptent les métadonnées des FAI (et seulement des FAI) : IP d'origine, et peut être IP consultées (mais comme on raisonne à partir des données « conservées », et qu'on ne pense pas que les IP consultées soient conservées par les FAI, on avait en quelque sorte des œillères qui nous faisait penser que ça pouvait ne pas être le cas – on passait à côté du mot « traitées »). Et puis une IP consultée, c'est intéressant mais relativement aléatoire : il peut y avoir derrière une même IP de nombreux services en ligne différents ; ça ne permet pas d'avoir une granularité très fine de qui communique avec qui.
côté hébergeur : dans ce cas, on s'imagine que les outils de surveillance sont installés sur les serveurs pour scanner les communication et repérer les métadonnées. Ici, les métadonnées (protocoles, identifiants, mots de passe, etc.) sont beaucoup plus fines, et donc intéressantes. Mais il y a un problème pratique. Pour des petits hébergeurs, l'intérêt est limité : on voit passer peu de trafic en réalité, il faudrait faire de la surveillance sur des milliers de serveurs pour avoir une masse critique de trafic dans laquelle piocher des choses intéressantes. Pour les gros, genre Google, Facebook, Twitter, c'est évidemment plus intéressant mais ce sont des entreprises américaines, ce qui pose un problème stratégique (risque que les activités de surveillance des services français ne soient accessibles aux agences américaines, par exemple). Cela pose aussi un problème plus politique, car on les voit mal, dans le contexte post-Snowden où ces entreprises cherchent à regagner la confiance des utilisateurs, les voir accepter – même sous la contrainte du droit français – avec les services pour installer des boîtes noires ou faire de la surveillance en temps réel (même si c'est par exemple ce que Yahoo est accusé d'avoir fait pour le compte de la NSA).
S'agissant des boîtes noires, le ministre Jean-Yves Le Drian avait par exemple indiqué lors de l'examen parlementaire de la loi renseignement qu'il s'agissait de repérer des communications suspectes. Bertrand Bajolet, qui a quitté il y a quelques mois la direction générale de la DGSE, avait été plus disert à l'époque: « Il s’agit de détecter certaines pratiques de communication. L’objectif n’est pas de surveiller des comportements sociaux, tels que la fréquentation de telle ou telle mosquée par telle ou telle personne. Mais nous connaissons les techniques qu’emploient les djihadistes pour dissimuler leurs communications et échapper à toute surveillance : ce sont ces attitudes de clandestinité qu’il s’agit de détecter afin de prévenir des attentats (…). »
Sur les attitudes de clandestinité, l'allusion évoque assez directement l'utilisation de solution de chiffrement. Au hasard l'utilisation du réseau Tor.
Mais ce qu'on ne comprenait pas, c'est comment les boîtes noires installées sur les réseaux des FAI pouvaient permettre de déceler ce type de comportements. Il nous semblait que les seules choses que la loi autorisait de faire, c'était de flasher les données de connexion du FAI : l'IP d'origine et éventuellement l'IP consultée, l'adresse MAC, ainsi que d'autres infos dans l'entête des paquets.
On comprenait d'autant moins que dans la jurisprudence constitutionnelle du 24 juillet 2015, suscitée par le tout premier recours des Exégètes, le Conseil constitutionnel avait limité le champ de la notion d'« information et documents » aux articles déjà existants issus des décrets de 2006 et de 2011. Une décision qui semblait aller dans notre sens. Elle rappelle notamment que les données de connexion concernées ne peuvent en aucun cas « porter sur le contenu de correspondances ou les informations consultées », ce qui du point de vue des opérateurs télécoms semble de nature à exclure le DPI.
Et puis dans le même temps, le ministre de l'Intérieur d'alors, un certain Bernard Cazeneuve, nous jurait qu'il était « hors de question » d'utiliser du DPI. Il faut croire qu'on a eu envie de lui laisser le bénéfice du doute.
2.2 Ce qu'on sait des pratiques : DPI or not to be
Pour ma part, c'est la lecture cet été d'un article d'un spécialiste du SIGINT qui tient un blog appelé Electrospaces qui m'a fait tilter. Il y explique que la police néerlandaise, en chasse contre des hackers russes qui faisaient de la fraude bancaire sur Internet, ont recouru à des techniques de Deep Packet Inspection sur l'infrastructure d'un gros hébergeur hollandais utilisée dans le cadre de ces infractions. La nature de l'outil pose question, puisque le DPI permet de rentrer en profondeur et donc de voir le contenu non chiffré des communications – de toutes les communications, y compris celles de personnes sans lien avec l'infraction. Mais c'est la logique qui est intéressante : pour retrouver leurs cibles, les policiers néerlandais sont partis de plus de 400 identifiants utilisés par des cybercriminels russes déjà connus pour voir s'ils les retrouvaient dans le trafic de l'hébergeur.
Or, ces identifiants, quels sont-ils ? Ce sont des logs-ins, ou des pseudos, utilisés par les suspects sur un service de messagerie instantanée appelé ICQ. Les sondes DPI permettaient donc de déceler ces identifiants dans le trafic de l'hébergeur. Ce sont bien des métadonnées qui sont visées : pas celles des opérateurs néerlandais, ni celles de l'hébergeur en question, mais celles de services utilisés en sous-couche dans les paquets de données traités par l'hébergeur.
C'est suite à cela que je suis retourné voir les révélations faites l'an dernier par Mediapart et Reflets.info sur des sondes DPI du prestataire Qosmos qu'auraient fait installer les services intérieurs de renseignement français sur l'infrastructure des quatre grands FAI français (programme IOL, sachant que dans le même temps, la DGSE installait un système similaire sur les câbles internationaux, le marché avec Qosmos portant cette fois le nom de Kairos).
Selon des documents que Mediapart et Reflets ont pu consulter et les personnes qui ont accepté d’évoquer IOL, il s’agit d’un projet d’interception « légale » chez tous les grands opérateurs, soit à peu près 99% du trafic résidentiel. Ce projet a été imaginé en 2005. Le cahier des charges terminé en 2006 et le pilote lancé en 2007. La généralisation à tous les grands opérateurs s’est déroulée en 2009. Dans le cadre de IOL, des « boites noires » avant l’heure étaient installées sur les réseaux des opérateurs, mais ceux-ci n’y avaient pas accès. Il s’agissait d’écoutes administratives commandées par le Premier ministre et dont le résultat atterrissait au GIC.
Selon un document interne de Qosmos, dimensionné pour permettre de l’interception sur 6000 DSLAM [équivalent du central téléphonique pour l'ADSL], IOL, pour Interceptions Obligatoires Légales, pouvait analyser jusqu’à 80 000 paquets IP par seconde. Un DSLAM pouvant accueillir à l’époque entre 384 et 1008 lignes d’abonnés, c’est entre 2,3 et 6,04 millions de lignes qui étaient alors concernées par ce projet pour la seule société Qosmos. Du massif potentiel (…).
Dans le cas d’IOL, l’outil décrit permettrait d’intercepter les communications électroniques d’un quartier, d’une ville, d’une région ou un protocole spécifique. Ce n’est pas du systématique, comme le fait la NSA, mais c’est une capacité d’interception qui peut très vite glisser vers du massif qui a été installée en cœur de réseau chez tous les grands opérateurs. Les mots ont un sens… « Quelques faucons dans les cabinets ministériels se sont dit qu’il y avait matière à mutualiser l’infra existante pour faire de l’analyse de trafic à la volée, ils ont vu que dans la série « 24 heures » ça se faisait… », indique un brin acide un responsable d’un opérateur qui a vécu l’installation du projet.
Sur Mediapart, Jérôme Hourdeaux insiste bien sur le fait que, malgré le terme d'« interception », ce sont les métadonnées qui sont visées par ces outils, sans toutefois pouvoir préciser lesquelles (mais Qosmos se vante du fait que ces sondes permettent de flasher toutes sortes de protocoles et de données qui donnent des informations extrêmement détaillées sur les activités des internautes, et notamment les sites visités ou l'utilisation de Tor). Le journaliste ajoute également : « L’ancien haut cadre d’un opérateur nous confirme que le programme était bien encore actif en 2013-2014. En revanche, le dispositif a de fortes chances d’être ensuite devenu obsolète, tout d’abord pour des raisons techniques liées à l’évolution du réseau internet. Ensuite en raison du vote de la loi sur le renseignement, instituant le dispositif des boîtes noires. »
Le propos se veut rassurant, mais la source ne semble pas avoir été très disserte sur le sujet… Reflets.info relaie les mêmes informations. Toujours selon leurs sources :
Cette infrastructure était inopérante pour du massif. Pour plusieurs raisons : « L’une étant l’évolution des infrastructures, une autre étant le volume important du trafic chiffré et enfin, la dernière étant qu’il existe une grosse différence entre un démonstrateur (une maquette) et la vraie vie.
Ailleurs dans l'article, la question de l'état actuel de cette infrastructure de surveillance reste ouverte. Selon Reflets : « Qosmos indique s’être retirée du marché de l’interception légale en 2012. Qui entretient aujourd’hui l’infrastructure technique IOL mise en place ? Mystère… ».
Résumons : dans les DSLAM des grands opérateurs télécoms, des sondes DPI ont été expérimentées pour intercepter des métadonnées « piochées » dans le trafic. Or, au départ, en 2009, ces engins semblent avoir été autorisés en vertu de la mesure de surveillance réputée la plus intrusive autorisée en droit français : les interceptions de sécurité (et donc l'interception de tout le trafic d'une cible, métadonnées et contenu compris, l'équivalent d'une écoute téléphonique pour Internet qui, rappelons-le, englobe bien plus que des communications interpersonnelles, mais dont une partie du trafic est effectivement chiffré). Comme le remarquent à l'époque les journalistes, il s'agit bien de sollicitation du réseau en temps réel, et donc de ce qu'a légalisé en 2013 la LPM. Sauf que dans la LPM, il n'est plus question d'interceptions de sécurité, mais de l'accès aux « seules » métadonnées.
Cela pose deux questions :
Celle de la base juridique avant 2013, d'abord. Il faut savoir que l'une des limites des interceptions pour les services est que la loi plafonne à un peu plus de 2000 le nombre d'interceptions de lignes que les différents services de renseignement peuvent pratiquer en simultané. Une limite qui a des raisons sans doute budgétaires, mais aussi politiques, car ce quota permet de limiter le recours à ces pratiques très intrusives.
Or, l'accès aux données de connexion n'est pas soumis à un tel plafond. Ce qui invite à faire l'hypothèse suivante : les sondes IOL ont pu rapidement être utilisées pour faire de la surveillance en temps réel des données de connexion, avec comme base juridique non plus les interceptions de sécurité, mais à la fois la loi de 2006 (accès aux données de connexion pour le terrorisme) et d'un article, le L. 244-2, datant de 1991 détourné, qui permettait aux services, pour « la défense des intérêts nationaux » (c'est-à-dire tout et n'importe quoi) de « requérir des opérateurs » les informations et documents, soi-disant en vue de réaliser une interception, le tout sans qu'aucune autorisation préalable ne soit nécessaire ! Par ce détour, les services pouvaient donc s'émanciper du quota et commencer à massifier le nombre de données de connexion ciblées en temps réel avec leurs sondes Qosmos. C'était très bancal juridiquement, d'où la nécessité de faire adopter rapidement la LPM pour consacrer le principe d'un accès en temps réel plutôt qu'a posteriori, pour toutes les missions incombant aux services et non plus la seule lutte antiterroriste.
Deuxième question : quelles sont les métadonnées auxquelles la LPM permet d'accéder à travers les sondes IOL placées sur les réseaux des FAI ? Les journalistes ne s'étendent pas trop là-dessus (peut-être est-ce clair pour eux, compte tenu de la nature des outils DPI ?). S'agit-il seulement des métadonnées traitées ou conservées par les FAI ? Logiquement, en droit, on aurait tendance à dire que oui. Sauf que des interprétations illogiques sont possibles : on a vu que la LPM puis la loi renseignement parlent systématiquement des données traitées ou conservées par les FAI ou les hébergeurs. Tout est mis dans le même sac. Rien ne dit clairement que, pour accéder aux métadonnées des FAI, il faille aller voir les FAI ; que pour accéder à celles des hébergeurs, il faille demander aux hébergeurs.
2.3 Repérer les métadonnées des hébergeurs dans le trafic des opérateurs
Du coup, mon interprétation est la suivante. Les services peuvent, directement depuis les réseaux des FAI et via ces sondes installées dans les DSLAM, scanner légalement l'ensemble du trafic à la recherche de ces identifiants, ou « sélecteurs », comme dans l'exemple néerlandais.
Pour passer de l'interprétation « naïve » à la seconde interprétation, il a suffit de se rendre compte que la loi est suffisamment ambiguë pour permettre aux services de rechercher les métadonnées des hébergeurs dans le trafic des opérateurs. Ou, en d'autres termes, que la loi ne va pas clairement dans le sens de l'interprétation dominante calée sur la réalité technique, à savoir que les métadonnées des hébergeurs sont en réalité le contenu du trafic des opérateurs. Pour user d'une analogie postale, la loi n'interdit pas que l'« enveloppe » gérée par les hébergeurs soit accessible depuis les réseaux des opérateurs, quand bien même celle-ci représente pour eux du contenu qu'ils ont pour mission d'acheminer d'un point à l'autre de leurs réseaux.2
Tout le monde – ou presque : des gens comme l'ancien ministre Jean-Jacques Urvoas, le Conseil d'État ou le Conseil constitutionnel font encore de la résistance – considère aujourd'hui que surveiller les métadonnées, ça n'est pas en tant que tel moins intrusif que de surveiller du contenu. De plus, la métadonnée, c'est une notion toute relative. Le plus souvent, la métadonnée d'un intermédiaire technique constitue le contenu des communications acheminées par un autre.
La faille juridique béante à côté de laquelle nous sommes passés jusqu'à présent tout en tournant autour en permanence, c'est le fait que la loi ne dit pas clairement à quel endroit de l'infrastructure les services peuvent accéder à quelles métadonnées. Il est ainsi possible de cibler des identifiants associés à un service en ligne, qu'il va s'agir de repérer à la volée dans le trafic à l'aide d'une sonde installée dans un DSLAM – par exemple, quelle IP utilise tel protocole de chiffrement suspect, au hasard Tor. Avouons que c'est quand même beaucoup plus pratique, et moins cher, de traiter directement avec quatre opérateurs télécoms (peut-être un peu plus) pour surveiller en temps réel l'ensemble des données de connexion des hébergeurs, plutôt que d'avoir à s'adresser à des entreprises américaines les unes après les autres.
2.4 Le gouvernement gourmand
Après avoir débattu avec les amis Exégètes de cette lecture, ils sont retournés lire les décrets d'application de la loi renseignement. Et ils se sont rendus compte que, plutôt que de résoudre l’ambiguïté législative, le gouvernement avait choisi de l'exploiter jusqu'au bout. Ainsi, à travers le décret n°2016-67, a été créé l'article R. 851-5-1. Cette disposition réglementaire se départit des décrets de 2006 et de 2011 pour définir les données de connexion accessibles en temps réel ou via les boîtes noires (article L. 851-2 et L. 851-3). Ces données sont celles :
Permettant de localiser les équipements terminaux ;
Relatives à l'accès des équipements terminaux aux réseaux ou aux services de communication au public en ligne ;
Relatives à l'acheminement des communications électroniques par les réseaux ;
Relatives à l'identification et à l'authentification d'un utilisateur, d'une connexion, d'un réseau ou d'un service de communication au public en ligne ;
Relatives aux caractéristiques des équipements terminaux et aux données de configuration de leurs logiciels.
Rien que ça… Le gouvernement réintroduit des définitions des catégories de données concernées encore plus vagues qu'avant (la CNCTR elle, refuse d'en dire plus sur ce que recouvre précisément ces catégories, invoquant le secret défense), il fusionne deux régimes réglementaires qui étaient auparavant définis de manière distincte, et là encore, tout le monde ou presque était passé à côté (et ce même si la volonté du gouvernement d'élargir le champ des données de connexion était apparue au détour d'un avis de la CNCTR sur les décrets et avait fait débat).
Grâce aux Exégètes, on verra prochainement si le Conseil d'État estime cette disposition réglementaire conforme à la Constitution. Mais cette nouvelle découverte, qui sera détaillée dans un mémoire en cours de finalisation, tend à confirmer la lecture proposée ici : tout en jouant de l’ambiguïté, la LPM puis la loi renseignement, et plus encore un des décrets d'application de celle-ci, ont eu pour but de légaliser l'usage des sondes DPI pour le trafic Internet français. Et ce décret, en fusionnant les deux catégories de métadonnées (FAI / hébergeurs), a pour effet de conforter l'interprétation de la loi selon laquelle les métadonnées traitées par les hébergeurs peuvent être scrutées à partir du réseau des FAI via ces sondes (pour les services, cela a le mérite de la clarté, notamment au cas où un FAI ou un hébergeur s'opposerait à l'installation du DPI sur son réseau en arguant du fait qu'il n'est tenu de permettre l'accès qu'à « ses » métadonnées).
2.5 Qu'est-ce qu'une cible ?
Cette interprétation du couple droit/technique est également confortée par la découverte d'une autre faille juridique de la loi renseignement, dont je ne crois pas qu'elle ait été abordée jusqu'ici, et qui pourrait nous réserver des surprises à l'avenir.
Selon Reflets, toujours sur les sondes Qosmos :
Si la bonne utilisation était, selon les documents de Qosmos, plutôt de définir une cible, et de donner pour instruction à l’ensemble des sondes de repérer et collecter le trafic de cette cible, était-elle, forcément humaine ? Si la cible est par exemple un réseau social ou un type de comptes mails (Yahoo Mail, Gmail,…), ou encore un protocole (IRC, SIP, Jabber…), on peut très vite franchir une ligne rouge.
D’autant que le document de Qosmos précise qu’il est possible de définir comme cible… des plages d’adresses entières. Et pas seulement des plages de 254 adresses IP… Le document évoque des classes B, soit 65 534 IPs simultanées. Insérer une telle fonctionnalité (qui permet du massif) pour ne pas s’en servir semble pour le moins incongru.
Là, l'auteur fait l'hypothèse que la notion de cible a pu renvoyer à l'interception de tout le trafic en direction d'un gros fournisseur de service, par exemple Gmail, à l'échelle d'un ou plusieurs DSLAM (dont le trafic Gmail de milliers de personnes). Il rappelle à cet égard que, dans le paramétrage de ces outils, il était possible de scanner le trafic non pas d'un seul abonné (défini par son adresse IP), mais de dizaines de milliers d'abonnés simultanément.
Or, il y a un bout dans la loi renseignement dont on n'a pas assez parlé : dans le 6° de l'article L. 821-2 qui décrit ce que doivent contenir les demandes d'autorisation envoyées pour avis à la CNCTR pour toute mesure de surveillance, il est écrit que chaque demande doit préciser « la ou les personnes visées ».
Juste en dessous, il est précisé : « pour l'application du 6°, les personnes dont l'identité n'est pas connue peuvent être désignées par leurs identifiants ». La manière dont on lit ça d'habitude, en mode naïf, c'est que les services ont obtenu d'une manière ou d'une autre soit nom et prénom, soit une adresse IP. Sur cette base, ils obtiennent ensuite une autorisation d'interception correspondant à cet abonné, puis vont poser une « bretelle » pour intercepter son trafic dans le DSLAM le plus proche de son point d'accès. Et effectivement, cela peut correspondre à plusieurs personnes, puisque dans le cas d'une entreprise, d'une association, ou tout simplement d'un foyer, plusieurs personnes utilisent le même abonnement. D'où cette idée qu'une demande de surveillance ciblée puisse viser plusieurs personnes. Circulez il n'y a rien à voir.
Vraiment ?
Une autre lecture est possible. Selon cette lecture, dans les autorisations, la ou les cibles peuvent être désignées par un ou plusieurs « identifiants » – en pratique des métadonnées traitées soit par les FAI – par exemple une adresse IP ou une adresse MAC –, soit par les fournisseurs de service – des protocoles spécifiques, voire une adresse mail, un pseudo, un mot de passe, etc. Ces identifiants sont autant de « sélecteurs » permettant de viser non pas des personnes véritablement, mais des patterns de communication dignes d'intérêt pour les services. En renvoyant à des identifiants plutôt qu'à des abonnés, la loi permet d'élargir la logique exploratoire des boîtes noires aux interceptions, et d'ainsi contourner la limitation de la disposition « boîtes noires » à la lutte antiterroriste.
En résumé, avec cette lecture, qui abolit la distinction métadonnées du FAI / métadonnées des hébergeurs, autorise le recours au DPI :
La LPM puis la loi renseignement ont ainsi radicalement transformé la base juridique des utilisations possibles des sondes DPI, en permettant de sortir cette forme de surveillance très intrusive des quotas associés aux interceptions.
Cette forme de surveillance des données de connexion permet en théorie de dresser beaucoup plus facilement la cartographie sociale d'un individu (non seulement quels serveurs il visite, les services qu'il utilise mais aussi, à supposer que ces identifiants ne soient pas chiffrés, avec qui il échange des mails, converse sur les réseaux sociaux et autres forums, quels sont ses mots de passe, etc.).
La détection via les boîtes noires (article L. 851-3) permet donc bien de faire depuis les réseaux des FAI ce que Le Drian et Bajolet expliquaient au printemps 2015 (sans cibler un individu particulier, paramétrer l'ensemble des sondes posées sur les 6000 DSLAM pour repérer des « comportements suspects » à l'échelle du territoire).
Hors du champ du terrorisme, une surveillance exploratoire du même type est légalement possible via les interceptions de sécurité (L. 852-1) : sur cette base juridique qui autorise à surveiller le contenu des correspondances et les métadonnées à la fois, les services peuvent en effet choisir de se concentrer uniquement sur ces dernières en utilisant les sondes DPI. Cela semble cependant ne plus être possible pour la surveillance en temps réel, pour laquelle l'article L. 851-2 parle de « personnes préalablement identifiées » en lien avec une menace terroriste et, désormais, d'autorisations accordées « individuellement » pour l'entourage de ces personnes. Ce vocable fait notamment suite à notre QPC remportée dans ce dossier cet été, le gouvernement ayant amendé la loi sur le terrorisme du 30 octobre 2017 pour soumettre cette disposition à un contingentement (quotas), et ainsi l'aligner sur les interceptions de sécurité.
Bref, cette lecture permet d'expliquer beaucoup de choses qui restaient un peu floues, même si bien des questions demeurent sur l'interprétation précise des dispositions (par exemple, quelle est la jurisprudence de la CNCTR concernant la nature ou le nombre maximal de cibles pouvant être désignées dans une autorisation ? Pour les interceptions de sécurité « exploratoires », une seule autorisation suffit-elle pour rechercher ces sélecteurs dans l'ensemble des sondes ou faut-il une autorisation par DSLAM/opérateur/… ?).
Ce qui est sûr, c'est que lu à cette lumière, le droit français contredit l'esprit de la jurisprudence de la Cour européenne des droits de l'Homme. Cette dernière indique en effet dans une affaire récente (affaire Zakharov) que « le contenu du mandat d’interception doit désigner clairement la personne précise à placer sous surveillance ou l’unique ensemble de locaux (lieux) visé par l’interception autorisée par le mandat » (§264). Elle ajoute en outre que le contrôle des autorisations « doit être à même de vérifier l’existence d’un soupçon raisonnable à l’égard de la personne concernée, en particulier de rechercher s’il existe des indices permettant de la soupçonner de projeter, de commettre ou d’avoir commis des actes délictueux ou d’autres actes susceptibles de donner lieu à des mesures de surveillance secrète, comme par exemple des actes mettant en péril la sécurité nationale » (§260).
3. Illustrations : hypothèses sur le fonctionnement du couple droit/technique
À partir de tous ces développements, j'essaie dans cette partie d'illustrer les conséquences techniques et opérationnelles de cette interprétation du droit, en tâchant de garder à l'esprit la contrainte que représente l'augmentation du trafic chiffré ces dernières années, puisqu'il tend à masquer un grand nombre de métadonnées très signifiantes pour les services (notamment celles des grandes plateformes).
3.1 Scénario hors lutte antiterroriste
Les services envoient leur demande d'autorisation au premier ministre, qui saisit la CNCTR pour avis. Ils indiquent en substance que les perquisitions effectuées sur le matériel informatique d'un individu condamné pour violence volontaire contre les forces de l'ordre lors des manifestations contre la loi Travail montrent qu'il a communiqué avec X via Signal. « On suspecte X de prendre part à un groupe de black bloc et on a de fortes raisons de penser qu'il est situé dans une zone géographique proche d'un de ces 20 DSLAM, qui correspondent à la ville dans laquelle le groupe en question se réunit. »
En réponse à cette demande d'autorisation, la CNCTR délivre vingt autorisations d'interceptions de sécurité « exploratoires », soit une par DSLAM sur la zone considérée, sachant que chaque sonde peut être paramétrée pour surveiller des milliers d'IP. Grâce aux sondes installées dans ces DSLAM, les services cherchent des adresses IP ayant pour caractéristiques d'utiliser fréquemment les protocoles Signal et Tor et de consulter plusieurs serveurs caractéristiques des milieux visés. Ils identifient ainsi rapidement trois adresses IP suspectes.
Une autorisation de la CNCTR permet de procéder à l'identification des abonnés correspondant à ces 3 adresses IP (accès administratif aux données de connexion du FAI qui a atttribué les IP en question). Elles relèvent toutes les trois du même abonné (IP dynamique). Le suspect est identifié comme Camille George, habitant au 3 rue de la Libération à Nantes. Après avoir envisagé d'aller sonoriser l'appartement du suspect – pratique légalisée par la loi renseignement –, les services préfèrent procéder à une nouvelle interception. Cette fois, on connaît précisément la cible, et ce n'est plus une surveillance exploratoire mais une interception détaillée de ses communications téléphoniques et Internet. Deux autorisations d'interceptions sont délivrées par la CNCTR pour quatre mois renouvelables.
3.2 Scénario lutte antiterroriste
Les services ont arrêté deux individus suspectés de projeter un attentat dans un quartier de Marseille. Ils ont saisi leur matériel informatique et ont récupéré des pseudos des contacts Facebook avec lesquels ils ont échangé des messages instantanés. Ils ont des raisons de penser que certains de ces individus leur ont apporté un soutien en France, tandis que d'autres sont en Syrie et ont rejoint l'EI. Ces communications Facebook passent toutes par des serveurs de l'entreprise situés hors du territoire national, et entrent donc dans le champ des communications transfrontalières visées dans les dispositions sur la surveillance internationale (lesquelles permettent à la DGSE d'intercepter largement le trafic IP transfrontalier et d'exploiter tant les métadonnées que le contenu des messages, le cas échéant après l'avoir déchiffré).
Déjà autorisée à surveiller toutes les communications des personnes situées en Syrie en direction des serveurs de Facebook aux fins de lutte contre le terrorisme, la DGSE met immédiatement en place une surveillance exploratoire visant à repérer les communications stockées et déchiffrées impliquant ces identifiants, pour tenter de repérer toutes les communications mentionnant ces pseudos, ainsi que toutes les autres métadonnées associées à ces paquets IP (adresses mails, compte Twitter, etc.). Grâce aux outils Big Data mettant en rapport ces différents sélecteurs, la DGSE dresse rapidement le graphe social de ces personnes.
Cela confirme que plusieurs de ces identifiants correspondent à des personnes situées en Syrie. Grâce au trafic intercepté et déchiffré, la direction technique de la DGSE est capable de faire ressortir le contenu de plusieurs messages Facebook échangés par ces personnes avec leurs correspondants. Ces messages laissent notamment appraître un identifiant utilisé sur un forum prisé des milieux terroristes, mais aussi les noms et prénoms de quatre personnes résidant en France.
Pour ces résidents français, c'est la DGSI qui prend le relais. Après l'envoi de requêtes aux principaux FAI français, on dispose désormais des noms, prénoms et adresses de ces quatre abonnés suspects. L'IP d'une de ces personnes a déjà été repérée à plusieurs reprises comme ayant voulu se connecter à des sites censurés par l'OCLTIC3 (le blocage du site permet en effet de rediriger l'ensemble des requêtes de consultation vers un serveur du ministère de l'Intérieur, et donc de relever des IPs suspectes). Pour cette IP là, la DGSI demande au Ministre qui sollicite l'avis de la CNCTR pour pouvoir passer directement à une interception détaillée de ses communications téléphoniques et Internet. Accordé.
Pour les trois autres abonnés, on passe alors à une surveillance en temps réel du trafic Internet et téléphonique des abonnés. En quatre mois, une seule de ces IP laisse apparaîre des identifiants caractéristiques des milieux terroristes, notamment le protocole du service de messagerie Whatsapp combiné à des IP de serveurs dont on sait qu'ils hébergent des sites faisant l'apologie du terrorisme.
La DGSI veut se concentrer sur les communications Whatsapp de cet abonné. Grâce à une nouvelle autorisation « boîtes noires » (L. 851-3), les sondes à travers le territoire sont paramétrées pour retrouver d'autres paquets contenant le « protocole Whatsapp » de même taille que ceux émis par la cible, et ainsi les corréler rentre eux. On arrive ainsi à repérer certaines des IP correspondant à 12 résidents français avec qui la cible communique via Whatsapp, dont l'un d'entre eux est fiché S. La DGSI demande une interception ciblée du trafic Internet et téléphonique de ce dernier, qui ne fait plus l'objet d'une surveillance active depuis plusieurs mois.
Les 11 autres personnes sont mises sous surveillance en temps réel pendant quatre mois (la loi autorisant la surveillance des n+2 depuis juillet 2016, la CNCTR n'a plus de bonne raison de s'opposer à cette surveillance). Une seule de ces 11 lignes laisse apparaître des communications « suspectes ». Pour l'abonné en question, une interception ciblée est pratiquée. Pour les 10 lignes restantes, la DGSI ne renouvelle pas les autorisations et arrête donc la surveillance, mais conserve à toutes fins utiles les métadonnées récoltées pendant trois ans, tel que la loi l'autorise, dans les bases de données moulinées par les algorithmes de Palantir (le prestataire Big Data de la DGSI depuis fin 2016, notamment pour faire sens des masses de données issues des perquisitions réalisées dans le cadre de l'état d'urgence).
Conclusion
Cette interprétation du droit montre que les boîtes noires soi-disant opérationnelles depuis un mois ne sont pas sorties d'un chapeau. De fait, le renseignement français expérimente depuis des années les logiques de surveillance exploratoires, sondant en profondeur le trafic pour repérer des métadonnées suspectes, et s'est même taillé des règles juridiques sur mesure pour s'y adonner « légalement » sans trop éveiller l'attention.
Au plan juridique, cette analyse permet de comprendre pourquoi le contournement de la jurisprudence de la CJUE sur les métadonnées – laquelle confirme que la surveillance des métadonnées constitue une ingérence différente mais qui n'est pas de moindre ampleur que celle induite par la surveillance du contenu des correspondances – constitue une véritable affaire d'État (Macron a été immédiatement sensibilisé au dossier une fois arrivé au pouvoir, et le Conseil d'État en 2014 allait jusqu'à conseiller d'adopter un protocole interprétatif à la Charte des droits fondamentaux pour contourner cette jurisprudence de la juridiction suprême de l'UE). La CJUE s'oppose également au fait de surveiller – même « passivement » – les communications de personnes sans lien avec une infraction. Là encore, cela s'oppose aux logiques décrites ci-dessus.
De même, au plan technique, on comprend mieux pourquoi le chiffrement déployé ces dernières années par les gros fournisseurs de services pose tant de problème au renseignement, et pourquoi après chaque attentat, le droit au chiffrement est mis en cause – avec en ligne de mire, notamment l'objectif de forcer ces plateformes (Google, Facebook, Twitter et compagnie) à ajuster leurs pratiques en la matière pour ne pas gêner ces formes de surveillance exploratoire (par exemple en s'assurant que les métadonnées qu'ils traitent restent en clair ?).
Bien sûr, compte tenu du secret et des informations parcellaires dont nous disposons, les déductions proposées ici doivent être prises avec des pincettes, et surtout discutées, corrigées, affinées. En pratique, ces systèmes ne sont peut être pas au point pour fonctionner en « grandeur nature » sur un réseau décentralisé comme le réseau IP français, avec désormais plus de la moitié du trafic chiffré, mais qu'en sera-t-il à l'avenir ?
Cela montre en tout cas l'urgente nécessité de faire la transparence sur la nature des outils utilisés par les services de renseignement en matière de surveillance, mais aussi sur l'interprétation que font les services et les autorités de contrôle du droit existant.
1. Cet article, devenu depuis 2015 l'article L. 871-2, permet aux services de solliciter des « informations ou documents » en vue de réaliser une interception. Le rapport indiquait que les services faisaient alors environ 30 000 requêtes par an en vertu de la loi de 2006 (donc dans le cadre de la lutte antiterroriste), contre près de 200 000 requêtes sur la base de cette autre dispositions détournée, et couvrant cette fois-ci l'ensemble du champ d'intervention des services de renseignement – et donc des notions aussi vagues que « la sécurité nationale » ou « la sauvegarde des éléments essentiels du potentiel scientifique et économique de la France ». À peu près tout et n'importe quoi, en somme.
2. Un exemple pour illustrer ce point : j'envoie un email à une amie. Pour mon FAI, mon adresse mail (felix@lqdn.fr) et celle de ma destinataire (sara@gafa.com) sont du contenu, il n'en a pas besoin pour acheminer mes paquets de données. Pour nos fournisseurs de messagerie en revanche, ceux qui hébergent nos mails, nos adresses mail sont bien des métadonnées, ces identifiants sont nécessaires pour que l'on puisse s'échanger nos messages.
3. Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) est l'organisme de la police française dédié à la lutte contre la cybercriminalité.
";s:7:"content";s:66016:"
Analyse de Félix Tréguer, membre fondateur de La Quadrature du Net et chercheur.
Après avoir fait couler beaucoup d'encre en 2015 lors de l'adoption de la loi renseignement, ces sondes dédiées à la surveillance en temps réel des communications Internet de millions de résidents français sont désormais employées légalement par les services dans le but de repérer certaines communications « suspectes ». C'est ce qu'a annoncé Francis Delon, le président de la Commission nationale de contrôle des techniques de renseignement (CNCTR) lors d'un colloque mardi 14 novembre à Grenoble.
Sauf que cette annonce est l'arbre qui cache la forêt. On nous explique que le « contenu » des communications n'est pas concerné, et que le secret des correspondances est donc sauf. Mais lorsqu'on lit entre les lignes de la loi et que l'on suit les quelques journalistes d'investigation qui planchent sur le sujet, il est clair que le droit français cherche depuis 2013 à légaliser l'usage des techniques de « Deep Packet Inspection », lesquelles constituent en fait le point d'articulation entre différentes logiques du renseignement technique contemporain.
Jusqu'à présent, chez les défenseurs des libertés publiques intéressés par le renseignement – militants, juristes, universitaires, etc. –, nous étions nombreux à suspecter le recours à de telles techniques de surveillance sans comprendre précisément comment elles pouvaient s'inscrire dans le cadre juridique. En réalité, certaines ambiguïtés légistiques faisaient obstacle à la compréhension de l'articulation droit/technique, faute de transparence sur la nature des outils techniques utilisés par les services et leurs usages.
Or, compte tenu des informations révélées par Reflets.info et Mediapart l'an dernier sur des sondes DPI installées dès 2009 chez les grands fournisseurs d'accès français, on peut raisonnablement penser que les « boîtes noires » sont en réalité déjà expérimentées depuis longtemps.
Certes, l'efficacité opérationnelle de tels outils reste à démontrer, compte tenu notamment de l'augmentation du trafic Internet chiffré ces dernières années. Mais depuis 2013, et plus encore depuis 2016, le droit français autorise ces sondes à scanner le trafic d'une grande part de la population pour « flasher » depuis les réseaux des opérateurs télécoms français certains « sélecteurs » : il peut s'agir de données de connexion traitées par les FAI (notamment l'IP d'origine, l'IP de destination), mais aussi toutes sortes de métadonnées décelables dans ce trafic et traitées par les serveurs consultés, notamment les « protocoles » associés à certains services en ligne et des identifiants non chiffrés (pseudos, hash de mots de passe, etc.). À travers cette analyse du trafic Internet, les services peuvent repérer des cibles, voire même dresser des graphes sociaux détaillés (qui communique avec qui, quand, à l'aide de quel service en ligne, etc.).
Le mécanisme juridique qui permet ces formes de surveillance sur le territoire repose sur l'exploitation stratégique par les services de renseignement de la distinction entre métadonnées et contenu des communications : au lieu de considérer les identifiants associés aux services en ligne comme le contenu des communications acheminées par les FAI – ce qu'ils sont au plan technique –, ces identifiants contenus dans les paquets conservent le statut juridique de métadonnées, et peuvent ainsi être collectés à l'aide d'outils DPI.
Inaugurée en 2013 par la LPM (Loi de programmation militaire) et reconduite par la loi renseignement pour la lutte antiterroriste, cette surveillance en temps réel des identifiants contenus dans les communications Internet permet aux services de massifier la surveillance, en contournant les quotas prévus en matière d'interceptions de sécurité (plafond de 2000 interceptions simultanées, pour cette technique qui permet de collecter les métadonnées et le contenu des messages).
Ce texte revient sur cette construction juridique en lien avec l'évolution des techniques de renseignement, et tente d'illustrer la manière dont elle permet de combiner une surveillance automatisée et exploratoire à travers des outils Big Data et des interceptions « ciblées » de l'ensemble du trafic de cibles précisément identifiées. Mais avant d'entrer dans le vif du sujet, revenons sur certains éléments de contexte.
1. Éléments de contexte
1.1 Le renseignement et l'exploitation des failles juridiques
D'abord, il faut bien avoir en tête que les services sauront s’immiscer dans n'importe quelle petite faille juridique pour trouver une assise juridique à des outils techniques et des pratiques policières très contestables, mais sur lesquelles – faute d'un Snowden à la française (et malgré certaines enquêtes journalistiques qui ont fait sensation) – même les gens qui suivent le sujet d'assez près se heurtent au secret d'État.
On a donc tendance à se rendre compte bien tard de ces failles juridiques et de la manière dont elles sont exploitées au plan opérationnel, et on se demande alors comment on a pu passer à côté tout ce temps-là. Cette mauvaise articulation des raisonnements entre droit et outils techniques contribue à ce que les droits fondamentaux aient toujours plusieurs trains de retard sur les pratiques de surveillance.
Il y a plein d'exemples de ce que je décris ici, comme la surveillance hertzienne inaugurée en 1991. Je vais en détailler un autre, parce qu'il est essentiel à la démonstration, et il est central pour les enjeux contemporains de la surveillance en France. Il concerne l'accès administratif aux informations et documents détenus par les opérateurs télécoms et hébergeurs.
1.2 L'exemple de l'accès aux métadonnées
Pour rappel, l'obligation de conservation des données de connexion (souvent synonyme d'un autre terme bien plus vague sur lequel on va revenir, celui d'« informations et documents » détenus par les intermédiaires technique) date au plan législatif de 2001 pour les opérateurs, de 2004 pour les fournisseurs de services en ligne (c'est-à-dire des personnes physiques ou morales qui mettent à disposition du public des services de communication au public en ligne et stockent des données : hébergeur, réseau social, forum, site de eCommerce, fournisseur public de messagerie, etc.).
Rappelons aussi quelques unes des données concernées par ces obligations de conservation – c'est important pour la suite.
Pour les opérateurs télécoms et FAI :
les informations permettant d'identifier l'utilisateur (les noms, prénoms et adresse données par l'abonné à son FAI) ;
les caractéristiques techniques ainsi que la date, l'horaire et la durée de chaque communication (quelle adresse IP était donnée à qui, à quelle date pendant combien de temps) ;
les données relatives aux équipements terminaux de communication utilisés (adresse MAC, des données relatives à des cookies ou autres identifiants de session détenus par le FAI) ;
les données permettant d'identifier le ou les destinataires de la communication (a priori pour Internet, l'IP de destination, mais on a des doutes sur le fait que techniquement les FAI acceptent de stocker tout ça, car toutes les IP consultées par toute la population française, ça fait beaucoup de données et donc ça coûte cher à conserver. Bref, on est pas sûr – et en soit cette incertitude est déjà révélatrice d'un vrai problème –, mais on peut faire l'hypothèse que les FAI ne les conservent pas, en tout cas pas par défaut).
Pour les hébergeurs / fournisseurs de service en ligne :
l'identifiant de la connexion à l'origine de la communication (on comprend que c'est ce qu'on appelle vulgairement le log in : ça peut être l'alias Twitter, l'adresse mail pour se connecter à sa messagerie, son identifiant Facebook, etc.) ;
les types de protocoles utilisés pour la connexion au service (Gmail, Facebook, Telegram, Tor et quantité d'autres services en ligne ont des protocoles spécifiques qui sont en quelque sorte leurs signatures) ;
le mot de passe (a priori hashé, dans un format qui ne permet pas de retrouver le mot de passe, mais au moins de vérifier sa signature, son empreinte).
L'accès à ces données de connexion a été ouvert aux services en 2006 pour la seule lutte antiterroriste et pour les seuls opérateurs télécoms. Des techniciens au fait de ces histoires nous expliquaient que les opérateurs ne conservaient pas les IP consultées. Cet accès aux données de connexion était donc uniquement censé permettre d'identifier des suspects de terrorisme dont on aurait récupéré l'adresse IP, en demandant au FAI les noms et prénoms correspondant à cette IP. Pas si choquant me direz-vous. C'est vrai, surtout en comparaison des choses révélées ces dernières années, notamment par Snowden.
Mais dans un rapport de l'Assemblée nationale publié en mai 2013, soit juste avant le début des révélations Snowden, il était écrit que pour contourner cette restriction du décret de 2006 et accéder aux métadonnées pour d'autres motifs que l'antiterrorisme, les services s'appuyaient sur une disposition, l'article L. 244-2 du code de la sécurité intérieure, créé en 1991.1
1.3 La LPM : blanchiment législatif de l'illégal
C'est précisément ce détournement que la LPM a permis de légaliser, quelques mois plus tard, en élargissant drastiquement la manière dont les services pouvait accéder à ces données : non plus pour la seule lutte antiterroriste, mais pour l'ensemble de leurs missions. Première rupture juridique.
Pour les finalités énumérées à l'article L. 241-2, peut être autorisé le recueil, auprès des opérateurs de communications électroniques et des personnes mentionnées à l'article L. 34-1 du code des postes et des communications électroniques ainsi que des personnes mentionnées aux 1 et 2 du I de l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, des informations ou documents traités ou conservés par leurs réseaux ou services de communications électroniques, y compris les données techniques relatives à l'identification des numéros d'abonnement ou de connexion à des services de communications électroniques, au recensement de l'ensemble des numéros d'abonnement ou de connexion d'une personne désignée, à la localisation des équipements terminaux utilisés ainsi qu'aux communications d'un abonné portant sur la liste des numéros appelés et appelants, la durée et la date des communications [cet article a été repris par la loi renseignement et est aujourd'hui à l'article L. 851-1 du CSI.
À quoi renvoie ce terme d'« informations et documents » ? On s'en est beaucoup inquiétés à l'époque de l'examen de la LPM, car nous trouvions l'expression extrêmement vague. Mais le gouvernement et les parlementaires qui soutenaient le texte tentaient de nous rassurer en disant qu'il s'agissait un vocable ancien, datant de la loi de 1991, qu'il renvoyait simplement aux métadonnées, et non pas aux informations ou documents contenus dans les messages.
Résumons donc cette deuxième rupture juridique : les services peuvent désormais accéder non plus aux données des seuls opérateurs télécoms, mais aux « informations et documents » non seulement conservés mais également « traités » par les opérateurs télécoms ou fournisseurs de service, notamment des données relatives aux « identifiants de connexion » (des log-in, typiquement) ou à la géolocalisation des terminaux.
Ces données sont donc « recueillies » sur demande des services, notamment via ce qui constitue la troisième rupture juridique introduite par la LPM : il ne s'agit plus seulement d'accéder a posteriori aux données conservées par les intermédiaires techniques (FAI et hébergeurs donc), mais également « en temps réel » sur « sollicitation du réseau » :
Art. L. 246-3.-Pour les finalités énumérées à l'article L. 241-2, les informations ou documents mentionnés à l'article L. 246-1 peuvent être recueillis sur sollicitation du réseau et transmis en temps réel par les opérateurs aux agents mentionnés au I de l'article L. 246-2 ».
Là encore, cela nous avait beaucoup inquiété, sans qu'on réussisse bien à comprendre ce qui se jouait là.
Un an plus tard, en catimini le 24 décembre 2014, le gouvernement fait paraître le décret d'application. Ouf ! Les « informations et documents » sont bien limités aux métadonnées, leur définition n'est pas élargie par rapport aux décrets de 2006 et 2011, comme la loi pouvait pourtant y inviter. En effet, le décret précise (R. 241-1 CSI ) :
Pour l'application de l'article L. 246-1, les informations et les documents pouvant faire, à l'exclusion de tout autre, l'objet d'une demande de recueil sont ceux énumérés aux articles R. 1013 et R. 10-14 du code des postes et des communications électroniques et à l'article 1 er du décret n° 2011-219 du 25 février 2011 modifié relatif à la conservation et à la communication des données permettant d'identifier toute personne ayant contribué à la création d'un contenu mis en ligne.
Une autre disposition précise qu'il peut s'agir aussi de données de gélolocalisation des terminaux. Quant à la notion de « sollicitation en temps réel » du réseau, là encore, la CNIL – consultée pour avis sur le décret, se dit satisfaite. Marc Rees écrit à l'époque :
Le décret prévoit ici que cette sollicitation « est effectuée par l'opérateur qui exploite le réseau », et non pas par les autorités elles-mêmes. La CNIL estime dès lors que cette formulation « interdit toute possibilité d'aspiration massive et directe des données par les services concernés et, plus généralement, tout accès direct des agents des services de renseignement aux réseaux des opérateurs, dans la mesure où l'intervention sur les réseaux concernés est réalisée par les opérateurs de communication eux-mêmes. »
À ce moment-là, les opposants à la LPM sont en quelque sorte rassurés – le décret pose plein de problèmes, mais la surveillance massive semble désormais impossible.
1.4 Le coup de toilette de la loi renseignement
Six mois plus tard, la version promulguée en juillet 2015 de la loi renseignement reprend le vocable de la LPM mais réorganise l'accès aux métadonnées comme suit :
L 851-1 : accès a posteriori aux métadonnées conservées par les FAI et hébergeurs et aux données de gélolocalisation ;
L 851-2 : accès en temps réel aux métadonnées des FAI et hébergeurs pour les personnes « susceptibles d'être en lien avec une menace » terroriste (alors que dans la LPM, c'était pour l'ensemble des finalités) ;
L 851-3 : boîtes noires : aka traitements automatisés des métadonnées, conservées par les FAI ou hébergeurs, pour repérer des communications suspectes en lien avec le terrorisme ;
L 851-4 : géolocalisation en temps réel des terminaux.
À bien des égards, la loi renseignement apporte des garanties supplémentaires par rapport à la LPM : « normalisation » des procédures de contrôle préalables sous l'égide de la CNCTR pour l'accès aux métadonnées (plus simplement une personnalité qualifiée qui autorise), restriction de l'accès en temps réel et des boîtes noires à la seule lutte antiterroriste. Comme si les responsables des services avaient eu peur de ce que la loi les autorisait à faire… Ou comme si certains au sein de l'État avaient voulu remettre un peu de mesure dans l'utilisation de dispositifs de surveillance extrêmement intrusifs.
2. De la difficulté de comprendre comment le droit marche en pratique
Depuis le vote de la loi renseignement, les Exégètes amateurs (groupe d'action contentieuse commun aux associations La Quadrature du Net, FDN et Fédération FDN) ont déposé plusieurs recours devant le Conseil d'État qui touchent à l'ensemble de la loi.
Après une QPC remportée sur la question de la surveillance hertzienne en octobre 2016, le Conseil constitutionnel nous a donné gain de cause sur un autre recours relatif à l'accès en temps réel aux données de connexion. La disposition avait déjà été validée dans la décision du Conseil sur la loi renseignement en juillet 2015, mais un an plus tard, après les attentats de Nice, elle a été élargie non seulement aux personnes susceptibles d'être en lien avec une menace, mais à leur entourage, et aux personnes en lien avec cet entourage (les « n + 2 »). Les n+2 de 11 000 fichés S, ça fait potentiellement des centaines de milliers de personnes. Beaucoup de monde donc.
2.1 L'exemple de la QPC sur la surveillance en temps réel
Ce à quoi nous nous heurtions dans nos raisonnements dans ce dossier, c'est la manière dont le droit est mis en musique au plan opérationnel. Par exemple, on comprenait bien l'intérêt pour la surveillance en temps réel des métadonnées téléphoniques, et en soi, c'est déjà extrêmement intrusif. En gros, la loi donne accès en temps réel au journal d'appel détaillé des personnes visées. Plutôt que de s'embêter à faire une interception ciblée, on recueille en temps réel les métadonnées et on fait le graphe social de la personne – qui elle appelle, qui l'appelle, à quelle heure, combien de temps –, le tout étant automatisé grâce à des outils Big Data. Cela nécessite moins de ressources que d'éplucher le détail des conversations téléphoniques, et c'est donc d'une certaine manière plus efficace.
Mais pour Internet, on était moins sûr. On réfléchissait généralement de cette manière (un raisonnement analogue vaudrait pour les boîtes noires du L. 851-3 CSI) :
côté FAI : les outils de surveillance qui font la sollicitation sont installées sur des bouts de réseau, et interceptent les métadonnées des FAI (et seulement des FAI) : IP d'origine, et peut être IP consultées (mais comme on raisonne à partir des données « conservées », et qu'on ne pense pas que les IP consultées soient conservées par les FAI, on avait en quelque sorte des œillères qui nous faisait penser que ça pouvait ne pas être le cas – on passait à côté du mot « traitées »). Et puis une IP consultée, c'est intéressant mais relativement aléatoire : il peut y avoir derrière une même IP de nombreux services en ligne différents ; ça ne permet pas d'avoir une granularité très fine de qui communique avec qui.
côté hébergeur : dans ce cas, on s'imagine que les outils de surveillance sont installés sur les serveurs pour scanner les communication et repérer les métadonnées. Ici, les métadonnées (protocoles, identifiants, mots de passe, etc.) sont beaucoup plus fines, et donc intéressantes. Mais il y a un problème pratique. Pour des petits hébergeurs, l'intérêt est limité : on voit passer peu de trafic en réalité, il faudrait faire de la surveillance sur des milliers de serveurs pour avoir une masse critique de trafic dans laquelle piocher des choses intéressantes. Pour les gros, genre Google, Facebook, Twitter, c'est évidemment plus intéressant mais ce sont des entreprises américaines, ce qui pose un problème stratégique (risque que les activités de surveillance des services français ne soient accessibles aux agences américaines, par exemple). Cela pose aussi un problème plus politique, car on les voit mal, dans le contexte post-Snowden où ces entreprises cherchent à regagner la confiance des utilisateurs, les voir accepter – même sous la contrainte du droit français – avec les services pour installer des boîtes noires ou faire de la surveillance en temps réel (même si c'est par exemple ce que Yahoo est accusé d'avoir fait pour le compte de la NSA).
S'agissant des boîtes noires, le ministre Jean-Yves Le Drian avait par exemple indiqué lors de l'examen parlementaire de la loi renseignement qu'il s'agissait de repérer des communications suspectes. Bertrand Bajolet, qui a quitté il y a quelques mois la direction générale de la DGSE, avait été plus disert à l'époque: « Il s’agit de détecter certaines pratiques de communication. L’objectif n’est pas de surveiller des comportements sociaux, tels que la fréquentation de telle ou telle mosquée par telle ou telle personne. Mais nous connaissons les techniques qu’emploient les djihadistes pour dissimuler leurs communications et échapper à toute surveillance : ce sont ces attitudes de clandestinité qu’il s’agit de détecter afin de prévenir des attentats (…). »
Sur les attitudes de clandestinité, l'allusion évoque assez directement l'utilisation de solution de chiffrement. Au hasard l'utilisation du réseau Tor.
Mais ce qu'on ne comprenait pas, c'est comment les boîtes noires installées sur les réseaux des FAI pouvaient permettre de déceler ce type de comportements. Il nous semblait que les seules choses que la loi autorisait de faire, c'était de flasher les données de connexion du FAI : l'IP d'origine et éventuellement l'IP consultée, l'adresse MAC, ainsi que d'autres infos dans l'entête des paquets.
On comprenait d'autant moins que dans la jurisprudence constitutionnelle du 24 juillet 2015, suscitée par le tout premier recours des Exégètes, le Conseil constitutionnel avait limité le champ de la notion d'« information et documents » aux articles déjà existants issus des décrets de 2006 et de 2011. Une décision qui semblait aller dans notre sens. Elle rappelle notamment que les données de connexion concernées ne peuvent en aucun cas « porter sur le contenu de correspondances ou les informations consultées », ce qui du point de vue des opérateurs télécoms semble de nature à exclure le DPI.
Et puis dans le même temps, le ministre de l'Intérieur d'alors, un certain Bernard Cazeneuve, nous jurait qu'il était « hors de question » d'utiliser du DPI. Il faut croire qu'on a eu envie de lui laisser le bénéfice du doute.
2.2 Ce qu'on sait des pratiques : DPI or not to be
Pour ma part, c'est la lecture cet été d'un article d'un spécialiste du SIGINT qui tient un blog appelé Electrospaces qui m'a fait tilter. Il y explique que la police néerlandaise, en chasse contre des hackers russes qui faisaient de la fraude bancaire sur Internet, ont recouru à des techniques de Deep Packet Inspection sur l'infrastructure d'un gros hébergeur hollandais utilisée dans le cadre de ces infractions. La nature de l'outil pose question, puisque le DPI permet de rentrer en profondeur et donc de voir le contenu non chiffré des communications – de toutes les communications, y compris celles de personnes sans lien avec l'infraction. Mais c'est la logique qui est intéressante : pour retrouver leurs cibles, les policiers néerlandais sont partis de plus de 400 identifiants utilisés par des cybercriminels russes déjà connus pour voir s'ils les retrouvaient dans le trafic de l'hébergeur.
Or, ces identifiants, quels sont-ils ? Ce sont des logs-ins, ou des pseudos, utilisés par les suspects sur un service de messagerie instantanée appelé ICQ. Les sondes DPI permettaient donc de déceler ces identifiants dans le trafic de l'hébergeur. Ce sont bien des métadonnées qui sont visées : pas celles des opérateurs néerlandais, ni celles de l'hébergeur en question, mais celles de services utilisés en sous-couche dans les paquets de données traités par l'hébergeur.
C'est suite à cela que je suis retourné voir les révélations faites l'an dernier par Mediapart et Reflets.info sur des sondes DPI du prestataire Qosmos qu'auraient fait installer les services intérieurs de renseignement français sur l'infrastructure des quatre grands FAI français (programme IOL, sachant que dans le même temps, la DGSE installait un système similaire sur les câbles internationaux, le marché avec Qosmos portant cette fois le nom de Kairos).
Selon des documents que Mediapart et Reflets ont pu consulter et les personnes qui ont accepté d’évoquer IOL, il s’agit d’un projet d’interception « légale » chez tous les grands opérateurs, soit à peu près 99% du trafic résidentiel. Ce projet a été imaginé en 2005. Le cahier des charges terminé en 2006 et le pilote lancé en 2007. La généralisation à tous les grands opérateurs s’est déroulée en 2009. Dans le cadre de IOL, des « boites noires » avant l’heure étaient installées sur les réseaux des opérateurs, mais ceux-ci n’y avaient pas accès. Il s’agissait d’écoutes administratives commandées par le Premier ministre et dont le résultat atterrissait au GIC.
Selon un document interne de Qosmos, dimensionné pour permettre de l’interception sur 6000 DSLAM [équivalent du central téléphonique pour l'ADSL], IOL, pour Interceptions Obligatoires Légales, pouvait analyser jusqu’à 80 000 paquets IP par seconde. Un DSLAM pouvant accueillir à l’époque entre 384 et 1008 lignes d’abonnés, c’est entre 2,3 et 6,04 millions de lignes qui étaient alors concernées par ce projet pour la seule société Qosmos. Du massif potentiel (…).
Dans le cas d’IOL, l’outil décrit permettrait d’intercepter les communications électroniques d’un quartier, d’une ville, d’une région ou un protocole spécifique. Ce n’est pas du systématique, comme le fait la NSA, mais c’est une capacité d’interception qui peut très vite glisser vers du massif qui a été installée en cœur de réseau chez tous les grands opérateurs. Les mots ont un sens… « Quelques faucons dans les cabinets ministériels se sont dit qu’il y avait matière à mutualiser l’infra existante pour faire de l’analyse de trafic à la volée, ils ont vu que dans la série « 24 heures » ça se faisait… », indique un brin acide un responsable d’un opérateur qui a vécu l’installation du projet.
Sur Mediapart, Jérôme Hourdeaux insiste bien sur le fait que, malgré le terme d'« interception », ce sont les métadonnées qui sont visées par ces outils, sans toutefois pouvoir préciser lesquelles (mais Qosmos se vante du fait que ces sondes permettent de flasher toutes sortes de protocoles et de données qui donnent des informations extrêmement détaillées sur les activités des internautes, et notamment les sites visités ou l'utilisation de Tor). Le journaliste ajoute également : « L’ancien haut cadre d’un opérateur nous confirme que le programme était bien encore actif en 2013-2014. En revanche, le dispositif a de fortes chances d’être ensuite devenu obsolète, tout d’abord pour des raisons techniques liées à l’évolution du réseau internet. Ensuite en raison du vote de la loi sur le renseignement, instituant le dispositif des boîtes noires. »
Le propos se veut rassurant, mais la source ne semble pas avoir été très disserte sur le sujet… Reflets.info relaie les mêmes informations. Toujours selon leurs sources :
Cette infrastructure était inopérante pour du massif. Pour plusieurs raisons : « L’une étant l’évolution des infrastructures, une autre étant le volume important du trafic chiffré et enfin, la dernière étant qu’il existe une grosse différence entre un démonstrateur (une maquette) et la vraie vie.
Ailleurs dans l'article, la question de l'état actuel de cette infrastructure de surveillance reste ouverte. Selon Reflets : « Qosmos indique s’être retirée du marché de l’interception légale en 2012. Qui entretient aujourd’hui l’infrastructure technique IOL mise en place ? Mystère… ».
Résumons : dans les DSLAM des grands opérateurs télécoms, des sondes DPI ont été expérimentées pour intercepter des métadonnées « piochées » dans le trafic. Or, au départ, en 2009, ces engins semblent avoir été autorisés en vertu de la mesure de surveillance réputée la plus intrusive autorisée en droit français : les interceptions de sécurité (et donc l'interception de tout le trafic d'une cible, métadonnées et contenu compris, l'équivalent d'une écoute téléphonique pour Internet qui, rappelons-le, englobe bien plus que des communications interpersonnelles, mais dont une partie du trafic est effectivement chiffré). Comme le remarquent à l'époque les journalistes, il s'agit bien de sollicitation du réseau en temps réel, et donc de ce qu'a légalisé en 2013 la LPM. Sauf que dans la LPM, il n'est plus question d'interceptions de sécurité, mais de l'accès aux « seules » métadonnées.
Cela pose deux questions :
Celle de la base juridique avant 2013, d'abord. Il faut savoir que l'une des limites des interceptions pour les services est que la loi plafonne à un peu plus de 2000 le nombre d'interceptions de lignes que les différents services de renseignement peuvent pratiquer en simultané. Une limite qui a des raisons sans doute budgétaires, mais aussi politiques, car ce quota permet de limiter le recours à ces pratiques très intrusives.
Or, l'accès aux données de connexion n'est pas soumis à un tel plafond. Ce qui invite à faire l'hypothèse suivante : les sondes IOL ont pu rapidement être utilisées pour faire de la surveillance en temps réel des données de connexion, avec comme base juridique non plus les interceptions de sécurité, mais à la fois la loi de 2006 (accès aux données de connexion pour le terrorisme) et d'un article, le L. 244-2, datant de 1991 détourné, qui permettait aux services, pour « la défense des intérêts nationaux » (c'est-à-dire tout et n'importe quoi) de « requérir des opérateurs » les informations et documents, soi-disant en vue de réaliser une interception, le tout sans qu'aucune autorisation préalable ne soit nécessaire ! Par ce détour, les services pouvaient donc s'émanciper du quota et commencer à massifier le nombre de données de connexion ciblées en temps réel avec leurs sondes Qosmos. C'était très bancal juridiquement, d'où la nécessité de faire adopter rapidement la LPM pour consacrer le principe d'un accès en temps réel plutôt qu'a posteriori, pour toutes les missions incombant aux services et non plus la seule lutte antiterroriste.
Deuxième question : quelles sont les métadonnées auxquelles la LPM permet d'accéder à travers les sondes IOL placées sur les réseaux des FAI ? Les journalistes ne s'étendent pas trop là-dessus (peut-être est-ce clair pour eux, compte tenu de la nature des outils DPI ?). S'agit-il seulement des métadonnées traitées ou conservées par les FAI ? Logiquement, en droit, on aurait tendance à dire que oui. Sauf que des interprétations illogiques sont possibles : on a vu que la LPM puis la loi renseignement parlent systématiquement des données traitées ou conservées par les FAI ou les hébergeurs. Tout est mis dans le même sac. Rien ne dit clairement que, pour accéder aux métadonnées des FAI, il faille aller voir les FAI ; que pour accéder à celles des hébergeurs, il faille demander aux hébergeurs.
2.3 Repérer les métadonnées des hébergeurs dans le trafic des opérateurs
Du coup, mon interprétation est la suivante. Les services peuvent, directement depuis les réseaux des FAI et via ces sondes installées dans les DSLAM, scanner légalement l'ensemble du trafic à la recherche de ces identifiants, ou « sélecteurs », comme dans l'exemple néerlandais.
Pour passer de l'interprétation « naïve » à la seconde interprétation, il a suffit de se rendre compte que la loi est suffisamment ambiguë pour permettre aux services de rechercher les métadonnées des hébergeurs dans le trafic des opérateurs. Ou, en d'autres termes, que la loi ne va pas clairement dans le sens de l'interprétation dominante calée sur la réalité technique, à savoir que les métadonnées des hébergeurs sont en réalité le contenu du trafic des opérateurs. Pour user d'une analogie postale, la loi n'interdit pas que l'« enveloppe » gérée par les hébergeurs soit accessible depuis les réseaux des opérateurs, quand bien même celle-ci représente pour eux du contenu qu'ils ont pour mission d'acheminer d'un point à l'autre de leurs réseaux.2
Tout le monde – ou presque : des gens comme l'ancien ministre Jean-Jacques Urvoas, le Conseil d'État ou le Conseil constitutionnel font encore de la résistance – considère aujourd'hui que surveiller les métadonnées, ça n'est pas en tant que tel moins intrusif que de surveiller du contenu. De plus, la métadonnée, c'est une notion toute relative. Le plus souvent, la métadonnée d'un intermédiaire technique constitue le contenu des communications acheminées par un autre.
La faille juridique béante à côté de laquelle nous sommes passés jusqu'à présent tout en tournant autour en permanence, c'est le fait que la loi ne dit pas clairement à quel endroit de l'infrastructure les services peuvent accéder à quelles métadonnées. Il est ainsi possible de cibler des identifiants associés à un service en ligne, qu'il va s'agir de repérer à la volée dans le trafic à l'aide d'une sonde installée dans un DSLAM – par exemple, quelle IP utilise tel protocole de chiffrement suspect, au hasard Tor. Avouons que c'est quand même beaucoup plus pratique, et moins cher, de traiter directement avec quatre opérateurs télécoms (peut-être un peu plus) pour surveiller en temps réel l'ensemble des données de connexion des hébergeurs, plutôt que d'avoir à s'adresser à des entreprises américaines les unes après les autres.
2.4 Le gouvernement gourmand
Après avoir débattu avec les amis Exégètes de cette lecture, ils sont retournés lire les décrets d'application de la loi renseignement. Et ils se sont rendus compte que, plutôt que de résoudre l’ambiguïté législative, le gouvernement avait choisi de l'exploiter jusqu'au bout. Ainsi, à travers le décret n°2016-67, a été créé l'article R. 851-5-1. Cette disposition réglementaire se départit des décrets de 2006 et de 2011 pour définir les données de connexion accessibles en temps réel ou via les boîtes noires (article L. 851-2 et L. 851-3). Ces données sont celles :
Permettant de localiser les équipements terminaux ;
Relatives à l'accès des équipements terminaux aux réseaux ou aux services de communication au public en ligne ;
Relatives à l'acheminement des communications électroniques par les réseaux ;
Relatives à l'identification et à l'authentification d'un utilisateur, d'une connexion, d'un réseau ou d'un service de communication au public en ligne ;
Relatives aux caractéristiques des équipements terminaux et aux données de configuration de leurs logiciels.
Rien que ça… Le gouvernement réintroduit des définitions des catégories de données concernées encore plus vagues qu'avant (la CNCTR elle, refuse d'en dire plus sur ce que recouvre précisément ces catégories, invoquant le secret défense), il fusionne deux régimes réglementaires qui étaient auparavant définis de manière distincte, et là encore, tout le monde ou presque était passé à côté (et ce même si la volonté du gouvernement d'élargir le champ des données de connexion était apparue au détour d'un avis de la CNCTR sur les décrets et avait fait débat).
Grâce aux Exégètes, on verra prochainement si le Conseil d'État estime cette disposition réglementaire conforme à la Constitution. Mais cette nouvelle découverte, qui sera détaillée dans un mémoire en cours de finalisation, tend à confirmer la lecture proposée ici : tout en jouant de l’ambiguïté, la LPM puis la loi renseignement, et plus encore un des décrets d'application de celle-ci, ont eu pour but de légaliser l'usage des sondes DPI pour le trafic Internet français. Et ce décret, en fusionnant les deux catégories de métadonnées (FAI / hébergeurs), a pour effet de conforter l'interprétation de la loi selon laquelle les métadonnées traitées par les hébergeurs peuvent être scrutées à partir du réseau des FAI via ces sondes (pour les services, cela a le mérite de la clarté, notamment au cas où un FAI ou un hébergeur s'opposerait à l'installation du DPI sur son réseau en arguant du fait qu'il n'est tenu de permettre l'accès qu'à « ses » métadonnées).
2.5 Qu'est-ce qu'une cible ?
Cette interprétation du couple droit/technique est également confortée par la découverte d'une autre faille juridique de la loi renseignement, dont je ne crois pas qu'elle ait été abordée jusqu'ici, et qui pourrait nous réserver des surprises à l'avenir.
Selon Reflets, toujours sur les sondes Qosmos :
Si la bonne utilisation était, selon les documents de Qosmos, plutôt de définir une cible, et de donner pour instruction à l’ensemble des sondes de repérer et collecter le trafic de cette cible, était-elle, forcément humaine ? Si la cible est par exemple un réseau social ou un type de comptes mails (Yahoo Mail, Gmail,…), ou encore un protocole (IRC, SIP, Jabber…), on peut très vite franchir une ligne rouge.
D’autant que le document de Qosmos précise qu’il est possible de définir comme cible… des plages d’adresses entières. Et pas seulement des plages de 254 adresses IP… Le document évoque des classes B, soit 65 534 IPs simultanées. Insérer une telle fonctionnalité (qui permet du massif) pour ne pas s’en servir semble pour le moins incongru.
Là, l'auteur fait l'hypothèse que la notion de cible a pu renvoyer à l'interception de tout le trafic en direction d'un gros fournisseur de service, par exemple Gmail, à l'échelle d'un ou plusieurs DSLAM (dont le trafic Gmail de milliers de personnes). Il rappelle à cet égard que, dans le paramétrage de ces outils, il était possible de scanner le trafic non pas d'un seul abonné (défini par son adresse IP), mais de dizaines de milliers d'abonnés simultanément.
Or, il y a un bout dans la loi renseignement dont on n'a pas assez parlé : dans le 6° de l'article L. 821-2 qui décrit ce que doivent contenir les demandes d'autorisation envoyées pour avis à la CNCTR pour toute mesure de surveillance, il est écrit que chaque demande doit préciser « la ou les personnes visées ».
Juste en dessous, il est précisé : « pour l'application du 6°, les personnes dont l'identité n'est pas connue peuvent être désignées par leurs identifiants ». La manière dont on lit ça d'habitude, en mode naïf, c'est que les services ont obtenu d'une manière ou d'une autre soit nom et prénom, soit une adresse IP. Sur cette base, ils obtiennent ensuite une autorisation d'interception correspondant à cet abonné, puis vont poser une « bretelle » pour intercepter son trafic dans le DSLAM le plus proche de son point d'accès. Et effectivement, cela peut correspondre à plusieurs personnes, puisque dans le cas d'une entreprise, d'une association, ou tout simplement d'un foyer, plusieurs personnes utilisent le même abonnement. D'où cette idée qu'une demande de surveillance ciblée puisse viser plusieurs personnes. Circulez il n'y a rien à voir.
Vraiment ?
Une autre lecture est possible. Selon cette lecture, dans les autorisations, la ou les cibles peuvent être désignées par un ou plusieurs « identifiants » – en pratique des métadonnées traitées soit par les FAI – par exemple une adresse IP ou une adresse MAC –, soit par les fournisseurs de service – des protocoles spécifiques, voire une adresse mail, un pseudo, un mot de passe, etc. Ces identifiants sont autant de « sélecteurs » permettant de viser non pas des personnes véritablement, mais des patterns de communication dignes d'intérêt pour les services. En renvoyant à des identifiants plutôt qu'à des abonnés, la loi permet d'élargir la logique exploratoire des boîtes noires aux interceptions, et d'ainsi contourner la limitation de la disposition « boîtes noires » à la lutte antiterroriste.
En résumé, avec cette lecture, qui abolit la distinction métadonnées du FAI / métadonnées des hébergeurs, autorise le recours au DPI :
La LPM puis la loi renseignement ont ainsi radicalement transformé la base juridique des utilisations possibles des sondes DPI, en permettant de sortir cette forme de surveillance très intrusive des quotas associés aux interceptions.
Cette forme de surveillance des données de connexion permet en théorie de dresser beaucoup plus facilement la cartographie sociale d'un individu (non seulement quels serveurs il visite, les services qu'il utilise mais aussi, à supposer que ces identifiants ne soient pas chiffrés, avec qui il échange des mails, converse sur les réseaux sociaux et autres forums, quels sont ses mots de passe, etc.).
La détection via les boîtes noires (article L. 851-3) permet donc bien de faire depuis les réseaux des FAI ce que Le Drian et Bajolet expliquaient au printemps 2015 (sans cibler un individu particulier, paramétrer l'ensemble des sondes posées sur les 6000 DSLAM pour repérer des « comportements suspects » à l'échelle du territoire).
Hors du champ du terrorisme, une surveillance exploratoire du même type est légalement possible via les interceptions de sécurité (L. 852-1) : sur cette base juridique qui autorise à surveiller le contenu des correspondances et les métadonnées à la fois, les services peuvent en effet choisir de se concentrer uniquement sur ces dernières en utilisant les sondes DPI. Cela semble cependant ne plus être possible pour la surveillance en temps réel, pour laquelle l'article L. 851-2 parle de « personnes préalablement identifiées » en lien avec une menace terroriste et, désormais, d'autorisations accordées « individuellement » pour l'entourage de ces personnes. Ce vocable fait notamment suite à notre QPC remportée dans ce dossier cet été, le gouvernement ayant amendé la loi sur le terrorisme du 30 octobre 2017 pour soumettre cette disposition à un contingentement (quotas), et ainsi l'aligner sur les interceptions de sécurité.
Bref, cette lecture permet d'expliquer beaucoup de choses qui restaient un peu floues, même si bien des questions demeurent sur l'interprétation précise des dispositions (par exemple, quelle est la jurisprudence de la CNCTR concernant la nature ou le nombre maximal de cibles pouvant être désignées dans une autorisation ? Pour les interceptions de sécurité « exploratoires », une seule autorisation suffit-elle pour rechercher ces sélecteurs dans l'ensemble des sondes ou faut-il une autorisation par DSLAM/opérateur/… ?).
Ce qui est sûr, c'est que lu à cette lumière, le droit français contredit l'esprit de la jurisprudence de la Cour européenne des droits de l'Homme. Cette dernière indique en effet dans une affaire récente (affaire Zakharov) que « le contenu du mandat d’interception doit désigner clairement la personne précise à placer sous surveillance ou l’unique ensemble de locaux (lieux) visé par l’interception autorisée par le mandat » (§264). Elle ajoute en outre que le contrôle des autorisations « doit être à même de vérifier l’existence d’un soupçon raisonnable à l’égard de la personne concernée, en particulier de rechercher s’il existe des indices permettant de la soupçonner de projeter, de commettre ou d’avoir commis des actes délictueux ou d’autres actes susceptibles de donner lieu à des mesures de surveillance secrète, comme par exemple des actes mettant en péril la sécurité nationale » (§260).
3. Illustrations : hypothèses sur le fonctionnement du couple droit/technique
À partir de tous ces développements, j'essaie dans cette partie d'illustrer les conséquences techniques et opérationnelles de cette interprétation du droit, en tâchant de garder à l'esprit la contrainte que représente l'augmentation du trafic chiffré ces dernières années, puisqu'il tend à masquer un grand nombre de métadonnées très signifiantes pour les services (notamment celles des grandes plateformes).
3.1 Scénario hors lutte antiterroriste
Les services envoient leur demande d'autorisation au premier ministre, qui saisit la CNCTR pour avis. Ils indiquent en substance que les perquisitions effectuées sur le matériel informatique d'un individu condamné pour violence volontaire contre les forces de l'ordre lors des manifestations contre la loi Travail montrent qu'il a communiqué avec X via Signal. « On suspecte X de prendre part à un groupe de black bloc et on a de fortes raisons de penser qu'il est situé dans une zone géographique proche d'un de ces 20 DSLAM, qui correspondent à la ville dans laquelle le groupe en question se réunit. »
En réponse à cette demande d'autorisation, la CNCTR délivre vingt autorisations d'interceptions de sécurité « exploratoires », soit une par DSLAM sur la zone considérée, sachant que chaque sonde peut être paramétrée pour surveiller des milliers d'IP. Grâce aux sondes installées dans ces DSLAM, les services cherchent des adresses IP ayant pour caractéristiques d'utiliser fréquemment les protocoles Signal et Tor et de consulter plusieurs serveurs caractéristiques des milieux visés. Ils identifient ainsi rapidement trois adresses IP suspectes.
Une autorisation de la CNCTR permet de procéder à l'identification des abonnés correspondant à ces 3 adresses IP (accès administratif aux données de connexion du FAI qui a atttribué les IP en question). Elles relèvent toutes les trois du même abonné (IP dynamique). Le suspect est identifié comme Camille George, habitant au 3 rue de la Libération à Nantes. Après avoir envisagé d'aller sonoriser l'appartement du suspect – pratique légalisée par la loi renseignement –, les services préfèrent procéder à une nouvelle interception. Cette fois, on connaît précisément la cible, et ce n'est plus une surveillance exploratoire mais une interception détaillée de ses communications téléphoniques et Internet. Deux autorisations d'interceptions sont délivrées par la CNCTR pour quatre mois renouvelables.
3.2 Scénario lutte antiterroriste
Les services ont arrêté deux individus suspectés de projeter un attentat dans un quartier de Marseille. Ils ont saisi leur matériel informatique et ont récupéré des pseudos des contacts Facebook avec lesquels ils ont échangé des messages instantanés. Ils ont des raisons de penser que certains de ces individus leur ont apporté un soutien en France, tandis que d'autres sont en Syrie et ont rejoint l'EI. Ces communications Facebook passent toutes par des serveurs de l'entreprise situés hors du territoire national, et entrent donc dans le champ des communications transfrontalières visées dans les dispositions sur la surveillance internationale (lesquelles permettent à la DGSE d'intercepter largement le trafic IP transfrontalier et d'exploiter tant les métadonnées que le contenu des messages, le cas échéant après l'avoir déchiffré).
Déjà autorisée à surveiller toutes les communications des personnes situées en Syrie en direction des serveurs de Facebook aux fins de lutte contre le terrorisme, la DGSE met immédiatement en place une surveillance exploratoire visant à repérer les communications stockées et déchiffrées impliquant ces identifiants, pour tenter de repérer toutes les communications mentionnant ces pseudos, ainsi que toutes les autres métadonnées associées à ces paquets IP (adresses mails, compte Twitter, etc.). Grâce aux outils Big Data mettant en rapport ces différents sélecteurs, la DGSE dresse rapidement le graphe social de ces personnes.
Cela confirme que plusieurs de ces identifiants correspondent à des personnes situées en Syrie. Grâce au trafic intercepté et déchiffré, la direction technique de la DGSE est capable de faire ressortir le contenu de plusieurs messages Facebook échangés par ces personnes avec leurs correspondants. Ces messages laissent notamment appraître un identifiant utilisé sur un forum prisé des milieux terroristes, mais aussi les noms et prénoms de quatre personnes résidant en France.
Pour ces résidents français, c'est la DGSI qui prend le relais. Après l'envoi de requêtes aux principaux FAI français, on dispose désormais des noms, prénoms et adresses de ces quatre abonnés suspects. L'IP d'une de ces personnes a déjà été repérée à plusieurs reprises comme ayant voulu se connecter à des sites censurés par l'OCLTIC3 (le blocage du site permet en effet de rediriger l'ensemble des requêtes de consultation vers un serveur du ministère de l'Intérieur, et donc de relever des IPs suspectes). Pour cette IP là, la DGSI demande au Ministre qui sollicite l'avis de la CNCTR pour pouvoir passer directement à une interception détaillée de ses communications téléphoniques et Internet. Accordé.
Pour les trois autres abonnés, on passe alors à une surveillance en temps réel du trafic Internet et téléphonique des abonnés. En quatre mois, une seule de ces IP laisse apparaîre des identifiants caractéristiques des milieux terroristes, notamment le protocole du service de messagerie Whatsapp combiné à des IP de serveurs dont on sait qu'ils hébergent des sites faisant l'apologie du terrorisme.
La DGSI veut se concentrer sur les communications Whatsapp de cet abonné. Grâce à une nouvelle autorisation « boîtes noires » (L. 851-3), les sondes à travers le territoire sont paramétrées pour retrouver d'autres paquets contenant le « protocole Whatsapp » de même taille que ceux émis par la cible, et ainsi les corréler rentre eux. On arrive ainsi à repérer certaines des IP correspondant à 12 résidents français avec qui la cible communique via Whatsapp, dont l'un d'entre eux est fiché S. La DGSI demande une interception ciblée du trafic Internet et téléphonique de ce dernier, qui ne fait plus l'objet d'une surveillance active depuis plusieurs mois.
Les 11 autres personnes sont mises sous surveillance en temps réel pendant quatre mois (la loi autorisant la surveillance des n+2 depuis juillet 2016, la CNCTR n'a plus de bonne raison de s'opposer à cette surveillance). Une seule de ces 11 lignes laisse apparaître des communications « suspectes ». Pour l'abonné en question, une interception ciblée est pratiquée. Pour les 10 lignes restantes, la DGSI ne renouvelle pas les autorisations et arrête donc la surveillance, mais conserve à toutes fins utiles les métadonnées récoltées pendant trois ans, tel que la loi l'autorise, dans les bases de données moulinées par les algorithmes de Palantir (le prestataire Big Data de la DGSI depuis fin 2016, notamment pour faire sens des masses de données issues des perquisitions réalisées dans le cadre de l'état d'urgence).
Conclusion
Cette interprétation du droit montre que les boîtes noires soi-disant opérationnelles depuis un mois ne sont pas sorties d'un chapeau. De fait, le renseignement français expérimente depuis des années les logiques de surveillance exploratoires, sondant en profondeur le trafic pour repérer des métadonnées suspectes, et s'est même taillé des règles juridiques sur mesure pour s'y adonner « légalement » sans trop éveiller l'attention.
Au plan juridique, cette analyse permet de comprendre pourquoi le contournement de la jurisprudence de la CJUE sur les métadonnées – laquelle confirme que la surveillance des métadonnées constitue une ingérence différente mais qui n'est pas de moindre ampleur que celle induite par la surveillance du contenu des correspondances – constitue une véritable affaire d'État (Macron a été immédiatement sensibilisé au dossier une fois arrivé au pouvoir, et le Conseil d'État en 2014 allait jusqu'à conseiller d'adopter un protocole interprétatif à la Charte des droits fondamentaux pour contourner cette jurisprudence de la juridiction suprême de l'UE). La CJUE s'oppose également au fait de surveiller – même « passivement » – les communications de personnes sans lien avec une infraction. Là encore, cela s'oppose aux logiques décrites ci-dessus.
De même, au plan technique, on comprend mieux pourquoi le chiffrement déployé ces dernières années par les gros fournisseurs de services pose tant de problème au renseignement, et pourquoi après chaque attentat, le droit au chiffrement est mis en cause – avec en ligne de mire, notamment l'objectif de forcer ces plateformes (Google, Facebook, Twitter et compagnie) à ajuster leurs pratiques en la matière pour ne pas gêner ces formes de surveillance exploratoire (par exemple en s'assurant que les métadonnées qu'ils traitent restent en clair ?).
Bien sûr, compte tenu du secret et des informations parcellaires dont nous disposons, les déductions proposées ici doivent être prises avec des pincettes, et surtout discutées, corrigées, affinées. En pratique, ces systèmes ne sont peut être pas au point pour fonctionner en « grandeur nature » sur un réseau décentralisé comme le réseau IP français, avec désormais plus de la moitié du trafic chiffré, mais qu'en sera-t-il à l'avenir ?
Cela montre en tout cas l'urgente nécessité de faire la transparence sur la nature des outils utilisés par les services de renseignement en matière de surveillance, mais aussi sur l'interprétation que font les services et les autorités de contrôle du droit existant.
1. Cet article, devenu depuis 2015 l'article L. 871-2, permet aux services de solliciter des « informations ou documents » en vue de réaliser une interception. Le rapport indiquait que les services faisaient alors environ 30 000 requêtes par an en vertu de la loi de 2006 (donc dans le cadre de la lutte antiterroriste), contre près de 200 000 requêtes sur la base de cette autre dispositions détournée, et couvrant cette fois-ci l'ensemble du champ d'intervention des services de renseignement – et donc des notions aussi vagues que « la sécurité nationale » ou « la sauvegarde des éléments essentiels du potentiel scientifique et économique de la France ». À peu près tout et n'importe quoi, en somme.
2. Un exemple pour illustrer ce point : j'envoie un email à une amie. Pour mon FAI, mon adresse mail (felix@lqdn.fr) et celle de ma destinataire (sara@gafa.com) sont du contenu, il n'en a pas besoin pour acheminer mes paquets de données. Pour nos fournisseurs de messagerie en revanche, ceux qui hébergent nos mails, nos adresses mail sont bien des métadonnées, ces identifiants sont nécessaires pour que l'on puisse s'échanger nos messages.
3. Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) est l'organisme de la police française dédié à la lutte contre la cybercriminalité.
";s:7:"dateiso";s:15:"20171115_103013";}s:15:"20171114_153527";a:7:{s:5:"title";s:40:"Les comptes 2016 de La Quadrature du Net";s:4:"link";s:71:"http://www.laquadrature.net/fr/Les-comptes-2016-de-La-Quadrature-du-Net";s:4:"guid";s:36:"10344 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 14 Nov 2017 14:35:27 +0000";s:11:"description";s:26588:"
La Quadrature du Net a pris l'habitude de publier sur son site web ses comptes annuels. Voici ceux de l'année 2016 qui ont été approuvés par l'Assemblée Générale du 3 avril 2017.
Commentaire de présentation
La Quadrature du Net est une association déclarée depuis 2013. La campagne de don fin 2015 a tout juste atteint ses objectifs. Cependant, l'ensemble des dons récurrents & ponctuels de citoyens représente près de 19 000 € par mois, ce qui assure une bonne partie du financement de cette année. Grâce à ces dons individuels réguliers, 70% de notre budget est ainsi assuré. Les dépenses pour 2016 sont assez similaires à celles de 2015, la majorité des dépenses venant des salaires des permanents et stagiaires de l'association, qui permettent d'assurer son activité.
Benjamin Sonntag pour La Quadrature du Net
Les comptes 2016
COMPTES RECETTES / DÉPENSES
2016
%
1. SOLDE EN DEBUT D'ANNÉE
266 959,32 €
Encaissement
A1. Dons LQDN
Dons individuels
231 653,42 €
67%
Dons entreprises
7 009,05 €
2%
Dons fondations
105 130,11 €
30%
Remboursements conférences
4 306,81 €
1%
2. TOTAL RECETTES
348 099,39 €
100%
B. Décaissements
B1. d'exploitation
B1.1 Dépenses LQDN
Salaires
142 257,04 €
42%
URSSAF & Tickets Restau
115 487,00 €
34%
Local (Loyer, EDF, Tel)
26 973,61 €
8%
Frais Généraux (poste, service, buro...)
6 048,92 €
2%
Équipements (informatique, vidéo …)
5 313,55 €
2%
Transport
13 273,46 €
4%
Campagnes, Communauté
8 032,48 €
2%
Frais bancaires, Assurance
2 518,59 €
1%
Divers (goodies, projets ponctuels...)
12 420,09 €
4%
Prestations de service
2 962,50 €
1%
3. TOTAL DÉPENSES
335 287,24 €
100%
C1. Epargne
Livret A & Instrument Financier +577,73€)
82 610,66 €
Z1. Totaux
4. Solde de l'année
13 389,88 €
5. Trésorerie en fin d'année
279 771,47 €
";s:7:"content";s:26588:"
La Quadrature du Net a pris l'habitude de publier sur son site web ses comptes annuels. Voici ceux de l'année 2016 qui ont été approuvés par l'Assemblée Générale du 3 avril 2017.
Commentaire de présentation
La Quadrature du Net est une association déclarée depuis 2013. La campagne de don fin 2015 a tout juste atteint ses objectifs. Cependant, l'ensemble des dons récurrents & ponctuels de citoyens représente près de 19 000 € par mois, ce qui assure une bonne partie du financement de cette année. Grâce à ces dons individuels réguliers, 70% de notre budget est ainsi assuré. Les dépenses pour 2016 sont assez similaires à celles de 2015, la majorité des dépenses venant des salaires des permanents et stagiaires de l'association, qui permettent d'assurer son activité.
Benjamin Sonntag pour La Quadrature du Net
Les comptes 2016
COMPTES RECETTES / DÉPENSES
2016
%
1. SOLDE EN DEBUT D'ANNÉE
266 959,32 €
Encaissement
A1. Dons LQDN
Dons individuels
231 653,42 €
67%
Dons entreprises
7 009,05 €
2%
Dons fondations
105 130,11 €
30%
Remboursements conférences
4 306,81 €
1%
2. TOTAL RECETTES
348 099,39 €
100%
B. Décaissements
B1. d'exploitation
B1.1 Dépenses LQDN
Salaires
142 257,04 €
42%
URSSAF & Tickets Restau
115 487,00 €
34%
Local (Loyer, EDF, Tel)
26 973,61 €
8%
Frais Généraux (poste, service, buro...)
6 048,92 €
2%
Équipements (informatique, vidéo …)
5 313,55 €
2%
Transport
13 273,46 €
4%
Campagnes, Communauté
8 032,48 €
2%
Frais bancaires, Assurance
2 518,59 €
1%
Divers (goodies, projets ponctuels...)
12 420,09 €
4%
Prestations de service
2 962,50 €
1%
3. TOTAL DÉPENSES
335 287,24 €
100%
C1. Epargne
Livret A & Instrument Financier +577,73€)
82 610,66 €
Z1. Totaux
4. Solde de l'année
13 389,88 €
5. Trésorerie en fin d'année
279 771,47 €
";s:7:"dateiso";s:15:"20171114_153527";}s:15:"20171113_174253";a:7:{s:5:"title";s:73:"La Quadrature du Net est notre outil à toutes et à tous, affutons-le ! ";s:4:"link";s:49:"http://www.laquadrature.net/fr/campagne_dons_2017";s:4:"guid";s:36:"10343 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 13 Nov 2017 16:42:53 +0000";s:11:"description";s:5009:"
Paris, le 14 novembre 2017 — À l’heure où les attaques envers nos droits et libertés sur Internet se font toujours plus fortes et où les débats que nous avons à conduire sont de plus en plus nombreux et complexes, nous avons toutes et tous plus que jamais besoin d’outils pour comprendre, communiquer et agir en faveur des droits fondamentaux, d’un Internet plus libre et du respect de notre vie privée. Nous avons besoin d’outils comme La Quadrature du Net.
La Quadrature vit grâce à celles et ceux qui, depuis de nombreuses années maintenant, sont fidèles au rendez-vous et nous soutiennent par leur implication ou leurs dons. C’est grâce à vous que l’association s’est dotée d’une équipe salariée à même de produire et de soumettre à débat des analyses critiques solides, de développer des outils citoyens permettant d’agir au niveau politique et de mener des campagnes en lien avec nos alliés associatifs et de nombreux militants.
Aujourd'hui, alors que nous entamons une nouvelle étape que nous détaillons dans cette « revue stratégique » nous avons encore une fois besoin de votre soutien, pour pérenniser les actions engagées, faire face à un contexte politique de plus en plus difficile et nous renouveler en développant encore et toujours de nouveaux modes d'action et de réflexion.
C’est une habitude maintenant que de vous solliciter une fois par an pour nous soutenir. Le calendrier est ainsi fait : il y a l’arrivée de l’automne, le changement d’heure et puis vient la campagne de dons de La Quadrature :)
Alors poursuivons nos bonnes habitudes et réunissons-nous, comme chaque année, pour rendre compte du chemin parcouru et démarrer cette campagne dans la bonne humeur. Nous le ferons ce soir, mardi 14 novembre, dès 19h à la Paillasse1 à Paris et en streaming partout dans le monde.
Cette campagne sera aussi l'occasion de s'amuser un peu, grâce à un outil tout droit sorti du travail des contribut.eurs.rices de La Quadrature du Net, mais nous en gardons l'annonce exclusive pour ce soir (nous publierons alors aussi notre nouveau site de soutien tout neuf !).
Lors de cette campagne, La Quadrature aura le plaisir de recevoir, dans le cadre de cette réflexion commune sur nos actions, les Exégètes amateurs pour une conférence spécialement dédiée à leurs nombreux et téméraires recours en justice.
De même, plusieurs évènements d'échanges et de réflexions communes seront organisés dans diverses villes de France, afin de renforcer encore notre volonté de décentraliser nos actions et nos débats.
Enfin, la campagne de dons annuelle est chaque fois l'occasion de faire découvrir nos causes au plus grand nombre. Chacun et chacune d'entre nous est conviée à le faire par ses outils informatiques habituels, mais nous vous inviterons aussi à venir le faire dans la rue toute une semaine, courant décembre, avec tracts, affiches et dessins !
Nous vous tiendrons informé.es du détail de toutes ces actions le moment venu.
Que ce soit pour évaluer le chemin parcouru, se projeter dans l'avenir, débattre ou se faire entendre, rien n'est possible sans action collective. Et il en va de même pour financer la boîte à outils qu'est La Quadrature, afin qu'elle reste efficace pour défendre nos libertés sur Internet. Tâchons, ensemble, de maintenir nos outils encore et toujours affûtés !
Paris, le 14 novembre 2017 — À l’heure où les attaques envers nos droits et libertés sur Internet se font toujours plus fortes et où les débats que nous avons à conduire sont de plus en plus nombreux et complexes, nous avons toutes et tous plus que jamais besoin d’outils pour comprendre, communiquer et agir en faveur des droits fondamentaux, d’un Internet plus libre et du respect de notre vie privée. Nous avons besoin d’outils comme La Quadrature du Net.
La Quadrature vit grâce à celles et ceux qui, depuis de nombreuses années maintenant, sont fidèles au rendez-vous et nous soutiennent par leur implication ou leurs dons. C’est grâce à vous que l’association s’est dotée d’une équipe salariée à même de produire et de soumettre à débat des analyses critiques solides, de développer des outils citoyens permettant d’agir au niveau politique et de mener des campagnes en lien avec nos alliés associatifs et de nombreux militants.
Aujourd'hui, alors que nous entamons une nouvelle étape que nous détaillons dans cette « revue stratégique » nous avons encore une fois besoin de votre soutien, pour pérenniser les actions engagées, faire face à un contexte politique de plus en plus difficile et nous renouveler en développant encore et toujours de nouveaux modes d'action et de réflexion.
C’est une habitude maintenant que de vous solliciter une fois par an pour nous soutenir. Le calendrier est ainsi fait : il y a l’arrivée de l’automne, le changement d’heure et puis vient la campagne de dons de La Quadrature :)
Alors poursuivons nos bonnes habitudes et réunissons-nous, comme chaque année, pour rendre compte du chemin parcouru et démarrer cette campagne dans la bonne humeur. Nous le ferons ce soir, mardi 14 novembre, dès 19h à la Paillasse1 à Paris et en streaming partout dans le monde.
Cette campagne sera aussi l'occasion de s'amuser un peu, grâce à un outil tout droit sorti du travail des contribut.eurs.rices de La Quadrature du Net, mais nous en gardons l'annonce exclusive pour ce soir (nous publierons alors aussi notre nouveau site de soutien tout neuf !).
Lors de cette campagne, La Quadrature aura le plaisir de recevoir, dans le cadre de cette réflexion commune sur nos actions, les Exégètes amateurs pour une conférence spécialement dédiée à leurs nombreux et téméraires recours en justice.
De même, plusieurs évènements d'échanges et de réflexions communes seront organisés dans diverses villes de France, afin de renforcer encore notre volonté de décentraliser nos actions et nos débats.
Enfin, la campagne de dons annuelle est chaque fois l'occasion de faire découvrir nos causes au plus grand nombre. Chacun et chacune d'entre nous est conviée à le faire par ses outils informatiques habituels, mais nous vous inviterons aussi à venir le faire dans la rue toute une semaine, courant décembre, avec tracts, affiches et dessins !
Nous vous tiendrons informé.es du détail de toutes ces actions le moment venu.
Que ce soit pour évaluer le chemin parcouru, se projeter dans l'avenir, débattre ou se faire entendre, rien n'est possible sans action collective. Et il en va de même pour financer la boîte à outils qu'est La Quadrature, afin qu'elle reste efficace pour défendre nos libertés sur Internet. Tâchons, ensemble, de maintenir nos outils encore et toujours affûtés !
";s:7:"dateiso";s:15:"20171113_174253";}s:15:"20171113_173136";a:7:{s:5:"title";s:40:"De nouvelles forces pour La Quadrature !";s:4:"link";s:47:"http://www.laquadrature.net/fr/nouvelles_forces";s:4:"guid";s:36:"10342 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 13 Nov 2017 16:31:36 +0000";s:11:"description";s:4929:"
Paris, le 13 novembre 2017 — La Quadrature est vivante, La Quadrature évolue : une bonne moitié de l'équipe salariée a changé depuis l'été dernier. Saluons chaleureusement l'engagement de celles et ceux qui partent, et souhaitons la bienvenue à celles et ceux qui arrivent !
Au revoir les ami.e.s !
Ayant assuré à nos côtés les relations de La Quadrature avec les médias et la coordination des campagnes depuis mars 2014, Adrienne Charmet est partie en juillet 2017 rejoindre l’Agence nationale des systèmes de sécurité et d’information (ANSSI). Nous espérons qu'elle y trouvera l'occasion de continuer à défendre nos valeurs !
Christopher Talib, chargé de la communication, des relations avec nos bénévoles et des campagnes depuis août 2014, est parti fin août 2017 pour rejoindre sa Belgique natale et s'y ouvrir de nouveaux horizons dans le développement web.
Notre graphiste de choc pendant un an et demi — dont au moins un an d'état d'urgence —, Baptiste Dagneaux, est parti en avril dernier avec ses Rubik's cube, son humour décapant, et ses graphismes sans concessions (snif).
Enfin, Léa Caillère Falgueyrac, en charge de l’analyse juridique et politique sur le règlement ePrivacy, est partie fin juin pour poursuivre d’autres engagements, ce qu’elle fera assurément avec la même passion qu’elle a eue à nos côté.
Nous vous souhaitons à toutes et tous plein de courage et de datalove pour toute une vie <3
Bonjour les ami.e.s !
Prenant directement la suite de Léa, Arthur Messaud revient à La Quadrature ! Toujours aussi passionné par les données personnelles, les chatons et les débats animés (que personne n'oserait qualifier de « troll » !), il a rejoint en juin Agnès de Cornulier dans l’équipe juridique, se faisant aussi par là une des nouvelles voix médiatiques de La Quadrature.
L'équipe salariée en train de s'auto-radicaliser sur les internets digitaux
Début octobre, Leo Thüer a quitté Berlin pour rejoindre Agnès et Arthur en stage, après être passé chez Digitale Gesellschaft et la Ligue des Droits de l’Homme. De formation polyvalente, il a étudié les sciences politiques, le droit public et la littérature française. Il met actuellement une belle énergie à épauler l'équipe dans ses aventures franco-bruxelloises.
Marine Strazielle est depuis septembre notre nouvelle directrice artistique, terminant en parallèle ses études à Sciences-Po (où elle prend un plaisir tout à fait cynique à apprendre à « disrupter l'État » et la communication de masse, oui oui !). Sauf que chez nous, c'est à la recherche des idées et des mots qui nous ferons rêver et rire qu'elle consacrera tout son temps !
Arrivé lui aussi en stage en septembre, Thibaut Broggi épaule Okhin pour le développement d’outils, travaillant notamment sur la refonte de la revue de presse et sur les surprises de la campagne de dons. Parlant plusieurs langages (C++, JS, python), il permet au pôle outils de doubler ses effectifs et de pouvoir enfin prendre à bras le corps certains serpents de mer techniques de LQDN.
Enfin, arrivée début octobre, Myriam Michel, en plus d’animer les campagnes de dons avec Mathieu, est chargée de coordonner toute cette joyeuse équipe ! Elle sera aussi l'intermédiaire privilégiée de tous les militants souhaitant imaginer avec nous de nouveaux projets. Archéologue dans une ancienne vie, elle espère transmettre aujourd'hui aux militants de l'Internet son sens de l'aventure, son courage à explorer les tombes des grands princes maudits et à lutter contre les momies (finalement sans doute assez proches de nos ennemis habituels).
La Quadrature a maintenant 10 ans. Tout ce temps, elle s'est entièrement construite sur une quantité impressionnante d'énergies humaines, aussi variées que passionnées. Les récents changements au sein de son équipe salariée sont importants, marquant une nouvelle étape dans cette longue construction, avec ses dynamiques et ses espoirs propres. Nous ne pouvons les accueillir qu'avec l'enthousiasme et l'élan qu'apportent les jours nouveaux !
Paris, le 13 novembre 2017 — La Quadrature est vivante, La Quadrature évolue : une bonne moitié de l'équipe salariée a changé depuis l'été dernier. Saluons chaleureusement l'engagement de celles et ceux qui partent, et souhaitons la bienvenue à celles et ceux qui arrivent !
Au revoir les ami.e.s !
Ayant assuré à nos côtés les relations de La Quadrature avec les médias et la coordination des campagnes depuis mars 2014, Adrienne Charmet est partie en juillet 2017 rejoindre l’Agence nationale des systèmes de sécurité et d’information (ANSSI). Nous espérons qu'elle y trouvera l'occasion de continuer à défendre nos valeurs !
Christopher Talib, chargé de la communication, des relations avec nos bénévoles et des campagnes depuis août 2014, est parti fin août 2017 pour rejoindre sa Belgique natale et s'y ouvrir de nouveaux horizons dans le développement web.
Notre graphiste de choc pendant un an et demi — dont au moins un an d'état d'urgence —, Baptiste Dagneaux, est parti en avril dernier avec ses Rubik's cube, son humour décapant, et ses graphismes sans concessions (snif).
Enfin, Léa Caillère Falgueyrac, en charge de l’analyse juridique et politique sur le règlement ePrivacy, est partie fin juin pour poursuivre d’autres engagements, ce qu’elle fera assurément avec la même passion qu’elle a eue à nos côté.
Nous vous souhaitons à toutes et tous plein de courage et de datalove pour toute une vie <3
Bonjour les ami.e.s !
Prenant directement la suite de Léa, Arthur Messaud revient à La Quadrature ! Toujours aussi passionné par les données personnelles, les chatons et les débats animés (que personne n'oserait qualifier de « troll » !), il a rejoint en juin Agnès de Cornulier dans l’équipe juridique, se faisant aussi par là une des nouvelles voix médiatiques de La Quadrature.
L'équipe salariée en train de s'auto-radicaliser sur les internets digitaux
Début octobre, Leo Thüer a quitté Berlin pour rejoindre Agnès et Arthur en stage, après être passé chez Digitale Gesellschaft et la Ligue des Droits de l’Homme. De formation polyvalente, il a étudié les sciences politiques, le droit public et la littérature française. Il met actuellement une belle énergie à épauler l'équipe dans ses aventures franco-bruxelloises.
Marine Strazielle est depuis septembre notre nouvelle directrice artistique, terminant en parallèle ses études à Sciences-Po (où elle prend un plaisir tout à fait cynique à apprendre à « disrupter l'État » et la communication de masse, oui oui !). Sauf que chez nous, c'est à la recherche des idées et des mots qui nous ferons rêver et rire qu'elle consacrera tout son temps !
Arrivé lui aussi en stage en septembre, Thibaut Broggi épaule Okhin pour le développement d’outils, travaillant notamment sur la refonte de la revue de presse et sur les surprises de la campagne de dons. Parlant plusieurs langages (C++, JS, python), il permet au pôle outils de doubler ses effectifs et de pouvoir enfin prendre à bras le corps certains serpents de mer techniques de LQDN.
Enfin, arrivée début octobre, Myriam Michel, en plus d’animer les campagnes de dons avec Mathieu, est chargée de coordonner toute cette joyeuse équipe ! Elle sera aussi l'intermédiaire privilégiée de tous les militants souhaitant imaginer avec nous de nouveaux projets. Archéologue dans une ancienne vie, elle espère transmettre aujourd'hui aux militants de l'Internet son sens de l'aventure, son courage à explorer les tombes des grands princes maudits et à lutter contre les momies (finalement sans doute assez proches de nos ennemis habituels).
La Quadrature a maintenant 10 ans. Tout ce temps, elle s'est entièrement construite sur une quantité impressionnante d'énergies humaines, aussi variées que passionnées. Les récents changements au sein de son équipe salariée sont importants, marquant une nouvelle étape dans cette longue construction, avec ses dynamiques et ses espoirs propres. Nous ne pouvons les accueillir qu'avec l'enthousiasme et l'élan qu'apportent les jours nouveaux !
";s:7:"dateiso";s:15:"20171113_173136";}s:15:"20171113_131942";a:7:{s:5:"title";s:46:"La Quadrature a 10 ans ! Bilan et perspectives";s:4:"link";s:53:"http://www.laquadrature.net/fr/revue_strategique_2017";s:4:"guid";s:36:"10341 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 13 Nov 2017 12:19:42 +0000";s:11:"description";s:30262:"
La Quadrature du Net fêtera ses dix ans dans quelques mois. Beaucoup de chemin a été parcouru depuis qu'en mars 2008, face à une vague préoccupante de projets de lois et politiques, cinq militants – Christophe Espern, Jérémie Zimmermann, Philippe Aigrain, Gérald Sédrati-Dinet et Benjamin Sonntag, qui s'étaient rencontrés dans les combats contre la loi DADVSI, contre l'opposition aux brevets logiciels et pour la promotion des communs – décidèrent de former un collectif pour porter les valeurs de l'Internet libre face aux coups de boutoir sécuritaires et mercantiles.
Depuis, La Quadrature a connu de beaux succès. Elle est devenue un acteur important de la défense des droits fondamentaux à l'ère numérique, aux niveaux français et international. Chemin faisant, elle a tissé des liens féconds avec de nombreux acteurs militants.
Mais en dix ans beaucoup de choses ont changé, tant au niveau de l'organisation interne de ce qui est devenu une association que dans son environnement. Aujourd'hui, il s'agit d'apprendre de nos erreurs et de remettre à plat nos méthodes et nos modes d'action. C'est le but principal de ce document, fruit d'échanges et de discussions internes, que de proposer en quelques pages un bilan critique de là où nous en sommes aujourd'hui, et à partir de ce diagnostic, de dessiner des pistes pour l'avenir, lesquelles devront être discutées et précisées dans les prochains mois.
Cette « feuille de route » s'articule en trois temps :
L'identité : il s'agit de ré-expliciter ce qu'est La Quadrature du Net (LQDN), ce à quoi elle sert, ce qu'elle entend incarner, et comment elle souhaite le faire.
La gouvernance : nous souhaitons acter l'élargissement du cercle de ceux qui prennent part à LQDN et à ses actions.
Les missions : il s'agit de questionner notre approche de l'analyse juridique et du plaidoyer politique, mais aussi de réfléchir à la manière d’œuvrer au mieux à l'émancipation numérique à travers le développement d'outils.
1. Identité : ce qu'est La Quadrature du Net
En dix ans, le contexte dans lequel évolue La Quadrature s'est largement transformé. Il est marqué notamment par une accélération du durcissement sécuritaire et un resserrement de l'espace démocratique au niveau des institutions et dans l'espace public en général. Une tendance politique doublée de la fuite en avant de l'informatique centralisée et technocratique, elle-même marquée par l'hybridation toujours plus poussée des États et des grandes entreprises privées. Ce mouvement se traduit par la prolifération de la surveillance de masse (privée comme étatique) ou de la censure extrajudiciaire, par la criminalisation du partage, et de manière plus générale par la centralisation et la marchandisation toujours plus poussée de l'infrastructure numérique.
Heureusement, l'Internet alternatif, libre et décentralisé porte haut ses couleurs. Un tissu militant dense et créatif s'est progressivement structuré en France. De Framasoft à l'April en passant par la Fédération FDN, Nos Oignons et même de petites entreprises, beaucoup de groupes travaillent d'arrache-pied, en lien avec d'autres organisations de par le monde, pour que l’informatique en réseau puisse rester un espace d'émancipation individuelle et collective, plutôt que de servir d'instrument de surveillance et de contrôle.
Dans ce tissu de l'activisme numérique français, La Quadrature du Net s'est inscrite dans le sillage d'associations pionnières qui, dès les années 1990, s'étaient spécialisées dans la défense des droits fondamentaux sur Internet, comme l'Association des utilisateurs d'Internet ou l'IRIS (Imaginons un Réseau Internet Solidaire). À ce titre, et notamment à l'occasion de batailles contre les lois sécuritaires adoptées depuis 2013, elle a noué de nombreux liens avec d'autres organisations de défense des droits humains, à l'image de ses partenaires de l'Observatoire des Libertés et du Numérique (OLN) comme Amnesty International France, le CECIL, le Creis-Terminal, la Ligue des Droits de l'Homme, le Syndicat des Avocats de France et le Syndicat de la Magistrature.
Au niveau international, son expertise et ses analyses sont également reconnues et appréciées de diverses associations issues de l'activisme numérique comme l'Electronic Frontier Foundation, mais aussi de grandes ONGs comme Human Rights Watch ou également de certaines organisations internationales dédiées à la défense des droits fondamentaux (ONU, Conseil de l'Europe).
Dans le paysage militant, LQDN occupe donc une position charnière, à l'interface d'un mouvement militant « libriste », inspiré par l’éthique émancipatrice des hackers et autres pionniers de l'Internet libre, et des associations de défense des droits, qu'elles soient françaises ou non. Sa spécificité est donc d'être une association française œuvrant à la construction et à la défense politique et juridique de l'Internet libre, et plus généralement des droits fondamentaux à l'ère numérique.
À partir de là, quelques précisions importantes s'imposent sur la manière dont elle travaille. Elle agit d'abord de trois manières :
par la production et la mise en débat d'analyses sur les enjeux politiques et juridiques de notre monde informatisé, et sur ses devenirs possibles (« doctrine »). Elle souhaite le faire autant que possible en anticipant plutôt qu'en réagissant, et ce afin de dessiner une trajectoire alternative à l'hégémonie technocratique que dessine l'alliance de fait des États et des grandes multinationales du numérique.
par le plaidoyer politique et juridique, ensuite, pour porter ces analyses auprès des personnes en position de pouvoir (« plaidoyer »). Outre les parlementaires, les juridictions, le gouvernement, la Commission européenne ou les autorités administratives indépendantes, il s'agit également de faire valoir ce plaidoyer et ces stratégies d'influence auprès de toutes et tous, afin qu'elles puissent être comprises et inspirer d'autres à aller dans le même sens.
par la sensibilisation et la formation, afin que notre vision du numérique et les pratiques qui en découlent puissent être mises en débat, enrichies à partir de l'expertise de toutes et de tous, et ainsi essaimer dans la société (« éducation populaire »). Il s'agit par exemple de faire en sorte que nos alliés du monde militant puissent à leur tour se saisir de certains outils, de développer des méthodes qui les émancipent de la surveillance et de la censure. Il s'agit aussi de contribuer à ce que chacun puisse comprendre les enjeux et soit en mesure d'utiliser l'informatique de façon consciente et raisonnée.
Mais encore ? Une fois qu'on a fait la liste de ces grands modes d'action, quelques principes permettent également de définir notre « style » :
Tout d'abord, nous souhaitons prendre garde à continuer à militer dans la joie et la bonne humeur, le plaisir des rencontres, le partage d'expériences, la solidarité, l'humour. L'état du monde est ce qu'il est, mais c'est aussi de cette manière que l'on peut s'en protéger, et agir au mieux pour le transformer.
Nous voulons également faire attention à diversifier nos modes d'expression et les formats, de l'analyse juridique la plus fouillée à l'intervention artistique la plus poétique, ce qui suppose (on y reviendra) de diversifier le profil de celles et ceux qui prennent part à l'association.
Nous voulons agir dans l'échange avec d'autres collectifs militants avec lesquels nous partageons un socle de valeurs. Ces dernières années, nous avons noué des dialogues fertiles avec des milieux a priori éloignés de la cause de l'Internet libre : des associations œuvrant pour la justice sociale et environnementale, les droits des migrants, la lutte contre le racisme et le sexisme, etc. Tout en gardant notre spécificité, nous voulons poursuivre et approfondir ces échanges et travailler à notre échelle aux convergences militantes.
Si nous assumons d'avoir des amis et des alliés privilégiés et si nous ne transigerons pas sur nos valeurs, nous restons cependant non partisans, et souhaitons être en mesure d'échanger avec tout le monde, y compris avec nos adversaires qui peuvent à l'occasion, dans un dossier spécifique, devenir des alliés.
Enfin, si nous nous réservons la liberté de défendre ou de travailler activement avec ceux que nous estimons partager nos valeurs, nous restons profondément attachés au principe selon lequel l'État de droit vaut pour tout le monde, y compris ceux avec lesquels nous sommes en opposition radicale (par exemple, nous estimons que la censure policière et extra-judiciaire n'en devient pas plus acceptable dans son principe lorsqu'elle est utilisée pour invisibiliser des discours de haine).
2. Gouvernance de l'association
En dix ans, et surtout ces quatre dernières années, La Quadrature s'est transformée. Elle est passée du statut d'association de fait sans réelle source de financement à celui d'une association « loi 1901 » employant désormais six salariés à temps plein, avec un budget annuel tournant autour de 350 000 à 400 000 euros. En outre, elle est devenue un acteur reconnu du débat sur les libertés à l'ère numérique, et concentre à ce titre un grand nombre de sollicitations extérieures (pour des interventions publiques par exemple), suscite des attentes diverses au sein de la société (notamment pour prendre position sur un grand nombre d'enjeux liés au numérique).
Pendant longtemps, les membres fondateurs de l'association ont assumé une gouvernance verticale. L'association suivait dans le détail la ligne politique et les positions détaillées qui faisaient consensus entre eux. La position des « cinq gus dans un garage » consistait à dire que, si pour telle ou telle raison, les gens qui se retrouvaient dans l'action de LQDN n'étaient plus d'accord avec ses orientations, rien ne les empêchait de créer leur propre association, de monter « leur propre Quadrature ». Nous ne prétendions pas à la représentativité, en dépit du fait que l'association en soit venue à concentrer une certaine visibilité et des attentes.
Par ailleurs, dans cette configuration verticale qui a eu sa pertinence et sa raison d'être, même l'équipe salariée s'est souvent retrouvée dans la situation d'attendre des directions de la part d'un Conseil d'administration bénévole resserré, incapable de répondre à ses besoins. De la même manière, entre l'équipe salariée et les militants bénévoles, une certaine verticalité s'est instaurée. Faute d'espace pour que ces derniers participent plus pleinement à la définition des priorités et des actions de l'association, il s'est souvent agi pour eux de relayer et de prendre part à des actions conçues sans eux. Certes, les « ateliers » et les Quadrapéros permettaient des moments d'échanges et d'émulation, mais jamais au point de renverser cette verticalité de fait.
Ce resserrement de la gouvernance de l'association sur une poignée de membres fondateurs et une petite équipe salariée a pu donner à certains de nos proches une image de fermeture, de manque de transparence, en plus de faire peser beaucoup de pression, de stress et d'attentes sur un petit groupe de militants salariés. Enfin, malgré certains efforts, LQDN continue d'être marquée par un manque de diversité : elle reste assez masculine, très blanche, et très parisienne malgré de premiers efforts de « décentralisation ».
Aujourd'hui, il est temps d'acter l'élargissement de La Quadrature. Nous voulons que celles et ceux des militants bénévoles qui travaillent de longue date avec nous ou de nouveaux-venus en qui nous avons toute confiance puissent être rapidement reconnus comme membres de La Quadrature, et ainsi s'épanouir à nos côtés comme militants. Cet élargissement se fera par cooptation, les membres fondateurs et l'équipe salariée décidant dans un premier temps de la vingtaine de personnes dont nous aimerions qu'elles nous rejoignent en priorité pour faire vivre l'association, concevoir et participer à ses actions, avec à l'esprit quelques lignes directrices pour guider cet élargissement :
accompagner la mise en place de cette « revue stratégique » et le renouvellement de notre action ;
s'ouvrir à des expertises et des trajectoires militantes diverses ;
assurer un maillage territorial, avec des membres capables d'agir comme points de relais locaux de l'action de La Quadrature ;
assurer le lien avec d'autres associations amies avec lesquelles nous souhaitons renforcer les interactions et faire jouer les complémentarités.
Les membres fondateurs et les administrateurs de LQDN resteront, en lien avec l'équipe salariée, les garants de sa ligne politique et responsables en dernière instance de l'association, mais la réflexion stratégique et l'action de LQDN sera débattue, élaborée et mise en œuvre par cette communauté élargie, qui aura encore vocation à s'étendre à de nouveaux contributeurs, et au sein de laquelle pourront à l'avenir être recrutés les responsables statutaires de l’association.
Chacun de ces membres devra apporter sa pierre au travail collectif en proposant des analyses et en organisant des actions, en prenant part aux campagnes, en jouant un rôle dans la vie interne de l'association, ou toute autre initiative qui rentrerait dans les missions et les tâches de LQDN dont il ou elle aurait envie de se charger. La Quadrature deviendra la somme de ces engagements que le site web sera en mesure de relayer, et qui pourront bénéficier des ressources de l'association. Cela va sans dire, outre les membres statutaires, toute personne souhaitant proposer une action ou rejoindre des initiatives en cours restera évidemment la bienvenue.
Cette Quadrature élargie cherchera dans le même mouvement à relâcher le contrôle sur l'expression publique. Chaque membre sera en mesure de pouvoir s'exprimer publiquement sur ses sujets d'expertise, notamment dans les médias, et jouera à ce titre un rôle de transmission et de représentation de l'association. La prochaine version de notre site web sera dotée d'un espace où tous les membres pourront partager une expression personnelle, n'engageant pas l'association dans son entier mais soumettant au débat leurs contributions et analyses. Nous entendons ainsi promouvoir le débat d'idées entre militants, visibiliser les conflits qui traversent nos milieux. D'autres formats bien identifiés seront réservés à l'expression de positions officielles et consensuelles de l'association, sous la responsabilité du bureau et de l'équipe salariée.
Cette dernière jouera un rôle de coordination et de facilitation de ces engagements bénévoles. Elle fera en sorte de structurer ce travail collectif afin de le rendre le plus utile possible aux missions de La Quadrature, de lui donner de la cohérence et de maximiser son impact. Mais elle ne peut évidemment pas tout faire, et elle devra aussi pouvoir se concentrer pleinement aux quelques priorités de l'association, qui nécessitent un suivi quasi-quotidien et la construction d'une expertise au long cours.
Chaque année, l'assemblée générale de La Quadrature devra permettre à l'ensemble de ces membres et à d'autres amis de l'association de se retrouver pour un moment de rencontre, de réflexion et de débat. Il nous faudra aussi trouver un outil permettant à cette communauté quadraturienne élargie d'échanger et de collaborer au mieux et le plus régulièrement possible, les mailings-lists traditionnelles n'étant pas des plus adaptées pour permettre à une trentaine de personnes de débattre et de travailler ensemble de manière efficace au quotidien.
3. Missions : plaidoyer institutionnel, défense juridique et émancipation numérique
En 2016, La Quadrature annonçait une réorientation stratégique consistant à faire moins de plaidoyer institutionnel au niveau français pour se libérer du temps et chercher à investir des modes d'action orientés vers la capacitation citoyenne (conférences et débats, ateliers, etc.). Aujourd'hui, cette vision reste pertinente mais nous n'avons pas bien su l'inscrire dans nos pratiques, faute d'une méthode claire pour cela. Nous avons ainsi trouvé utile de nous remobiliser sur certains textes ultra-sécuritaires en adoptant le même type de stratégie : analyse juridique détaillée des textes, rencontre de parlementaires et propositions d'amendements. Avec, au final, des résultats mitigés, et un sentiment de n'avoir que des mauvaises nouvelles démobilisatrices à annoncer.
Dans l'action juridique aussi, nous devons pouvoir faire valoir des propositions alternatives, et contribuer à la construction d'espaces émancipés où elles auront cours. D'autant que dans nos milieux militants, certains des bâtisseurs d'un Internet libre et décentralisé sont demandeurs de conseils juridiques pour les aider à défendre leurs valeurs. Nous devons les aider à réduire les risques juridiques encourus et faire en sorte qu'ils puissent compter sur des réseaux de solidarité suffidament denses si jamais les choses tournaient mal, mais aussi tenter d'intervenir de manière plus systématique dans les débats de doctrine juridique pour porter des interprétations du droit qui nous soient favorables (par exemple en ce moment sur l'interprétation des dispositions du règlement européen sur les données personnelles). De cette manière, nous pourrons faire avancer la cause différemment et plus efficacement qu'en nous épuisant dans des dossiers perdus d'avance au Parlement.
Ces deux remarques appellent à adopter quelques principes simples permettant de diversifier nos modes d'intervention en matière juridique :
D'abord, ménager nos efforts en matière d'influence législative, ou plutôt, réussir à faire le pas de côté qui nous permettra d'intervenir efficacement dans ces débats sans pour autant battre de l'air. Au plan de la méthode, il s'agira de systématiser un diagnostic politique d'un dossier législatif sur lequel nous envisageons de nous mobiliser, et ce dès son surgissement. Confrontés à un projet de loi ou de directive, il nous faudra situer les enjeux politiques et lucidement nous poser la question d'y aller ou pas, et avec quelle tactique. Tentons-nous une activité de plaidoyer classique auprès des parlementaires ? Si nous anticipons de nous heurter à des portes fermées, quels autres modes d'influence ou d'action devons-nous privilégier ? Un tel exercice nous permettra de rationaliser notre action, d'économiser nos ressources pour les réinvestir dans d'autres formats dont le besoin se fait de plus en plus sentir.
Car outre les décideurs publics, il s'agit aussi de faire comprendre à toutes et à tous le droit associé à Internet, et de permettre à toute sorte d'acteurs qui se retrouveraient dans notre vision du numérique de se saisir du droit existant et des interprétations que nous en proposons. Par exemple, les fournisseurs d'accès Internet associatifs de la Fédération FDN se posent la question de leurs pratiques en matière de conservation des données suite aux arrêts Digital Rights et Tele2 de la Cour de justice de l'Union européenne. Nous devons être en mesure de leur exposer notre analyse du droit et d’œuvrer à l'appropriation par toutes et tous de ces débats juridiques.
Il nous faut enfin tenter de donner une nouvelle dimension à notre influence doctrinale. La Quadrature reçoit régulièrement des demandes d'intervention à des colloques juridiques, ou de contribution d'articles pour des revues de droit, etc. Elle honore autant que faire se peut ces demandes, mais il est difficile en l'état de saisir toutes ces occasions d'échanger avec le monde du droit et ses professionnels, et de tenter ainsi de leur faire comprendre nos positions. Demain, grâce à l'élargissement de l'association et à l'arrivée de nouveaux membres et contributeurs juristes, il faudra tenter de multiplier les expertises et d'occuper plus intensément ce terrain.
Un autre problème relevé dans nos stratégies de plaidoyer et de défense juridique réside aussi dans le fait que les politiques sécuritaires dans le champ numérique se sont inscrites dans les pratiques institutionnelles sans que nous sachions nous mobiliser au-delà des débats parlementaires ou des contentieux juridictionnels. Nous en restons à un discours souvent abstrait sur l'État de droit, pointant les risques de dispositions législatives ou d'orientations politiques. Or, le droit du numérique conduit à la répression injuste et dangereuse d'individus ou de catégories de personnes. Et ces cas permettent d'incarner ces dérives, de faire sentir la violence dans la pratique du pouvoir, d'incarner l'injustice bien mieux que ne le ferait un communiqué lénifiant sur « la remise en cause des droits fondamentaux ». Bref, il nous faut réinvestir les cas d'arbitraire, les documenter et les articuler lorsque cela est possible et pertinent à nos stratégies politiques et contentieuses.
Pour finir, il nous faut aborder un dernier point central dans les missions de LQDN : les outils et l'émancipation numérique. Depuis ses débuts, La Quadrature a toujours tenté de développer des outils qui lui permettraient de faciliter la participation à ses campagnes, tel que Memopol ou le PiPhone. Or, pour mener à terme le développement de ces outils ambitieux, les ressources ont manqué, de même que la réflexion sur l'usage attendu de ces derniers. Et même lorsque ce travail était fait, il était tout simplement difficile de maintenir ces efforts dans la durée avec seulement un développeur-salarié et une communauté de bénévoles relativement restreinte. Si ces initiatives ont eu leur raison d'être, il est temps de repenser la manière dont nous mobilisons l'expertise technique de celles et ceux qui participent à nos combats.
Tout cela sera bien sûr à discuter, par exemple à l'occasion du Fabulous Contribution Camp que nous organisons à Lyon à la fin du mois avec nos amis de Framasoft. Il semble qu'aux côtés d'acteurs comme Framasoft, la Fédération FDN, Nos Oignons et même des collectifs mondialement réputés comme Rise Up, nous puissions jouer un rôle spécifique, justement en raison de notre position charnière entre les milieux « libristes » et d'autres secteurs militants au niveau français. Nous n'avons pas forcément vocation à devenir des hébergeurs de services, notamment parce que beaucoup le font déjà et que cela supposerait d'adapter nos structures de gouvernance pour donner la voix aux utilisateurs de ces services. En revanche, nous pouvons participer à l'accompagnement de projets, contribuer à faire se rencontrer des militants issus de causes diverses et les bâtisseurs de l'Internet libre, usagers et développeurs – comme dans les premiers temps de l'activisme numérique français où des initiatives comme le R@S contribuaient à la convergence des luttes par la fourniture d'une infrastructure numérique partagée, en plus de permettre une réflexion croisée sur les usages militants du numérique.
Grâce à ses nombreux membres et contributeurs experts du numérique, LQDN peut aussi sensibiliser aux dangers de certains services dominants ou émergents, en documentant leurs pratiques (par exemple en matière de collecte et de partage de données avec des tiers). Ce ne sont là quelques pistes qu'il faudra discuter et affiner avec nos amis de l'Internet libre.
–
Voici dans les grandes lignes là où nous souhaitons emmener La Quadrature dans les mois et les années qui viennent. Ces priorités stratégiques réaffirmées s'articulent donc à un changement majeur dans l'histoire de l'association, à savoir l'élargissement de son « premier cercle », ou plutôt de sa pleine reconnaissance. Nous voulons ainsi redonner du souffle à notre collectif, en multipliant les contributions et en permettant que le travail réalisé ces dernières années puisse servir plus utilement encore la cause démocratique. En attendant d'affiner ces orientations avec toutes celles et ceux qui voudront bien accepter la proposition de nous rejoindre, vos commentaires sont les bienvenus !
";s:7:"content";s:30262:"
La Quadrature du Net fêtera ses dix ans dans quelques mois. Beaucoup de chemin a été parcouru depuis qu'en mars 2008, face à une vague préoccupante de projets de lois et politiques, cinq militants – Christophe Espern, Jérémie Zimmermann, Philippe Aigrain, Gérald Sédrati-Dinet et Benjamin Sonntag, qui s'étaient rencontrés dans les combats contre la loi DADVSI, contre l'opposition aux brevets logiciels et pour la promotion des communs – décidèrent de former un collectif pour porter les valeurs de l'Internet libre face aux coups de boutoir sécuritaires et mercantiles.
Depuis, La Quadrature a connu de beaux succès. Elle est devenue un acteur important de la défense des droits fondamentaux à l'ère numérique, aux niveaux français et international. Chemin faisant, elle a tissé des liens féconds avec de nombreux acteurs militants.
Mais en dix ans beaucoup de choses ont changé, tant au niveau de l'organisation interne de ce qui est devenu une association que dans son environnement. Aujourd'hui, il s'agit d'apprendre de nos erreurs et de remettre à plat nos méthodes et nos modes d'action. C'est le but principal de ce document, fruit d'échanges et de discussions internes, que de proposer en quelques pages un bilan critique de là où nous en sommes aujourd'hui, et à partir de ce diagnostic, de dessiner des pistes pour l'avenir, lesquelles devront être discutées et précisées dans les prochains mois.
Cette « feuille de route » s'articule en trois temps :
L'identité : il s'agit de ré-expliciter ce qu'est La Quadrature du Net (LQDN), ce à quoi elle sert, ce qu'elle entend incarner, et comment elle souhaite le faire.
La gouvernance : nous souhaitons acter l'élargissement du cercle de ceux qui prennent part à LQDN et à ses actions.
Les missions : il s'agit de questionner notre approche de l'analyse juridique et du plaidoyer politique, mais aussi de réfléchir à la manière d’œuvrer au mieux à l'émancipation numérique à travers le développement d'outils.
1. Identité : ce qu'est La Quadrature du Net
En dix ans, le contexte dans lequel évolue La Quadrature s'est largement transformé. Il est marqué notamment par une accélération du durcissement sécuritaire et un resserrement de l'espace démocratique au niveau des institutions et dans l'espace public en général. Une tendance politique doublée de la fuite en avant de l'informatique centralisée et technocratique, elle-même marquée par l'hybridation toujours plus poussée des États et des grandes entreprises privées. Ce mouvement se traduit par la prolifération de la surveillance de masse (privée comme étatique) ou de la censure extrajudiciaire, par la criminalisation du partage, et de manière plus générale par la centralisation et la marchandisation toujours plus poussée de l'infrastructure numérique.
Heureusement, l'Internet alternatif, libre et décentralisé porte haut ses couleurs. Un tissu militant dense et créatif s'est progressivement structuré en France. De Framasoft à l'April en passant par la Fédération FDN, Nos Oignons et même de petites entreprises, beaucoup de groupes travaillent d'arrache-pied, en lien avec d'autres organisations de par le monde, pour que l’informatique en réseau puisse rester un espace d'émancipation individuelle et collective, plutôt que de servir d'instrument de surveillance et de contrôle.
Dans ce tissu de l'activisme numérique français, La Quadrature du Net s'est inscrite dans le sillage d'associations pionnières qui, dès les années 1990, s'étaient spécialisées dans la défense des droits fondamentaux sur Internet, comme l'Association des utilisateurs d'Internet ou l'IRIS (Imaginons un Réseau Internet Solidaire). À ce titre, et notamment à l'occasion de batailles contre les lois sécuritaires adoptées depuis 2013, elle a noué de nombreux liens avec d'autres organisations de défense des droits humains, à l'image de ses partenaires de l'Observatoire des Libertés et du Numérique (OLN) comme Amnesty International France, le CECIL, le Creis-Terminal, la Ligue des Droits de l'Homme, le Syndicat des Avocats de France et le Syndicat de la Magistrature.
Au niveau international, son expertise et ses analyses sont également reconnues et appréciées de diverses associations issues de l'activisme numérique comme l'Electronic Frontier Foundation, mais aussi de grandes ONGs comme Human Rights Watch ou également de certaines organisations internationales dédiées à la défense des droits fondamentaux (ONU, Conseil de l'Europe).
Dans le paysage militant, LQDN occupe donc une position charnière, à l'interface d'un mouvement militant « libriste », inspiré par l’éthique émancipatrice des hackers et autres pionniers de l'Internet libre, et des associations de défense des droits, qu'elles soient françaises ou non. Sa spécificité est donc d'être une association française œuvrant à la construction et à la défense politique et juridique de l'Internet libre, et plus généralement des droits fondamentaux à l'ère numérique.
À partir de là, quelques précisions importantes s'imposent sur la manière dont elle travaille. Elle agit d'abord de trois manières :
par la production et la mise en débat d'analyses sur les enjeux politiques et juridiques de notre monde informatisé, et sur ses devenirs possibles (« doctrine »). Elle souhaite le faire autant que possible en anticipant plutôt qu'en réagissant, et ce afin de dessiner une trajectoire alternative à l'hégémonie technocratique que dessine l'alliance de fait des États et des grandes multinationales du numérique.
par le plaidoyer politique et juridique, ensuite, pour porter ces analyses auprès des personnes en position de pouvoir (« plaidoyer »). Outre les parlementaires, les juridictions, le gouvernement, la Commission européenne ou les autorités administratives indépendantes, il s'agit également de faire valoir ce plaidoyer et ces stratégies d'influence auprès de toutes et tous, afin qu'elles puissent être comprises et inspirer d'autres à aller dans le même sens.
par la sensibilisation et la formation, afin que notre vision du numérique et les pratiques qui en découlent puissent être mises en débat, enrichies à partir de l'expertise de toutes et de tous, et ainsi essaimer dans la société (« éducation populaire »). Il s'agit par exemple de faire en sorte que nos alliés du monde militant puissent à leur tour se saisir de certains outils, de développer des méthodes qui les émancipent de la surveillance et de la censure. Il s'agit aussi de contribuer à ce que chacun puisse comprendre les enjeux et soit en mesure d'utiliser l'informatique de façon consciente et raisonnée.
Mais encore ? Une fois qu'on a fait la liste de ces grands modes d'action, quelques principes permettent également de définir notre « style » :
Tout d'abord, nous souhaitons prendre garde à continuer à militer dans la joie et la bonne humeur, le plaisir des rencontres, le partage d'expériences, la solidarité, l'humour. L'état du monde est ce qu'il est, mais c'est aussi de cette manière que l'on peut s'en protéger, et agir au mieux pour le transformer.
Nous voulons également faire attention à diversifier nos modes d'expression et les formats, de l'analyse juridique la plus fouillée à l'intervention artistique la plus poétique, ce qui suppose (on y reviendra) de diversifier le profil de celles et ceux qui prennent part à l'association.
Nous voulons agir dans l'échange avec d'autres collectifs militants avec lesquels nous partageons un socle de valeurs. Ces dernières années, nous avons noué des dialogues fertiles avec des milieux a priori éloignés de la cause de l'Internet libre : des associations œuvrant pour la justice sociale et environnementale, les droits des migrants, la lutte contre le racisme et le sexisme, etc. Tout en gardant notre spécificité, nous voulons poursuivre et approfondir ces échanges et travailler à notre échelle aux convergences militantes.
Si nous assumons d'avoir des amis et des alliés privilégiés et si nous ne transigerons pas sur nos valeurs, nous restons cependant non partisans, et souhaitons être en mesure d'échanger avec tout le monde, y compris avec nos adversaires qui peuvent à l'occasion, dans un dossier spécifique, devenir des alliés.
Enfin, si nous nous réservons la liberté de défendre ou de travailler activement avec ceux que nous estimons partager nos valeurs, nous restons profondément attachés au principe selon lequel l'État de droit vaut pour tout le monde, y compris ceux avec lesquels nous sommes en opposition radicale (par exemple, nous estimons que la censure policière et extra-judiciaire n'en devient pas plus acceptable dans son principe lorsqu'elle est utilisée pour invisibiliser des discours de haine).
2. Gouvernance de l'association
En dix ans, et surtout ces quatre dernières années, La Quadrature s'est transformée. Elle est passée du statut d'association de fait sans réelle source de financement à celui d'une association « loi 1901 » employant désormais six salariés à temps plein, avec un budget annuel tournant autour de 350 000 à 400 000 euros. En outre, elle est devenue un acteur reconnu du débat sur les libertés à l'ère numérique, et concentre à ce titre un grand nombre de sollicitations extérieures (pour des interventions publiques par exemple), suscite des attentes diverses au sein de la société (notamment pour prendre position sur un grand nombre d'enjeux liés au numérique).
Pendant longtemps, les membres fondateurs de l'association ont assumé une gouvernance verticale. L'association suivait dans le détail la ligne politique et les positions détaillées qui faisaient consensus entre eux. La position des « cinq gus dans un garage » consistait à dire que, si pour telle ou telle raison, les gens qui se retrouvaient dans l'action de LQDN n'étaient plus d'accord avec ses orientations, rien ne les empêchait de créer leur propre association, de monter « leur propre Quadrature ». Nous ne prétendions pas à la représentativité, en dépit du fait que l'association en soit venue à concentrer une certaine visibilité et des attentes.
Par ailleurs, dans cette configuration verticale qui a eu sa pertinence et sa raison d'être, même l'équipe salariée s'est souvent retrouvée dans la situation d'attendre des directions de la part d'un Conseil d'administration bénévole resserré, incapable de répondre à ses besoins. De la même manière, entre l'équipe salariée et les militants bénévoles, une certaine verticalité s'est instaurée. Faute d'espace pour que ces derniers participent plus pleinement à la définition des priorités et des actions de l'association, il s'est souvent agi pour eux de relayer et de prendre part à des actions conçues sans eux. Certes, les « ateliers » et les Quadrapéros permettaient des moments d'échanges et d'émulation, mais jamais au point de renverser cette verticalité de fait.
Ce resserrement de la gouvernance de l'association sur une poignée de membres fondateurs et une petite équipe salariée a pu donner à certains de nos proches une image de fermeture, de manque de transparence, en plus de faire peser beaucoup de pression, de stress et d'attentes sur un petit groupe de militants salariés. Enfin, malgré certains efforts, LQDN continue d'être marquée par un manque de diversité : elle reste assez masculine, très blanche, et très parisienne malgré de premiers efforts de « décentralisation ».
Aujourd'hui, il est temps d'acter l'élargissement de La Quadrature. Nous voulons que celles et ceux des militants bénévoles qui travaillent de longue date avec nous ou de nouveaux-venus en qui nous avons toute confiance puissent être rapidement reconnus comme membres de La Quadrature, et ainsi s'épanouir à nos côtés comme militants. Cet élargissement se fera par cooptation, les membres fondateurs et l'équipe salariée décidant dans un premier temps de la vingtaine de personnes dont nous aimerions qu'elles nous rejoignent en priorité pour faire vivre l'association, concevoir et participer à ses actions, avec à l'esprit quelques lignes directrices pour guider cet élargissement :
accompagner la mise en place de cette « revue stratégique » et le renouvellement de notre action ;
s'ouvrir à des expertises et des trajectoires militantes diverses ;
assurer un maillage territorial, avec des membres capables d'agir comme points de relais locaux de l'action de La Quadrature ;
assurer le lien avec d'autres associations amies avec lesquelles nous souhaitons renforcer les interactions et faire jouer les complémentarités.
Les membres fondateurs et les administrateurs de LQDN resteront, en lien avec l'équipe salariée, les garants de sa ligne politique et responsables en dernière instance de l'association, mais la réflexion stratégique et l'action de LQDN sera débattue, élaborée et mise en œuvre par cette communauté élargie, qui aura encore vocation à s'étendre à de nouveaux contributeurs, et au sein de laquelle pourront à l'avenir être recrutés les responsables statutaires de l’association.
Chacun de ces membres devra apporter sa pierre au travail collectif en proposant des analyses et en organisant des actions, en prenant part aux campagnes, en jouant un rôle dans la vie interne de l'association, ou toute autre initiative qui rentrerait dans les missions et les tâches de LQDN dont il ou elle aurait envie de se charger. La Quadrature deviendra la somme de ces engagements que le site web sera en mesure de relayer, et qui pourront bénéficier des ressources de l'association. Cela va sans dire, outre les membres statutaires, toute personne souhaitant proposer une action ou rejoindre des initiatives en cours restera évidemment la bienvenue.
Cette Quadrature élargie cherchera dans le même mouvement à relâcher le contrôle sur l'expression publique. Chaque membre sera en mesure de pouvoir s'exprimer publiquement sur ses sujets d'expertise, notamment dans les médias, et jouera à ce titre un rôle de transmission et de représentation de l'association. La prochaine version de notre site web sera dotée d'un espace où tous les membres pourront partager une expression personnelle, n'engageant pas l'association dans son entier mais soumettant au débat leurs contributions et analyses. Nous entendons ainsi promouvoir le débat d'idées entre militants, visibiliser les conflits qui traversent nos milieux. D'autres formats bien identifiés seront réservés à l'expression de positions officielles et consensuelles de l'association, sous la responsabilité du bureau et de l'équipe salariée.
Cette dernière jouera un rôle de coordination et de facilitation de ces engagements bénévoles. Elle fera en sorte de structurer ce travail collectif afin de le rendre le plus utile possible aux missions de La Quadrature, de lui donner de la cohérence et de maximiser son impact. Mais elle ne peut évidemment pas tout faire, et elle devra aussi pouvoir se concentrer pleinement aux quelques priorités de l'association, qui nécessitent un suivi quasi-quotidien et la construction d'une expertise au long cours.
Chaque année, l'assemblée générale de La Quadrature devra permettre à l'ensemble de ces membres et à d'autres amis de l'association de se retrouver pour un moment de rencontre, de réflexion et de débat. Il nous faudra aussi trouver un outil permettant à cette communauté quadraturienne élargie d'échanger et de collaborer au mieux et le plus régulièrement possible, les mailings-lists traditionnelles n'étant pas des plus adaptées pour permettre à une trentaine de personnes de débattre et de travailler ensemble de manière efficace au quotidien.
3. Missions : plaidoyer institutionnel, défense juridique et émancipation numérique
En 2016, La Quadrature annonçait une réorientation stratégique consistant à faire moins de plaidoyer institutionnel au niveau français pour se libérer du temps et chercher à investir des modes d'action orientés vers la capacitation citoyenne (conférences et débats, ateliers, etc.). Aujourd'hui, cette vision reste pertinente mais nous n'avons pas bien su l'inscrire dans nos pratiques, faute d'une méthode claire pour cela. Nous avons ainsi trouvé utile de nous remobiliser sur certains textes ultra-sécuritaires en adoptant le même type de stratégie : analyse juridique détaillée des textes, rencontre de parlementaires et propositions d'amendements. Avec, au final, des résultats mitigés, et un sentiment de n'avoir que des mauvaises nouvelles démobilisatrices à annoncer.
Dans l'action juridique aussi, nous devons pouvoir faire valoir des propositions alternatives, et contribuer à la construction d'espaces émancipés où elles auront cours. D'autant que dans nos milieux militants, certains des bâtisseurs d'un Internet libre et décentralisé sont demandeurs de conseils juridiques pour les aider à défendre leurs valeurs. Nous devons les aider à réduire les risques juridiques encourus et faire en sorte qu'ils puissent compter sur des réseaux de solidarité suffidament denses si jamais les choses tournaient mal, mais aussi tenter d'intervenir de manière plus systématique dans les débats de doctrine juridique pour porter des interprétations du droit qui nous soient favorables (par exemple en ce moment sur l'interprétation des dispositions du règlement européen sur les données personnelles). De cette manière, nous pourrons faire avancer la cause différemment et plus efficacement qu'en nous épuisant dans des dossiers perdus d'avance au Parlement.
Ces deux remarques appellent à adopter quelques principes simples permettant de diversifier nos modes d'intervention en matière juridique :
D'abord, ménager nos efforts en matière d'influence législative, ou plutôt, réussir à faire le pas de côté qui nous permettra d'intervenir efficacement dans ces débats sans pour autant battre de l'air. Au plan de la méthode, il s'agira de systématiser un diagnostic politique d'un dossier législatif sur lequel nous envisageons de nous mobiliser, et ce dès son surgissement. Confrontés à un projet de loi ou de directive, il nous faudra situer les enjeux politiques et lucidement nous poser la question d'y aller ou pas, et avec quelle tactique. Tentons-nous une activité de plaidoyer classique auprès des parlementaires ? Si nous anticipons de nous heurter à des portes fermées, quels autres modes d'influence ou d'action devons-nous privilégier ? Un tel exercice nous permettra de rationaliser notre action, d'économiser nos ressources pour les réinvestir dans d'autres formats dont le besoin se fait de plus en plus sentir.
Car outre les décideurs publics, il s'agit aussi de faire comprendre à toutes et à tous le droit associé à Internet, et de permettre à toute sorte d'acteurs qui se retrouveraient dans notre vision du numérique de se saisir du droit existant et des interprétations que nous en proposons. Par exemple, les fournisseurs d'accès Internet associatifs de la Fédération FDN se posent la question de leurs pratiques en matière de conservation des données suite aux arrêts Digital Rights et Tele2 de la Cour de justice de l'Union européenne. Nous devons être en mesure de leur exposer notre analyse du droit et d’œuvrer à l'appropriation par toutes et tous de ces débats juridiques.
Il nous faut enfin tenter de donner une nouvelle dimension à notre influence doctrinale. La Quadrature reçoit régulièrement des demandes d'intervention à des colloques juridiques, ou de contribution d'articles pour des revues de droit, etc. Elle honore autant que faire se peut ces demandes, mais il est difficile en l'état de saisir toutes ces occasions d'échanger avec le monde du droit et ses professionnels, et de tenter ainsi de leur faire comprendre nos positions. Demain, grâce à l'élargissement de l'association et à l'arrivée de nouveaux membres et contributeurs juristes, il faudra tenter de multiplier les expertises et d'occuper plus intensément ce terrain.
Un autre problème relevé dans nos stratégies de plaidoyer et de défense juridique réside aussi dans le fait que les politiques sécuritaires dans le champ numérique se sont inscrites dans les pratiques institutionnelles sans que nous sachions nous mobiliser au-delà des débats parlementaires ou des contentieux juridictionnels. Nous en restons à un discours souvent abstrait sur l'État de droit, pointant les risques de dispositions législatives ou d'orientations politiques. Or, le droit du numérique conduit à la répression injuste et dangereuse d'individus ou de catégories de personnes. Et ces cas permettent d'incarner ces dérives, de faire sentir la violence dans la pratique du pouvoir, d'incarner l'injustice bien mieux que ne le ferait un communiqué lénifiant sur « la remise en cause des droits fondamentaux ». Bref, il nous faut réinvestir les cas d'arbitraire, les documenter et les articuler lorsque cela est possible et pertinent à nos stratégies politiques et contentieuses.
Pour finir, il nous faut aborder un dernier point central dans les missions de LQDN : les outils et l'émancipation numérique. Depuis ses débuts, La Quadrature a toujours tenté de développer des outils qui lui permettraient de faciliter la participation à ses campagnes, tel que Memopol ou le PiPhone. Or, pour mener à terme le développement de ces outils ambitieux, les ressources ont manqué, de même que la réflexion sur l'usage attendu de ces derniers. Et même lorsque ce travail était fait, il était tout simplement difficile de maintenir ces efforts dans la durée avec seulement un développeur-salarié et une communauté de bénévoles relativement restreinte. Si ces initiatives ont eu leur raison d'être, il est temps de repenser la manière dont nous mobilisons l'expertise technique de celles et ceux qui participent à nos combats.
Tout cela sera bien sûr à discuter, par exemple à l'occasion du Fabulous Contribution Camp que nous organisons à Lyon à la fin du mois avec nos amis de Framasoft. Il semble qu'aux côtés d'acteurs comme Framasoft, la Fédération FDN, Nos Oignons et même des collectifs mondialement réputés comme Rise Up, nous puissions jouer un rôle spécifique, justement en raison de notre position charnière entre les milieux « libristes » et d'autres secteurs militants au niveau français. Nous n'avons pas forcément vocation à devenir des hébergeurs de services, notamment parce que beaucoup le font déjà et que cela supposerait d'adapter nos structures de gouvernance pour donner la voix aux utilisateurs de ces services. En revanche, nous pouvons participer à l'accompagnement de projets, contribuer à faire se rencontrer des militants issus de causes diverses et les bâtisseurs de l'Internet libre, usagers et développeurs – comme dans les premiers temps de l'activisme numérique français où des initiatives comme le R@S contribuaient à la convergence des luttes par la fourniture d'une infrastructure numérique partagée, en plus de permettre une réflexion croisée sur les usages militants du numérique.
Grâce à ses nombreux membres et contributeurs experts du numérique, LQDN peut aussi sensibiliser aux dangers de certains services dominants ou émergents, en documentant leurs pratiques (par exemple en matière de collecte et de partage de données avec des tiers). Ce ne sont là quelques pistes qu'il faudra discuter et affiner avec nos amis de l'Internet libre.
–
Voici dans les grandes lignes là où nous souhaitons emmener La Quadrature dans les mois et les années qui viennent. Ces priorités stratégiques réaffirmées s'articulent donc à un changement majeur dans l'histoire de l'association, à savoir l'élargissement de son « premier cercle », ou plutôt de sa pleine reconnaissance. Nous voulons ainsi redonner du souffle à notre collectif, en multipliant les contributions et en permettant que le travail réalisé ces dernières années puisse servir plus utilement encore la cause démocratique. En attendant d'affiner ces orientations avec toutes celles et ceux qui voudront bien accepter la proposition de nous rejoindre, vos commentaires sont les bienvenus !
";s:7:"dateiso";s:15:"20171113_131942";}s:15:"20171106_180513";a:7:{s:5:"title";s:66:"Fin du débat sur notre vie privée au Parlement européen : bilan";s:4:"link";s:48:"http://www.laquadrature.net/fr/eprivacy_bilan_pe";s:4:"guid";s:36:"10338 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Nov 2017 17:05:13 +0000";s:11:"description";s:22554:"
Paris, le 6 novembre 2017 — Le 26 octobre, l'ensemble du Parlement européen a décidé de clore les débats sur le règlement ePrivacy. Sa position est donc celle arrêtée le 19 octobre par sa commission d'examen principale. Le texte sera désormais débattu entre les gouvernements des États européens et des représentants du Parlement, qui tenteront de s'entendre sur une version commune. Faisons le bilan de l'étape qui vient de prendre fin.
Un départ alarmant
La protection des nos communications électroniques est actuellement assurée par la directive ePrivacy de 2002. Elle exige notre consentement pour l'analyse de nos communications, mais ne s'impose toutefois qu'aux opérateurs de téléphonie et d'Internet.
L'an dernier, la Commission européenne a annoncé souhaiter réformer cette directive. Son idée était notamment d'étendre le champ de la directive ePrivacy à tout type de prestataire de communications électroniques : opérateurs de télécommunications, mais aussi fournisseur de courriels (Gmail par exemple) et de messagerie instantanée (comme Whatsapp). Cette ambition était enthousiasmante et déclenchait naturellement l'opposition des nouvelles entreprises visées (voir les recommandations que nous publions alors).
Toutefois, le projet de règlement ePrivacy finalement proposé par la Commission en janvier dernier prévoyait aussi de supprimer de nombreuses protections que nous offre le droit actuel (voir l'analyse détaillée que nous en faisions) :
nos téléphones pourraient être tracés par des magasins ou des villes sans notre consentement, pour n'importe quelle finalité ;
nos activités en ligne pourraient être tracées sans notre consentement pour « mesurer des résultats d'audience sur le Web » ;
les sites Internet pourrait bloquer leur accès aux internautes refusant d'y être tracés.
Cet alarmant projet de règlement a été remis au Parlement européen, libre de le modifier, pour le meilleur comme pour le pire (lire les recommandations que nous adressions alors aux députés).
Un lobbying féroce
Le règlement ePrivacy affectera de nombreuses acteurs aussi puissants que divers (voir leurs positions recensées sur notre wiki). Chacun y trouve un intérêt à affaiblir nos droits fondamentaux :
les opérateurs de télécommunications voient dans la réforme d'ePrivacy l'occasion d'autoriser l'analyse de nos communications sans notre consentement, ce qui leur créerait une nouvelle manne économique considérable ;
les autres fournisseurs de communications (courriel et autres) ne veulent pas être soumis à l'exigence de consentement actuellement imposée aux seuls opérateurs, celle-ci remettant en cause leur modèle économique fondé sur la surveillance de leurs utilisateurs à des fins publicitaires ;
les entreprises de publicité en ligne voient dans la réforme d'ePrivacy l'occasion d'autoriser le traçage sans consentement de tous les internautes, ce qui ouvrirait en grand les vannes de la surveillance économique généralisée ;
les grands éditeurs de presse, ayant entièrement renoncé à leur modèle économique traditionnel (le seul capable de produire une information de qualité), sont aujourd'hui pieds et mains liés à leurs clients (les entreprises de publicité) et contraints de défendre les intérêts de ces derniers (contre l'intérêt de la presse, comme nous l'avons déjà expliqué) ;
les gouvernements européens ont tout intérêt à ce que les entreprises (volontairement ou non) surveillent pour leur compte l'ensemble de la population, afin de mettre en œuvre les mesures de surveillances les plus autoritaires, dont ils ne cachent même plus la violence.
La volonté commune qu'ont ces acteurs de détruire nos droits fondamentaux a été servilement exécutée par de nombreux députés européens (principalement de droite) dans les amendements qu'ils ont déposés (analysés ici, en anglais) et dans les avis qu'ils ont fait adoptés par le Parlement ces derniers mois (dénoncés là).
La situation semblait donc critique (nous adaptions notre position en publiant de nouvelles recommandations).
Le rôle décisif de la commission LIBE
Le règlement a été examiné par différentes commissions d'examen du Parlement, mais c'est la commission LIBE (« liberté civile ») qui devait avoir le dernier mot et arrêter la position du Parlement. La députée Marju Lauristin a été nommée pour conduire les débats au sein de cette commission. Elle appartient au groupe politique S&D, qui regroupe en Europe des partis similaires à feu le Parti Socialiste français.
La vision générale qu'a Mme Lauristin de la vie privée ne semble pas très éloignée de celle de La Quadrature du Net. Mais les visions idéologiques ont la vie dure en politique ! Et pour cause : plutôt que de défendre ses positions de façon intransigeante, l'objectif constant de Mme Lauristin a été de trouver un compromis avec les groupes de droite. La raison de cet objectif désastreux se trouve dans les règles de procédure du Parlement.
La règle perverse du trilogue
En principe, toute nouvelle norme créée par l'UE ne peut être adoptée que si le Parlement européen et les gouvernements de États membres (qui négocient au sein du Conseil de l'UE) se mettent d'accord sur un texte identique — ce qui peut prendre du temps et plusieurs lectures par institution.
Pour gagner du temps, les règles de procédure du Parlement prévoient ce qui suit : une commission d'examen (constituée d'une soixantaines de députées) arrête, seule, la position du Parlement et dispose d'un mandat pour négocier avec le Conseil de l'UE, au nom de l'ensemble du Parlement, afin de trouver un texte commun.
Cette négociation est appelé « trilogue » (qui brille d'ailleurs par son absence totale de transparence, privant radicalement la population de toute possibilité de prendre part aux débats). Lorsque le trilogue aboutit à un consensus, il ne reste plus qu'au Parlement et au Conseil qu'à adopter le texte de compromis par un vote formel.
Ceci est le déroulement classique. Le règlement du Parlement prévoit que, en principe, le mandat donné à la commission d'examen pour négocier avec le Conseil en trilogue est automatique. Toutefois, un groupe politique peut s'opposer au trilogue en exigeant que le mandat soit soumis au vote de l'ensemble du Parlement. Si le mandat est rejeté, le texte adopté par la commission d'examen n'est plus considéré comme la position du Parlement. Il est renvoyé devant l'ensemble du Parlement qui, en séance plénière, peut le modifier entièrement (voir l'article 69 quater du règlement intérieur du Parlement).
Un compromis impossible
C'est ce « risque » d'aller en plénière que Mme Lauristin redoutait : si le texte adopté en commission LIBE ne convenait pas aux groupes de droite, ceux-ci s'opposeraient à son mandat. Or, Mme Lauristin pensait que, si le texte était soumis à l'ensemble des députés, nombre d'entre eux n'auraient pas (ou ne prendraient pas) le temps de l'examiner dans le détail et se laisseraient massivement convaincre par le lobbying particulièrement féroce qui était à l'œuvre.
Mme Lauristin était donc prête à faire avec la droite de nombreux compromis, dans la mesure où elle jugeait ces compromis « moins pires » que le texte qui serait adopté en plénière si son mandat lui était refusé.
La Quadrature du Net s'est frontalement opposée à cette logique. D'abord, par principe, on ne défend pas les libertés fondamentales en bridant des débats parlementaires. De plus, dans ce cas précis, les compromis que Mme Lauristin était prête à faire s'attaquaient si frontalement à nos droits que les accepter pour éviter « le pire » ne faisait plus aucun sens (voir notre article d'interpellation, en anglais).
La députée n'essayait plus de corriger toutes les atteintes à nos droits proposées par la Commission européenne en janvier dernier. Plus grave, elle s'apprêtait à autoriser l'exploitation des métadonnées de nos communications sans notre consentement (en contradiction totale du droit actuel, mais en parfaite conformité des souhaits exprimés par les géant de l'Internet et des opérateurs oligopolistiques, repris par la droite).
Un réveil salutaire
C'est à ce moment que l'intervention de la population a été la plus décisive pour défendre nos droits. Portée par les nombreux « coups de pression » individuels qui étaient venus de toute l'Europe (par mails, appels ou interpellations publiques des députés, dans le cadre notamment de notre campagne ePrivacy), La Quadrature du Net, rejointe par les associations Acces Now et EDRi, a entrepris de briser cette absurde tentative de compromis avec la droite.
Ces trois associations ont expliqué aux députés de la commission LIBE que, si leurs compromis autorisaient une surveillance aussi grave que celle alors débattue, elles s'opposeraient tout simplement à l'ensemble du règlement ePrivacy. Elles exigeraient que le texte soit rejeté et que, faute de mieux, le droit reste dans son état actuel.
Ce coup de pied dans la fourmilière a suffit, par effet de domino, à remettre la situation en ordre. Les députés les plus à gauche, Jan Philipp Albrecht (Vert) en tête, ont retrouvé le courage qui leur manquait jusqu'ici. Mme Lauristin a dû retirer des négociations les compromis les plus graves (principalement ceux concernant l'analyse des métadonnées).
Quelques députés de droite se sont révélés prêts à suivre Mme Lauristin, provoquant le réveil de la majorité des autres députés de droite, qui souhaitaient défendre l'intérêt des entreprises sans aucune concession. Le débat s'étant re-polarisé, l'impossibilité d'établir un compromis trans-partisan s'est enfin révélée. Les négociations générales ont pris fin (nous nous en réjouissions ici, en anglais).
Une occasion manquée
Mme Lauristin avait enfin les mains libres pour améliorer le texte, les députés prêts à la suivre étant légèrement majoritaire au sein de la commission LIBE. Mais elle craignait trop de perdre cette majorité. De plus, désormais, les groupes pro-industries remettraient manifestement en cause son mandat devant l'ensemble du Parlement, ce qu'elle voulait toujours éviter. Elle craignait qu'en allant « trop loin » dans la défense de nos droits contres des intérêts économiques dangereux et insensés, l'ensemble du Parlement refuserait de lui donner son mandat et que le texte aille en plénière.
Elle s'est donc contentée de retirer du texte les derniers compromis proposés à la droite, sans rien changer de plus. Notamment, les deux dispositions les plus graves proposées par la Commission européenne en janvier (traçage des téléphones et traçage sur Internet pour mesurer l'audience) n'ont été qu'à peine encadrées alors qu'elles auraient du être simplement supprimées1.
C'est cette version du texte qui a été adoptée par la commission LIBE le 19 octobre (à 31 voix contre 25). Nous dénoncions alors amèrement que les députés disant lutter pour notre vie privée aient échoué à le faire entièrement.
Des avancées importantes
Toutefois, heureusement et en dépit de cette occasion manquée, le texte avait intégré au cours des mois précédents de nombreuses avancées proposées par des associations de défense des libertés, certaines institutions ou les députés européens les plus attentifs à nos droits. Le texte adopté par la commission LIBE prévoit six mesures déterminantes :
aucun internaute ne pourra se voir refuser l'accès à un site au seul motif qu'il a refusé d'y être tracé2 (contrairement à ce que la proposition initiale de la Commission européenne pouvait laisser entendre) ;
les fournisseurs de communications (téléphone, FAI, email, discussions instantanées) devront garantir la confidentialité des communications par les méthodes techniques adéquates du niveau de l'état de l'art, étant explicitement visé le chiffrement de bout en bout, et aucune loi nationale ne pourra les contraindre à utiliser une méthode plus faible (tel le chiffrement de point à point) ou d'introduire des backdoors3 ;
les fournisseurs de communications ne pourront être contraints de collaborer avec les États que pour lutter contre les crimes graves et les atteintes à la sécurité publique (ces finalités sont toujours beaucoup trop larges mais, au moins, écartent d'autres finalités inadmissibles qui autorisent aujourd'hui la surveillance étatique, telles que la défense des intérêts économiques d'un État ou la défense des droits de particuliers, tel que le droit d'auteur)4 ;
les entreprises partageant des informations avec des autorités publiques devront le documenter dans des rapports publics (indiquant le nombre, les finalités et les auteurs des demandes d'information, les types de données transmises et le nombre de personnes affectées)5 ;
par défaut, les navigateurs Web devront être configurés pour fonctionner comme certains bloqueurs de publicité (empêcher l'affichage de contenus et les tentatives de traçage provenant d'entités tierces au site consulté par l'utilisateur)6 ;
nos communications seront toutes protégées de la même façon, quel que soit le lieu d'où elles sont envoyées (le droit actuel protège peu les communications envoyées depuis un réseau qui n'est pas « accessible au public », tel qu'un réseau d'entreprise ou universitaire)7.
La lutte à venir
L'ensemble du Parlement a été saisi par les groupes de droite pour décider de donner ou non à Mme Lauristin son mandat pour débattre de ce texte en trilogue. Le 26 octobre, le Parlement l'a accepté, à 318 voix contre 280, faisant ainsi sien le texte adopté en LIBE et marquant la fin des débats parlementaires.
Ce sont désormais aux gouvernements d'arrêter entre eux une position commune au cours des mois à venir. Ce n'est qu'ensuite que les négociations en trilogue pourront commencer (Mme Lauristin sera alors remplacée par une autre députée de son même groupe politique, Birgit Sippel).
Le rôle de la France sera ici déterminant : nous reviendrons bientôt en détail sur ses positions actuelles et sur l'action que nous devrons collectivement exercer pour défendre nos droits fondamentaux.
1. L'article 8, paragraphe 1, point d, et paragraphe 2a du rapport LIBE limitent le pistage de nos téléphones et de nos activités en ligne à la seule réalisation de statistiques supposées n'agréger que des informations anonymes. Cette nouvelle limitation n'est en rien satisfaisante : il est particulièrement risqué d'autoriser la constructions de bases de données anonymes dès lors que, techniquement, personne ne peut prédire si une donnée aujourd'hui anonyme ne pourra être réutilisée demain de sorte à être désanonymisée ou pour réaliser de la surveillance de masse. En effet, à ce dernier égard, dans la mesure où les statistiques pourraient couvrir l'ensemble de la population et de ses activités sans être toutefois rendues publiques, elles offriraient à ceux qui y ont accès des informations particulièrement détaillées sur la population que celle-ci ignore elle-même, créant un déséquilibre du savoir considérable, propice à des politiques de régulation de masse parfaitement contraires à tout idéal démocratique. La publication des ces statistiques n'empêcherait d'ailleurs pas à elle seule des pratiques de surveillance (et donc de régulation) des individus à grande échelle, pour des finalités opposées à l'intérêt collectif. Enfin, si toutes les statistiques produites étaient légitimes, il n'y aurait aucune raison de craindre que la population refuse d'y consentir : contourner le consentement des personnes n'est utile que pour poursuivre des finalités illégitimes — finalités que la population refuserait si elle était consultée.
6. Voir l'article 10, paragraphe 1, point a du rapport LIBE.
7. Voir l'article 4, paragraphe 3, point -aa du rapport LIBE, à opposer au champ de l'article 5 de l'actuelle directive ePrivacy.
";s:7:"content";s:22554:"
Paris, le 6 novembre 2017 — Le 26 octobre, l'ensemble du Parlement européen a décidé de clore les débats sur le règlement ePrivacy. Sa position est donc celle arrêtée le 19 octobre par sa commission d'examen principale. Le texte sera désormais débattu entre les gouvernements des États européens et des représentants du Parlement, qui tenteront de s'entendre sur une version commune. Faisons le bilan de l'étape qui vient de prendre fin.
Un départ alarmant
La protection des nos communications électroniques est actuellement assurée par la directive ePrivacy de 2002. Elle exige notre consentement pour l'analyse de nos communications, mais ne s'impose toutefois qu'aux opérateurs de téléphonie et d'Internet.
L'an dernier, la Commission européenne a annoncé souhaiter réformer cette directive. Son idée était notamment d'étendre le champ de la directive ePrivacy à tout type de prestataire de communications électroniques : opérateurs de télécommunications, mais aussi fournisseur de courriels (Gmail par exemple) et de messagerie instantanée (comme Whatsapp). Cette ambition était enthousiasmante et déclenchait naturellement l'opposition des nouvelles entreprises visées (voir les recommandations que nous publions alors).
Toutefois, le projet de règlement ePrivacy finalement proposé par la Commission en janvier dernier prévoyait aussi de supprimer de nombreuses protections que nous offre le droit actuel (voir l'analyse détaillée que nous en faisions) :
nos téléphones pourraient être tracés par des magasins ou des villes sans notre consentement, pour n'importe quelle finalité ;
nos activités en ligne pourraient être tracées sans notre consentement pour « mesurer des résultats d'audience sur le Web » ;
les sites Internet pourrait bloquer leur accès aux internautes refusant d'y être tracés.
Cet alarmant projet de règlement a été remis au Parlement européen, libre de le modifier, pour le meilleur comme pour le pire (lire les recommandations que nous adressions alors aux députés).
Un lobbying féroce
Le règlement ePrivacy affectera de nombreuses acteurs aussi puissants que divers (voir leurs positions recensées sur notre wiki). Chacun y trouve un intérêt à affaiblir nos droits fondamentaux :
les opérateurs de télécommunications voient dans la réforme d'ePrivacy l'occasion d'autoriser l'analyse de nos communications sans notre consentement, ce qui leur créerait une nouvelle manne économique considérable ;
les autres fournisseurs de communications (courriel et autres) ne veulent pas être soumis à l'exigence de consentement actuellement imposée aux seuls opérateurs, celle-ci remettant en cause leur modèle économique fondé sur la surveillance de leurs utilisateurs à des fins publicitaires ;
les entreprises de publicité en ligne voient dans la réforme d'ePrivacy l'occasion d'autoriser le traçage sans consentement de tous les internautes, ce qui ouvrirait en grand les vannes de la surveillance économique généralisée ;
les grands éditeurs de presse, ayant entièrement renoncé à leur modèle économique traditionnel (le seul capable de produire une information de qualité), sont aujourd'hui pieds et mains liés à leurs clients (les entreprises de publicité) et contraints de défendre les intérêts de ces derniers (contre l'intérêt de la presse, comme nous l'avons déjà expliqué) ;
les gouvernements européens ont tout intérêt à ce que les entreprises (volontairement ou non) surveillent pour leur compte l'ensemble de la population, afin de mettre en œuvre les mesures de surveillances les plus autoritaires, dont ils ne cachent même plus la violence.
La volonté commune qu'ont ces acteurs de détruire nos droits fondamentaux a été servilement exécutée par de nombreux députés européens (principalement de droite) dans les amendements qu'ils ont déposés (analysés ici, en anglais) et dans les avis qu'ils ont fait adoptés par le Parlement ces derniers mois (dénoncés là).
La situation semblait donc critique (nous adaptions notre position en publiant de nouvelles recommandations).
Le rôle décisif de la commission LIBE
Le règlement a été examiné par différentes commissions d'examen du Parlement, mais c'est la commission LIBE (« liberté civile ») qui devait avoir le dernier mot et arrêter la position du Parlement. La députée Marju Lauristin a été nommée pour conduire les débats au sein de cette commission. Elle appartient au groupe politique S&D, qui regroupe en Europe des partis similaires à feu le Parti Socialiste français.
La vision générale qu'a Mme Lauristin de la vie privée ne semble pas très éloignée de celle de La Quadrature du Net. Mais les visions idéologiques ont la vie dure en politique ! Et pour cause : plutôt que de défendre ses positions de façon intransigeante, l'objectif constant de Mme Lauristin a été de trouver un compromis avec les groupes de droite. La raison de cet objectif désastreux se trouve dans les règles de procédure du Parlement.
La règle perverse du trilogue
En principe, toute nouvelle norme créée par l'UE ne peut être adoptée que si le Parlement européen et les gouvernements de États membres (qui négocient au sein du Conseil de l'UE) se mettent d'accord sur un texte identique — ce qui peut prendre du temps et plusieurs lectures par institution.
Pour gagner du temps, les règles de procédure du Parlement prévoient ce qui suit : une commission d'examen (constituée d'une soixantaines de députées) arrête, seule, la position du Parlement et dispose d'un mandat pour négocier avec le Conseil de l'UE, au nom de l'ensemble du Parlement, afin de trouver un texte commun.
Cette négociation est appelé « trilogue » (qui brille d'ailleurs par son absence totale de transparence, privant radicalement la population de toute possibilité de prendre part aux débats). Lorsque le trilogue aboutit à un consensus, il ne reste plus qu'au Parlement et au Conseil qu'à adopter le texte de compromis par un vote formel.
Ceci est le déroulement classique. Le règlement du Parlement prévoit que, en principe, le mandat donné à la commission d'examen pour négocier avec le Conseil en trilogue est automatique. Toutefois, un groupe politique peut s'opposer au trilogue en exigeant que le mandat soit soumis au vote de l'ensemble du Parlement. Si le mandat est rejeté, le texte adopté par la commission d'examen n'est plus considéré comme la position du Parlement. Il est renvoyé devant l'ensemble du Parlement qui, en séance plénière, peut le modifier entièrement (voir l'article 69 quater du règlement intérieur du Parlement).
Un compromis impossible
C'est ce « risque » d'aller en plénière que Mme Lauristin redoutait : si le texte adopté en commission LIBE ne convenait pas aux groupes de droite, ceux-ci s'opposeraient à son mandat. Or, Mme Lauristin pensait que, si le texte était soumis à l'ensemble des députés, nombre d'entre eux n'auraient pas (ou ne prendraient pas) le temps de l'examiner dans le détail et se laisseraient massivement convaincre par le lobbying particulièrement féroce qui était à l'œuvre.
Mme Lauristin était donc prête à faire avec la droite de nombreux compromis, dans la mesure où elle jugeait ces compromis « moins pires » que le texte qui serait adopté en plénière si son mandat lui était refusé.
La Quadrature du Net s'est frontalement opposée à cette logique. D'abord, par principe, on ne défend pas les libertés fondamentales en bridant des débats parlementaires. De plus, dans ce cas précis, les compromis que Mme Lauristin était prête à faire s'attaquaient si frontalement à nos droits que les accepter pour éviter « le pire » ne faisait plus aucun sens (voir notre article d'interpellation, en anglais).
La députée n'essayait plus de corriger toutes les atteintes à nos droits proposées par la Commission européenne en janvier dernier. Plus grave, elle s'apprêtait à autoriser l'exploitation des métadonnées de nos communications sans notre consentement (en contradiction totale du droit actuel, mais en parfaite conformité des souhaits exprimés par les géant de l'Internet et des opérateurs oligopolistiques, repris par la droite).
Un réveil salutaire
C'est à ce moment que l'intervention de la population a été la plus décisive pour défendre nos droits. Portée par les nombreux « coups de pression » individuels qui étaient venus de toute l'Europe (par mails, appels ou interpellations publiques des députés, dans le cadre notamment de notre campagne ePrivacy), La Quadrature du Net, rejointe par les associations Acces Now et EDRi, a entrepris de briser cette absurde tentative de compromis avec la droite.
Ces trois associations ont expliqué aux députés de la commission LIBE que, si leurs compromis autorisaient une surveillance aussi grave que celle alors débattue, elles s'opposeraient tout simplement à l'ensemble du règlement ePrivacy. Elles exigeraient que le texte soit rejeté et que, faute de mieux, le droit reste dans son état actuel.
Ce coup de pied dans la fourmilière a suffit, par effet de domino, à remettre la situation en ordre. Les députés les plus à gauche, Jan Philipp Albrecht (Vert) en tête, ont retrouvé le courage qui leur manquait jusqu'ici. Mme Lauristin a dû retirer des négociations les compromis les plus graves (principalement ceux concernant l'analyse des métadonnées).
Quelques députés de droite se sont révélés prêts à suivre Mme Lauristin, provoquant le réveil de la majorité des autres députés de droite, qui souhaitaient défendre l'intérêt des entreprises sans aucune concession. Le débat s'étant re-polarisé, l'impossibilité d'établir un compromis trans-partisan s'est enfin révélée. Les négociations générales ont pris fin (nous nous en réjouissions ici, en anglais).
Une occasion manquée
Mme Lauristin avait enfin les mains libres pour améliorer le texte, les députés prêts à la suivre étant légèrement majoritaire au sein de la commission LIBE. Mais elle craignait trop de perdre cette majorité. De plus, désormais, les groupes pro-industries remettraient manifestement en cause son mandat devant l'ensemble du Parlement, ce qu'elle voulait toujours éviter. Elle craignait qu'en allant « trop loin » dans la défense de nos droits contres des intérêts économiques dangereux et insensés, l'ensemble du Parlement refuserait de lui donner son mandat et que le texte aille en plénière.
Elle s'est donc contentée de retirer du texte les derniers compromis proposés à la droite, sans rien changer de plus. Notamment, les deux dispositions les plus graves proposées par la Commission européenne en janvier (traçage des téléphones et traçage sur Internet pour mesurer l'audience) n'ont été qu'à peine encadrées alors qu'elles auraient du être simplement supprimées1.
C'est cette version du texte qui a été adoptée par la commission LIBE le 19 octobre (à 31 voix contre 25). Nous dénoncions alors amèrement que les députés disant lutter pour notre vie privée aient échoué à le faire entièrement.
Des avancées importantes
Toutefois, heureusement et en dépit de cette occasion manquée, le texte avait intégré au cours des mois précédents de nombreuses avancées proposées par des associations de défense des libertés, certaines institutions ou les députés européens les plus attentifs à nos droits. Le texte adopté par la commission LIBE prévoit six mesures déterminantes :
aucun internaute ne pourra se voir refuser l'accès à un site au seul motif qu'il a refusé d'y être tracé2 (contrairement à ce que la proposition initiale de la Commission européenne pouvait laisser entendre) ;
les fournisseurs de communications (téléphone, FAI, email, discussions instantanées) devront garantir la confidentialité des communications par les méthodes techniques adéquates du niveau de l'état de l'art, étant explicitement visé le chiffrement de bout en bout, et aucune loi nationale ne pourra les contraindre à utiliser une méthode plus faible (tel le chiffrement de point à point) ou d'introduire des backdoors3 ;
les fournisseurs de communications ne pourront être contraints de collaborer avec les États que pour lutter contre les crimes graves et les atteintes à la sécurité publique (ces finalités sont toujours beaucoup trop larges mais, au moins, écartent d'autres finalités inadmissibles qui autorisent aujourd'hui la surveillance étatique, telles que la défense des intérêts économiques d'un État ou la défense des droits de particuliers, tel que le droit d'auteur)4 ;
les entreprises partageant des informations avec des autorités publiques devront le documenter dans des rapports publics (indiquant le nombre, les finalités et les auteurs des demandes d'information, les types de données transmises et le nombre de personnes affectées)5 ;
par défaut, les navigateurs Web devront être configurés pour fonctionner comme certains bloqueurs de publicité (empêcher l'affichage de contenus et les tentatives de traçage provenant d'entités tierces au site consulté par l'utilisateur)6 ;
nos communications seront toutes protégées de la même façon, quel que soit le lieu d'où elles sont envoyées (le droit actuel protège peu les communications envoyées depuis un réseau qui n'est pas « accessible au public », tel qu'un réseau d'entreprise ou universitaire)7.
La lutte à venir
L'ensemble du Parlement a été saisi par les groupes de droite pour décider de donner ou non à Mme Lauristin son mandat pour débattre de ce texte en trilogue. Le 26 octobre, le Parlement l'a accepté, à 318 voix contre 280, faisant ainsi sien le texte adopté en LIBE et marquant la fin des débats parlementaires.
Ce sont désormais aux gouvernements d'arrêter entre eux une position commune au cours des mois à venir. Ce n'est qu'ensuite que les négociations en trilogue pourront commencer (Mme Lauristin sera alors remplacée par une autre députée de son même groupe politique, Birgit Sippel).
Le rôle de la France sera ici déterminant : nous reviendrons bientôt en détail sur ses positions actuelles et sur l'action que nous devrons collectivement exercer pour défendre nos droits fondamentaux.
1. L'article 8, paragraphe 1, point d, et paragraphe 2a du rapport LIBE limitent le pistage de nos téléphones et de nos activités en ligne à la seule réalisation de statistiques supposées n'agréger que des informations anonymes. Cette nouvelle limitation n'est en rien satisfaisante : il est particulièrement risqué d'autoriser la constructions de bases de données anonymes dès lors que, techniquement, personne ne peut prédire si une donnée aujourd'hui anonyme ne pourra être réutilisée demain de sorte à être désanonymisée ou pour réaliser de la surveillance de masse. En effet, à ce dernier égard, dans la mesure où les statistiques pourraient couvrir l'ensemble de la population et de ses activités sans être toutefois rendues publiques, elles offriraient à ceux qui y ont accès des informations particulièrement détaillées sur la population que celle-ci ignore elle-même, créant un déséquilibre du savoir considérable, propice à des politiques de régulation de masse parfaitement contraires à tout idéal démocratique. La publication des ces statistiques n'empêcherait d'ailleurs pas à elle seule des pratiques de surveillance (et donc de régulation) des individus à grande échelle, pour des finalités opposées à l'intérêt collectif. Enfin, si toutes les statistiques produites étaient légitimes, il n'y aurait aucune raison de craindre que la population refuse d'y consentir : contourner le consentement des personnes n'est utile que pour poursuivre des finalités illégitimes — finalités que la population refuserait si elle était consultée.
6. Voir l'article 10, paragraphe 1, point a du rapport LIBE.
7. Voir l'article 4, paragraphe 3, point -aa du rapport LIBE, à opposer au champ de l'article 5 de l'actuelle directive ePrivacy.
";s:7:"dateiso";s:15:"20171106_180513";}s:15:"20171106_100942";a:7:{s:5:"title";s:105:"Wikimédia France et La Quadrature du Net défendent le domaine public devant le Conseil constitutionnel ";s:4:"link";s:96:"http://www.laquadrature.net/fr/Wikimedia-La-Quadrature-domaine-public-Conseil-constitutionnel%20";s:4:"guid";s:36:"10337 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Nov 2017 09:09:42 +0000";s:11:"description";s:6918:"
Paris, le 6 novembre 2017 - En 2016, la loi Création a mis en place un nouveau droit à l'utilisation de l'image des biens des domaines nationaux, comme le château de Chambord, le palais du Louvre ou celui de l’Élysée. Cette disposition permet à leurs gestionnaires de contrôler l'usage commercial de l'image de ces bâtiments emblématiques et de le soumettre à redevance. Considérant que cette mesure constitue une remise en cause des droits légitimes d'utilisation du patrimoine culturel, les associations Wikimédia France et La Quadrature du Net ont attaqué un des décrets d'application de cette loi et soulevé une question prioritaire de constitutionnalité (QPC). Par une décision en date du 25 octobre 20171, le Conseil d’État a accepté de renvoyer l'affaire devant le Conseil constitutionnel, en considérant que la demande était bien fondée sur des moyens nouveaux et sérieux.
Ce nouveau droit à l'image est issu d'un « amendement Chambord » déposé par des parlementaires lors du débat sur la loi Création, Architecture et Patrimoine. Il fait écho à un conflit opposant depuis plusieurs années le château de Chambord à la société Kronenbourg à propos de l'utilisation de l'image du monument dans une campagne publicitaire. Alors que la jurisprudence sur la question n'était pas encore fixée, les parlementaires ont voulu utiliser cette loi pour entériner la possibilité pour les gestionnaires des domaines de contrôler l'usage de l'image des monuments dont ils ont la charge.
Mais ce faisant, ils ont créé une sorte « d'anti-liberté de panorama » qui va empêcher de nombreux usages légitimes du patrimoine. Des bâtiments comme le château de Chambord ou le palais du Louvre appartiennent en effet au domaine public, au sens du droit d'auteur, et leur image devrait à ce titre être librement réutilisable. De surcroît, cette nouvelle couche de droits créée ex nihilo va empêcher de placer des photographies de ces monuments sous licence libre et de les verser sur des sites comme Wikimedia Commons (la base d'images et de fichiers multimédia liée à Wikipédia). En effet, les licences libres autorisent par définition l'usage commercial et leur effectivité est remise en cause par les nouvelles dispositions de la loi française.
La loi Création prévoit certes des exceptions, dans la mesure où les usages commerciaux resteraient autorisés s'ils s'exercent « dans le cadre de l’exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d’enseignement, de recherche, d’information et d’illustration de l’actualité ». Mais outre que le périmètre exact de ces exemptions sera en pratique très difficile à apprécier, c'est le précédent introduit par cette loi qui est dangereux. En effet, le législateur pourrait à l'avenir étendre ce nouveau droit à l'image à tous les monuments historiques, voire à tous les supports d'œuvres anciennes (tableaux, sculptures, etc.). S'il en était ainsi, c'est l'existence même du domaine public qui serait gravement compromise et, avec lui, les libertés d'usage de la culture dont il est la condition de possibilité. La réutilisation commerciale fait d'ailleurs partie intégrante de ces libertés légitimes, car c'est aussi par ce biais que le patrimoine se réactualise et reste vivant.
Pour ces raisons, les associations Wikimédia France et La Quadrature du Net ont obtenu du Conseil d'État de porter l'affaire devant le Conseil constitutionnel afin d'obtenir l'annulation de ces dispositions de la loi Création sur la base des arguments suivants :
La loi Création est contraire au droit d'accès non-discriminatoire à la culture et à ses corollaires, la liberté d'expression culturelle et le droit de diffusion de la culture ;
En créant ex nihilo un nouveau droit restreignant l'utilisation de l'image des monuments des domaines nationaux, la loi a fait renaître une forme de droit patrimonial. Or les nombreuses lois sur le droit d'auteur, adoptées depuis la Révolution française, ont toujours prévu que les droits patrimoniaux devaient connaître un terme pour permettre aux œuvres d'entrer dans le domaine public. Il en résulte un principe fondamental reconnu par les lois de la République (PFRLR) que Wikimédia France et La Quadrature du Net demandent au Conseil constitutionnel de reconnaître ;
En bloquant la possibilité pour les personnes prenant en photo ces monuments de les diffuser sous licence libre, la loi Création les empêche de faire usage de leur droit d'auteur, lequel est protégé par la Constitution au titre du droit de propriété. Par ailleurs, la loi remet en cause la validité des licences préalablement accordées en méconnaissance de la liberté contractuelle ;
Les restrictions aux usages commerciaux introduites par la loi Création constituent une atteinte disproportionnée à la liberté d'entreprendre ;
Enfin, la loi Création emploie des termes très vagues, laissant une marge de manœuvre considérable aux gestionnaires des domaines pour délivrer ou non des autorisations et fixer le montant des redevances. Ce faisant, le législateur a commis une « incompétence négative » en n'encadrant pas suffisamment le pouvoir de décision de l'administration. Cette lacune laisse la porte ouverte à un véritable arbitraire dans la détermination des usages légitimes du patrimoine.
Ces moyens soulevés dans la requête sont encore susceptibles d'évoluer ou d'être complétés devant le Conseil constitutionnel. Wikimédia France et La Quadrature du Net publient le mémoire présenté au Conseil d’État qui expose de manière détaillée ces arguments.
Il est ironique que ce soit une loi sur la « liberté de création » qui ait restreint l'usage du patrimoine culturel, porté atteinte au domaine public et limité la possibilité pour les individus de diffuser leurs propres œuvres sous licence libre. Les associations Wikimédia France et La Quadrature du Net estiment que, dans l'intérêt même du rayonnement de la culture, les usages du patrimoine doivent rester les plus ouverts possibles et ce sont ces libertés qu'elles iront défendre devant le Conseil constitutionnel.
1. Décision du Conseil d'État n°411055 du 25 octobre 2017
";s:7:"content";s:6918:"
Paris, le 6 novembre 2017 - En 2016, la loi Création a mis en place un nouveau droit à l'utilisation de l'image des biens des domaines nationaux, comme le château de Chambord, le palais du Louvre ou celui de l’Élysée. Cette disposition permet à leurs gestionnaires de contrôler l'usage commercial de l'image de ces bâtiments emblématiques et de le soumettre à redevance. Considérant que cette mesure constitue une remise en cause des droits légitimes d'utilisation du patrimoine culturel, les associations Wikimédia France et La Quadrature du Net ont attaqué un des décrets d'application de cette loi et soulevé une question prioritaire de constitutionnalité (QPC). Par une décision en date du 25 octobre 20171, le Conseil d’État a accepté de renvoyer l'affaire devant le Conseil constitutionnel, en considérant que la demande était bien fondée sur des moyens nouveaux et sérieux.
Ce nouveau droit à l'image est issu d'un « amendement Chambord » déposé par des parlementaires lors du débat sur la loi Création, Architecture et Patrimoine. Il fait écho à un conflit opposant depuis plusieurs années le château de Chambord à la société Kronenbourg à propos de l'utilisation de l'image du monument dans une campagne publicitaire. Alors que la jurisprudence sur la question n'était pas encore fixée, les parlementaires ont voulu utiliser cette loi pour entériner la possibilité pour les gestionnaires des domaines de contrôler l'usage de l'image des monuments dont ils ont la charge.
Mais ce faisant, ils ont créé une sorte « d'anti-liberté de panorama » qui va empêcher de nombreux usages légitimes du patrimoine. Des bâtiments comme le château de Chambord ou le palais du Louvre appartiennent en effet au domaine public, au sens du droit d'auteur, et leur image devrait à ce titre être librement réutilisable. De surcroît, cette nouvelle couche de droits créée ex nihilo va empêcher de placer des photographies de ces monuments sous licence libre et de les verser sur des sites comme Wikimedia Commons (la base d'images et de fichiers multimédia liée à Wikipédia). En effet, les licences libres autorisent par définition l'usage commercial et leur effectivité est remise en cause par les nouvelles dispositions de la loi française.
La loi Création prévoit certes des exceptions, dans la mesure où les usages commerciaux resteraient autorisés s'ils s'exercent « dans le cadre de l’exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d’enseignement, de recherche, d’information et d’illustration de l’actualité ». Mais outre que le périmètre exact de ces exemptions sera en pratique très difficile à apprécier, c'est le précédent introduit par cette loi qui est dangereux. En effet, le législateur pourrait à l'avenir étendre ce nouveau droit à l'image à tous les monuments historiques, voire à tous les supports d'œuvres anciennes (tableaux, sculptures, etc.). S'il en était ainsi, c'est l'existence même du domaine public qui serait gravement compromise et, avec lui, les libertés d'usage de la culture dont il est la condition de possibilité. La réutilisation commerciale fait d'ailleurs partie intégrante de ces libertés légitimes, car c'est aussi par ce biais que le patrimoine se réactualise et reste vivant.
Pour ces raisons, les associations Wikimédia France et La Quadrature du Net ont obtenu du Conseil d'État de porter l'affaire devant le Conseil constitutionnel afin d'obtenir l'annulation de ces dispositions de la loi Création sur la base des arguments suivants :
La loi Création est contraire au droit d'accès non-discriminatoire à la culture et à ses corollaires, la liberté d'expression culturelle et le droit de diffusion de la culture ;
En créant ex nihilo un nouveau droit restreignant l'utilisation de l'image des monuments des domaines nationaux, la loi a fait renaître une forme de droit patrimonial. Or les nombreuses lois sur le droit d'auteur, adoptées depuis la Révolution française, ont toujours prévu que les droits patrimoniaux devaient connaître un terme pour permettre aux œuvres d'entrer dans le domaine public. Il en résulte un principe fondamental reconnu par les lois de la République (PFRLR) que Wikimédia France et La Quadrature du Net demandent au Conseil constitutionnel de reconnaître ;
En bloquant la possibilité pour les personnes prenant en photo ces monuments de les diffuser sous licence libre, la loi Création les empêche de faire usage de leur droit d'auteur, lequel est protégé par la Constitution au titre du droit de propriété. Par ailleurs, la loi remet en cause la validité des licences préalablement accordées en méconnaissance de la liberté contractuelle ;
Les restrictions aux usages commerciaux introduites par la loi Création constituent une atteinte disproportionnée à la liberté d'entreprendre ;
Enfin, la loi Création emploie des termes très vagues, laissant une marge de manœuvre considérable aux gestionnaires des domaines pour délivrer ou non des autorisations et fixer le montant des redevances. Ce faisant, le législateur a commis une « incompétence négative » en n'encadrant pas suffisamment le pouvoir de décision de l'administration. Cette lacune laisse la porte ouverte à un véritable arbitraire dans la détermination des usages légitimes du patrimoine.
Ces moyens soulevés dans la requête sont encore susceptibles d'évoluer ou d'être complétés devant le Conseil constitutionnel. Wikimédia France et La Quadrature du Net publient le mémoire présenté au Conseil d’État qui expose de manière détaillée ces arguments.
Il est ironique que ce soit une loi sur la « liberté de création » qui ait restreint l'usage du patrimoine culturel, porté atteinte au domaine public et limité la possibilité pour les individus de diffuser leurs propres œuvres sous licence libre. Les associations Wikimédia France et La Quadrature du Net estiment que, dans l'intérêt même du rayonnement de la culture, les usages du patrimoine doivent rester les plus ouverts possibles et ce sont ces libertés qu'elles iront défendre devant le Conseil constitutionnel.
1. Décision du Conseil d'État n°411055 du 25 octobre 2017
";s:7:"dateiso";s:15:"20171106_100942";}s:15:"20171103_141828";a:7:{s:5:"title";s:24:"Premier coup de pioche !";s:4:"link";s:53:"http://www.laquadrature.net/fr/Premier-coup-de-pioche";s:4:"guid";s:36:"10336 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 03 Nov 2017 13:18:28 +0000";s:11:"description";s:2081:"
Paris le 3 novembre 2017 - La Quadrature du Net lance sa campagne de dons !
Afin d'entamer le grand chantier des actions qui nous attendent en 2018 nous invitons tous ceux qui sont intéressés par nos sujets à venir donner le Premier coup de pioche !
C'est autour d'un verre que nous reviendrons sur les actions de La Quadrature en 2017 et parlerons de nos combats à venir.
Toutes les informations concernant la soirée seront données sur cette page.
La soirée aura lieu le 14 Novembre à 19h à La Paillasse : 226, rue de Saint-Denis (Métro Strasbourg Saint-Denis)
Programme
Ouverture : 19h00
Soirée présentée par Antonio Casilli
20h00 - La Quadrature du Net, comment, pourquoi ?
Félix Tréguer, Philippe Aigrain, Benjamin Bayart
20h20 - Nos soutiens, nos proches - première partie
Droits fondamentaux et données personnelles, Judith Rochfeld
Intervention d'Antonio Casilli
20h30 - LQDN l'an passé, LQDN l'an prochain
Action politique et juridique, Arthur et Leo
Les outils, Okhin et Thibaut
20h45 - Nos soutiens, nos proches - seconde partie
Travail avec FFDN, Oriane/Quota Atypique
20h55 - La campagne
Déroulé de la campagne, Marine, Myriam et Mathieu
Le site de soutien et le générateur de slogans, Okhin et Thibaut
Présentation de l'atelier linogravure, Clémence
Paris le 3 novembre 2017 - La Quadrature du Net lance sa campagne de dons !
Afin d'entamer le grand chantier des actions qui nous attendent en 2018 nous invitons tous ceux qui sont intéressés par nos sujets à venir donner le Premier coup de pioche !
C'est autour d'un verre que nous reviendrons sur les actions de La Quadrature en 2017 et parlerons de nos combats à venir.
Toutes les informations concernant la soirée seront données sur cette page.
La soirée aura lieu le 14 Novembre à 19h à La Paillasse : 226, rue de Saint-Denis (Métro Strasbourg Saint-Denis)
Programme
Ouverture : 19h00
Soirée présentée par Antonio Casilli
20h00 - La Quadrature du Net, comment, pourquoi ?
Félix Tréguer, Philippe Aigrain, Benjamin Bayart
20h20 - Nos soutiens, nos proches - première partie
Droits fondamentaux et données personnelles, Judith Rochfeld
Intervention d'Antonio Casilli
20h30 - LQDN l'an passé, LQDN l'an prochain
Action politique et juridique, Arthur et Leo
Les outils, Okhin et Thibaut
20h45 - Nos soutiens, nos proches - seconde partie
Travail avec FFDN, Oriane/Quota Atypique
20h55 - La campagne
Déroulé de la campagne, Marine, Myriam et Mathieu
Le site de soutien et le générateur de slogans, Okhin et Thibaut
Présentation de l'atelier linogravure, Clémence
";s:7:"dateiso";s:15:"20171103_141828";}s:15:"20171027_133220";a:7:{s:5:"title";s:67:"Réquisition sur Mamot.fr : LQDN s'en tient aux droits fondamentaux";s:4:"link";s:48:"http://www.laquadrature.net/fr/requisition_mamot";s:4:"guid";s:36:"10335 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 27 Oct 2017 11:32:20 +0000";s:11:"description";s:6823:"
Paris le 27 octobre 2017 - La Quadrature du Net a fait l'objet d'une réquisition judiciaire pour transmettre « toutes les données entre [notre] possession » permettant d'identifier un utilisateur d'un compte hébergé sur Mamot, l'instance de Mastodon que nous tenons. Nous avons remis à la Justice l'unique information que nous conservions : l'adresse email d'inscription. Dans le respect du droit de l'Union européenne, nous ne conservons aucune autre donnée sur nos utilisateurs au-delà de 14 jours.
Au début du mois d'octobre, dans le cadre d'une instruction pénale, la police judiciaire a demandé à La Quadrature du Net de lui remettre toutes les informations qu'elle détenait sur un utilisateur de son instance Mastodon, Mamot.fr. Cet utilisateur s'avère être un organe de presse militante en ligne, dont nous garderons l'identité couverte par le secret de l'instruction.
Or, La Quadrature a choisi de respecter le droit de l'Union européenne en s'abstenant de conserver les données de connexion de l'ensemble de ses utilisateurs1. Ce n'est que pour des raisons techniques que La Quadrature conserve, pendant 14 jours, certaines informations sur les contenus publiés et leur auteur2. Dans le cas présent, l'utilisateur visé par la réquisition n'avait pas utilisé le service depuis au moins 14 jours, et La Quadrature ne disposait donc d'aucune information à son sujet, si ce n'est son adresse e-mail d'inscription (requise pour se connecter à Mamot.fr). Elle a remis cette adresse e-mail à la justice.
Le choix de La Quadrature du Net s'oppose à une pratique qui, héritée d'une loi française aujourd'hui contraire au droit de l'Union européenne3, obligeait les hébergeurs à conserver pendant un an toute information concernant les utilisateurs publiant des contenus en ligne (l'adresse IP depuis laquelle le contenu a été publié, notamment).
Nous appelons tous les hébergeurs à rejeter cette pratique illicite et à se conformer au droit de l'Union européenne : à ne retenir aucune données de connexion concernant leurs utilisateurs pour une durée supérieure à 14 jours.
1. L'arrêt Tele2 Sverige AB (C-203/15) rendu le 21 décembre 2016 par la Cour de justice de l'Union européenne conclut fermement que le droit de l'Union « s’oppose à une réglementation nationale prévoyant, à des fins de lutte contre la criminalité, une conservation généralisée et indifférenciée de l’ensemble des données relatives au trafic et des données de localisation de tous les abonnés et utilisateurs ». L'interdiction d'une telle obligation de conservation visait en l'espèce les opérateurs de télécommunications mais s'applique aussi, sans aucun doute possible, aux hébergeurs Internet.
2. La version d'Apache distribuée par Debian est configurée pour supprimer ses logs tous les 14 jours, ce que nous considérons être un délai maximum raisonnable pour accéder aux informations nécessaires pour administrer un serveur d'hébergement.
3. L'article 6, II, de la loi du 21 juin 2004 pour la confiance dans l'économie numérique exige que les hébergeurs Internet « détiennent et conservent les données de nature à permettre l'identification de quiconque a contribué à la création du contenu ou de l'un des contenus des services dont elles sont prestataires ». La violation du droit de l'Union européenne opérée par cette disposition est au centre d'un des recours conduits par les Exégètes amateurs, qui en demandent actuellement l'annulation devant le Conseil d'État. Consulter leur dossier dédié à ce recours.
Paris le 27 octobre 2017 - La Quadrature du Net a fait l'objet d'une réquisition judiciaire pour transmettre « toutes les données entre [notre] possession » permettant d'identifier un utilisateur d'un compte hébergé sur Mamot, l'instance de Mastodon que nous tenons. Nous avons remis à la Justice l'unique information que nous conservions : l'adresse email d'inscription. Dans le respect du droit de l'Union européenne, nous ne conservons aucune autre donnée sur nos utilisateurs au-delà de 14 jours.
Au début du mois d'octobre, dans le cadre d'une instruction pénale, la police judiciaire a demandé à La Quadrature du Net de lui remettre toutes les informations qu'elle détenait sur un utilisateur de son instance Mastodon, Mamot.fr. Cet utilisateur s'avère être un organe de presse militante en ligne, dont nous garderons l'identité couverte par le secret de l'instruction.
Or, La Quadrature a choisi de respecter le droit de l'Union européenne en s'abstenant de conserver les données de connexion de l'ensemble de ses utilisateurs1. Ce n'est que pour des raisons techniques que La Quadrature conserve, pendant 14 jours, certaines informations sur les contenus publiés et leur auteur2. Dans le cas présent, l'utilisateur visé par la réquisition n'avait pas utilisé le service depuis au moins 14 jours, et La Quadrature ne disposait donc d'aucune information à son sujet, si ce n'est son adresse e-mail d'inscription (requise pour se connecter à Mamot.fr). Elle a remis cette adresse e-mail à la justice.
Le choix de La Quadrature du Net s'oppose à une pratique qui, héritée d'une loi française aujourd'hui contraire au droit de l'Union européenne3, obligeait les hébergeurs à conserver pendant un an toute information concernant les utilisateurs publiant des contenus en ligne (l'adresse IP depuis laquelle le contenu a été publié, notamment).
Nous appelons tous les hébergeurs à rejeter cette pratique illicite et à se conformer au droit de l'Union européenne : à ne retenir aucune données de connexion concernant leurs utilisateurs pour une durée supérieure à 14 jours.
1. L'arrêt Tele2 Sverige AB (C-203/15) rendu le 21 décembre 2016 par la Cour de justice de l'Union européenne conclut fermement que le droit de l'Union « s’oppose à une réglementation nationale prévoyant, à des fins de lutte contre la criminalité, une conservation généralisée et indifférenciée de l’ensemble des données relatives au trafic et des données de localisation de tous les abonnés et utilisateurs ». L'interdiction d'une telle obligation de conservation visait en l'espèce les opérateurs de télécommunications mais s'applique aussi, sans aucun doute possible, aux hébergeurs Internet.
2. La version d'Apache distribuée par Debian est configurée pour supprimer ses logs tous les 14 jours, ce que nous considérons être un délai maximum raisonnable pour accéder aux informations nécessaires pour administrer un serveur d'hébergement.
3. L'article 6, II, de la loi du 21 juin 2004 pour la confiance dans l'économie numérique exige que les hébergeurs Internet « détiennent et conservent les données de nature à permettre l'identification de quiconque a contribué à la création du contenu ou de l'un des contenus des services dont elles sont prestataires ». La violation du droit de l'Union européenne opérée par cette disposition est au centre d'un des recours conduits par les Exégètes amateurs, qui en demandent actuellement l'annulation devant le Conseil d'État. Consulter leur dossier dédié à ce recours.
";s:7:"dateiso";s:15:"20171027_133220";}s:15:"20170706_181448";a:7:{s:5:"title";s:121:"Gravity, Skyline : les groupes de presse s'alignent sur les géants du Web pour exploiter la vie privée de leur lectorat";s:4:"link";s:53:"http://www.laquadrature.net/fr/presse_vie_priv%C3%A9e";s:4:"guid";s:36:"10263 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 06 Jul 2017 16:14:48 +0000";s:11:"description";s:25751:"
Paris, le 7 juin 2017 - Des groupes industriels de presse ou détenant des titres de presse ont annoncé le lancement d'un nouveau projet conjoint baptisé « Alliance Gravity »1. Deux jours après, Le Monde et Le Figaro annoncent leur propre alliance, nommée « Skyline ». Sous couvert de lutter contre Google dans le partage des revenus publicitaires liés à la presse, ils comptent créer des plateformes communes pour centraliser les données personnelles de leurs lecteurs, afin de mutualiser l'achat d'espaces publicitaires. Cette annonce fait suite à des tribunes communes contre le règlement européen ePrivacy en cours de négociation (protection des communications en ligne), au lobbying pour instaurer un droit voisin pour les éditeurs de presse dans la directive européenne de réforme du droit d'auteur, et plus généralement à des années d'action pour aller toujours plus loin dans l'exploitation des données à des fins publicitaires, et l'extension du droit d'auteur.
Ces futures plateformes concentrent tous les échecs d'une industrie de la presse française incapable de respecter ses lecteurs. Au-delà, ces annonces montrent une industrie qui refuse de saisir l'occasion de la récente refonte de la législation européenne de protection des données pour créer, sur la base de celle-ci, des modèles de financement innovants, respectueux des lecteurs et des journalistes, en sortant du couple néfaste « exploitation des données / publicité ».
Ce n'est pas parce qu'un projet est français et se présente comme une réponse à la captation de données et de valeur opérée par Google et d'autres géants numériques états-uniens qu'il est acceptable. Contrer un mauvais modèle par un mauvais modèle ne rend pas ce dernier vertueux, et l'Alliance Gravity comme Skyline portent en elles à la fois des dangers pour la vie privée et la sécurité des données personnelles des Français (comme tout silo centralisateur de données personnelles), et une inquiétante absence de vision d'avenir.
La Quadrature du Net invite les journalistes de ces groupes de presse à refuser que leur travail soit associé à la marchandisation de la vie privée de leurs lecteurs. Nous appelons également les lecteurs à boycotter les titres de presse utilisant cette surcouche d'exploitation des données, qui viendra s'ajouter à une publicité omniprésente et à la concentration industrielle qui nuit depuis des années au pluralisme et à la qualité de la presse en ligne française.
Afin de comprendre les enjeux qui sous-tendent ce projet, et plus généralement l'offensive des groupes de presse et opérateurs Internet contre la législation européenne sur la protection des données, il convient de rentrer plus en détail dans l'analyse de la situation :
les sites internet ne pourront plus pister et cibler leurs utilisateurs européens sans le consentement explicite de ceux-ci (les utilisateurs devront par exemple cliquer sur un bouton « j'accepte les cookies à fins publicitaires ») et la simple navigation sur un site ne pourra plus être interprétée comme équivalant à un consentement2 ;
les sites internet ne pourront plus exclure les visiteurs qui refusent de donner leur consentement3.
Il s'agit là d'une avancée déterminante, consacrant le principe fondamental selon lequel une liberté (ici, la vie privée) ne doit jamais être assimilée à une contre-partie économique (de même qu'on ne peut pas vendre nos organes, notre droit de vote, celui de fonder une famille etc.).
Pourtant, de nombreux sites internet (dont les plus importants éditeurs de presse français) s'opposent à cette avancée et entendent profiter du débat en cours sur le règlement ePrivacy pour la faire disparaître du droit européen.
Le lancement de projets tels que l'Alliance Gravity et Skyline montre, s'il en était besoin, qu'ils continuent à envisager leur modèle économique comme si le RGPD et ePrivacy n'existaient pas, ce qui est particulièrement inquiétant.
Une position contraire à la qualité de l'information
Le modèle économique de la presse repose historiquement sur la vente et l'abonnement. Ce modèle demande de fidéliser un lectorat en lui donnant l'assurance de retrouver sur son média des analyses et des investigations de qualité. Or, il est brutalement remis en cause depuis quelques années par l'apparition d'acteurs concurrents qui proposent gratuitement sur internet des informations d'actualité ou de divertissement, simples et variées, demandant généralement peu de temps de lecture et destinées au plus large public possible. Ce nouveau modèle économique repose uniquement sur la publicité ciblée, dont les revenus dépendent de la quantité de visiteurs touchés et non de la qualité de l'information4.
La concurrence imposée par ces nouveaux acteurs a poussé une part importante de la presse traditionnelle à faire évoluer (non sans douleur) son modèle économique et la façon qu'elle a de produire de l'information – en investissant plus dans l'information « spectacle » et moins dans l'analyse et l'investigation, par exemple.
Cette évolution nuit forcément à la qualité du débat public, mais peut être limitée en interdisant qu'un site puisse empêcher son accès aux utilisateurs qui refusent la publicité ciblée. Une telle protection des internautes remettrait profondément en cause le modèle économique fondé sur la publicité ciblée et, par effet de balancier, rendrait bien plus viables les modèles traditionnels fondés sur la fidélisation du lectorat et la qualité de l'information. Surtout, cette protection réconcilierait durablement le modèle économique de la presse avec le respect de droits fondamentaux de ses lecteurs5.
Des arguments fallacieux
Il est donc très problématique que les éditeurs de presse, à l'encontre de leurs intérêts à long terme, se mettent en situation de dépendance vis-à-vis des régies publicitaires et ne cherchent que très marginalement à repenser leur modèle économique, alors même que l'opposition des internautes à l'envahissement publicitaire et à l'exploitation de leurs données personnelles se fait de plus en plus visible.
Outre le lancement de ces Alliance Gravity et Skyline, qui peuvent s'assimiler à une véritable provocation à l'adresse du législateur européen, ces groupes de presse -- soutenus par des opérateurs tels que SFR, eux-mêmes impliqués dans le secteur des médias -- font un intense lobbying auprès des institutions européennes et du grand public, qu'il s'agit de démonter méthodiquement tant il est nocif. Ces éditeurs et groupes coalisés ont par exemple écrit à trois reprises aux décideurs européens pour lutter contre la mise en place d'un consentement explicite et libre des internautes à l'exploitation de leurs données personnelles.
Une première lettre, signée par divers groupes de presse, dont celui du Figaro et Lagardère Active (qui comprend europe1.fr, parismatch.fr, lejdd.fr, doctissimo.fr...), ainsi que par des fédérations d'éditeurs de presse, dont le GESTE (qui comprend Le Monde, Le Point, L'Obs, Le Parisien, L'Express, L'Equipe...), exige simplement, sans véritable argument, de pouvoir exclure des sites les internautes refusant de se soumettre au pistage et à la publicitée ciblée.
Une deuxième lettre a été signée par des groupes de presse, dont celui du Monde, du Figaro, de L'Equipe et des Echos/Le Parisien, ainsi que par des journaux, dont L'Humanité et Libération. Ceux-ci y prétendent que « en privant les éditeurs de presse de proposer des publicités ciblées à leurs lecteurs, ePrivacy favorise la réorientation des annonceurs publicitaires de la presse vers les plateformes numériques dominantes, et diminue donc l’investissement possible dans le journalisme de qualité ».
Cet argumentaire se rapproche de celui avancé pour justifier la création de l'Alliance Gravity et de Skyline : les éditeurs de presse prétendent vouloir s'opposer aux plateformes numériques telles que Google ou Facebook et, pour cela, réclament de pouvoir elles aussi s'adonner à une collecte et exploitation sans entrave de la vie privée de leurs lecteurs.
Ici encore, cet argument est totalement fallacieux : les « plateformes dominantes » seront soumises aux mêmes réglementations que les éditeurs de presse. Si le RGPD et ePrivacy améliorent les conditions de consentement des utilisateurs, et par là compliquent l'exploitation des données personnelles par les entreprises, les plateformes telles que Google et Facebook seront autant concernées que les éditeurs de presse, et devront s'adapter de la même façon. Faire croire que le RGPD et ePrivacy affecteront seulement la presse et pas les plateformes est faux. Faire croire que la publicité ciblée est seule garante de l'investissement pour un journalisme de qualité est une erreur également.
Une troisième lettre enfin, notamment signée par des syndicats d'éditeurs de presse français (SPIIL, SPQN, SEPM, FNPS, GESTE), reprend les arguments précédemment développés et en ajoute deux autres, qui sont particulièrement fallacieux et dont l'objectif consiste à se passer purement et simplement du consentement des utilisateurs (et non plus seulement d'exclure les lecteurs ayant refusé de donner leur consentement). Pour cela, ils prétendent que « le RGPD n’impose pas le consentement préalable des personnes » pour exploiter des données personnelles ayant été pseudonymisées, « en ce qu’une telle pseudonymisation peut constituer une garantie de licéité suffisante ». Ceci est tout simplement faux : s'il est vrai que des débats intenses ont eu lieu sur ce sujet il y a un an, le législateur européen a heureusement rejeté cette dangereuse exception au consentement, qui n'aurait apporté aucune garantie en matière d'exploitation ciblée des données personnelles6.
Alors pourquoi prétendre l'inverse, si ce n'est pour embrouiller le débat et justifier la création de ce type d' « alliances » dont l'objectif est bien l'exploitation centralisée et massive des données personnelles des internautes ?
En outre, dans la même lettre, les syndicats d'éditeurs affirment que « les entreprises européennes sont libres d’utiliser de nombreux cookies pour fournir des services adaptés aux utilisateurs finaux ». Et de poursuivre : « si ces derniers souhaitent refuser certains cookies, les entreprises soumises au RGPD doivent mettre à leur disposition un ou plusieurs liens permettant de les désactiver le cas échéant ». Là encore, cette interprétation est totalement fausse : le RGPD conduit clairement à l'interdiction pure et simple de déposer des cookies sans le consentement explicite de chaque utilisateur. Les entreprises ne pouront pas « librement » déposer des cookies en étant seulement tenues de permettre leur désactivation7. Les signataires de la lettre font comme si le RGPD prévoyait un régime d'opt-out alors qu'il prévoit très clairement un régime d'opt-in8. Encore une fois, difficile d'attribuer de telles erreurs à l'ignorance ou de savoir s'il y a intention de tromper par désinformation.
Conclusion
Ces différentes prises de position des groupes de presse sur le droit européen des données personnelles sont directement liées aux annonces récentes d'alliances visant à centraliser les données des utilisateurs. Cette concentration de moyens -- qui s'ajoute à la concentration inédite des médias entre les mains de quelques acteurs, eux-mêmes de plus en plus souvent liés aux opérateurs télécoms tels que SFR / Altice -- entraîne la création de silos de données. Elle poursuit un mouvement de plus en plus rapide vers une information qui n'est plus qu'un prétexte à la captation de données à des fins publicitaires. Ce modèle est absolument délétère pour la presse, et à rebours complet du rôle fondamental qu'elle devrait jouer en démocratie pour assurer le respect du droit à l'information et son corollaire, la liberté d'expression. Dans le modèle actuel de ces éditeurs de presse, le droit au respect de la vie privée passe ainsi par pertes et profit, au mépris de l'esprit et de la lettre de la législation européenne qui rentrera en vigueur dans quelques mois.
Au delà, c'est le modèle de développement basé sur la publicité ciblée qui est, une fois encore, à remettre en question. Il n'est pas et ne doit pas être une fatalité. Les groupes de presse français et européens doivent prendre appui sur la législation européenne, encore imparfaite mais qui propose probablement un des meilleurs cadres de protection au monde, pour construire des modèles économiques respectueux de leurs lecteurs et de leurs journalistes.
Certaines entreprises de presse l'osent, et portent un modèle qui veut respecter les lecteurs et la qualité des contenus publiés. Ainsi, LesJours.fr, media en ligne sur abonnement, rejoint notre analyse :
Il est crucial pour la presse de recréer un lien de confiance avec ses lecteurs notamment en étant très attentif au respect de leurs données. Ainsi, la création de l'alliance Gravity, qui annonce ouvertement vouloir mettre en commun des données personnelles sans précision sur la question du consentement préalable et éclairé des utilisateurs, qui risquent de ne pas avoir conscience de l'ampleur de la centralisation de leurs données entre les mains d'un acteur aux objectifs purement publicitaires, nous semble très dommageable pour l'image de la presse auprès du grand public. La commercialisation des données de ses lecteurs doit-elle vraiment devenir le modèle économique d'une partie de la presse ?9 ».
D'autres groupes de presse fonctionnent sur des modèles vertueux et doivent prendre leur part dans les débats actuels sur les modèles économiques de la presse, et s'inscrire dans la tradition d'une presse libre, engagée en faveur des droit fondamentaux. Par leurs actions et leurs réussites, ils peuvent à leur tour rappeler que d'autre modèles existent, et qu'il n'y a donc aucune raison que le financement de la presse en passe par l'exploitation de la vie privée des lecteurs.
1. Cette alliance regroupe notamment : Groupes Centre France La Montagne, Condé Nast, FNAC Darty, L’Équipe, La Dépêche, La Nouvelle République, Lagardère Active, Le Télégramme, Les Echos-Le Parisien, Marie-Claire, M6, NextRadio TV, Perdriel, Prisma Media, SFR, SoLocal et Sud-Ouest etc.
2. L'article 4 du RGPD exige désormais que le consentement soit donné « par une déclaration ou par un acte positif clair ». Le considérant 32 du règlement explique que « cela pourrait se faire notamment en cochant une case lors de la consultation d'un site internet » mais que « il ne saurait dès lors y avoir de consentement en cas de silence, de cases cochées par défaut ou d'inactivité ». Le fait de « consentir » en poursuivant sa navigation sur un site Web revient exactement à « consentir » au moyen d'une case précochée : la personne n'a réalisé aucun acte spécifiquement destiné à exprimer son consentement. Ceci ne pourra bientôt plus constituer un consentement valide.
3. Par anticipation, la CNIL a interprété le droit actuel au regard du RGPD, en indiquant très explicitement que « la personne qui refuse un cookie nécessitant un consentement doit pouvoir continuer à bénéficier du service (l'accès à un site internet par exemple) ».
5. Interdire d'empêcher l'accès à un site internet aux internautes refusant la publicité ciblée ne veut pas dire qu'il n'y a aucun moyen acceptable de faire financer la presse par ses lecteurs. L'abonnement ou d'autres méthodes sont tout à fait légitimes. Cependant, en conformité avec la législation européenne, il est impensable de forcer les utilisateurs à voir leurs données personnelles exploitées en échange d'une information
6. La pseudonymisation est une mesure de sécurité qui, tout en offrant une certaine protection contre les failles de sécurité (par exemple), n'empêche en rien l'exploitant d'utiliser les données comme il l'entend, notamment à des fins de publicité ciblée. Elle a été définie à l'article 4 du RGPD comme une mesure technique visant à ce que des données personnelles « ne puissent plus être attribuées à une personne concernée précise sans avoir recours à des informations supplémentaires, pour autant que ces informations supplémentaires soient conservées séparément ». L'article 6 du RGPD, qui liste les conditions sous lesquelles des données peuvent être exploitée sans le consentement des personnes concernées, ne prévoit à aucun moment que la pseudonymisation justifierait de se passer du consentement.
7. Les éditeurs prétendent en fait que le RGPD n'aurait rien changé à la situation actuelle. Actuellement, les cookies peuvent être déposés en obtenant un consentement « implicite » des utilisateurs, tel que le fait de continuer à naviguer sur un site web après avoir été informé du dépot de cookies et des façons de s'y opposer ultérieurement. Comme il a été expliqué dans une note précédente, le RGPD interdit maintenant de donner son consentement au moyen de « cases pré-cochées » ou par tout acte n'étant pas spécifiquement desinté à exprimer son consentement.
8. Dans un régime d'opt-out, les utilisateurs sont considérés avoir donné leur consentement par défaut (c'est la situation actuelle en matière de cookie). Les utilisateurs peuvent seulement s'opposer au traitement de leurs données a posteriori, en retirant le consentement qu'ils sont présumés avoir donné. Dans un régime d'opt-in, le consentement n'est pas présumé et aucun traitement de données n'est permis tant que l'utilisateur ne l'a pas explicitement accepté (c'est ce que prévoit le RGPD).
Paris, le 7 juin 2017 - Des groupes industriels de presse ou détenant des titres de presse ont annoncé le lancement d'un nouveau projet conjoint baptisé « Alliance Gravity »1. Deux jours après, Le Monde et Le Figaro annoncent leur propre alliance, nommée « Skyline ». Sous couvert de lutter contre Google dans le partage des revenus publicitaires liés à la presse, ils comptent créer des plateformes communes pour centraliser les données personnelles de leurs lecteurs, afin de mutualiser l'achat d'espaces publicitaires. Cette annonce fait suite à des tribunes communes contre le règlement européen ePrivacy en cours de négociation (protection des communications en ligne), au lobbying pour instaurer un droit voisin pour les éditeurs de presse dans la directive européenne de réforme du droit d'auteur, et plus généralement à des années d'action pour aller toujours plus loin dans l'exploitation des données à des fins publicitaires, et l'extension du droit d'auteur.
Ces futures plateformes concentrent tous les échecs d'une industrie de la presse française incapable de respecter ses lecteurs. Au-delà, ces annonces montrent une industrie qui refuse de saisir l'occasion de la récente refonte de la législation européenne de protection des données pour créer, sur la base de celle-ci, des modèles de financement innovants, respectueux des lecteurs et des journalistes, en sortant du couple néfaste « exploitation des données / publicité ».
Ce n'est pas parce qu'un projet est français et se présente comme une réponse à la captation de données et de valeur opérée par Google et d'autres géants numériques états-uniens qu'il est acceptable. Contrer un mauvais modèle par un mauvais modèle ne rend pas ce dernier vertueux, et l'Alliance Gravity comme Skyline portent en elles à la fois des dangers pour la vie privée et la sécurité des données personnelles des Français (comme tout silo centralisateur de données personnelles), et une inquiétante absence de vision d'avenir.
La Quadrature du Net invite les journalistes de ces groupes de presse à refuser que leur travail soit associé à la marchandisation de la vie privée de leurs lecteurs. Nous appelons également les lecteurs à boycotter les titres de presse utilisant cette surcouche d'exploitation des données, qui viendra s'ajouter à une publicité omniprésente et à la concentration industrielle qui nuit depuis des années au pluralisme et à la qualité de la presse en ligne française.
Afin de comprendre les enjeux qui sous-tendent ce projet, et plus généralement l'offensive des groupes de presse et opérateurs Internet contre la législation européenne sur la protection des données, il convient de rentrer plus en détail dans l'analyse de la situation :
les sites internet ne pourront plus pister et cibler leurs utilisateurs européens sans le consentement explicite de ceux-ci (les utilisateurs devront par exemple cliquer sur un bouton « j'accepte les cookies à fins publicitaires ») et la simple navigation sur un site ne pourra plus être interprétée comme équivalant à un consentement2 ;
les sites internet ne pourront plus exclure les visiteurs qui refusent de donner leur consentement3.
Il s'agit là d'une avancée déterminante, consacrant le principe fondamental selon lequel une liberté (ici, la vie privée) ne doit jamais être assimilée à une contre-partie économique (de même qu'on ne peut pas vendre nos organes, notre droit de vote, celui de fonder une famille etc.).
Pourtant, de nombreux sites internet (dont les plus importants éditeurs de presse français) s'opposent à cette avancée et entendent profiter du débat en cours sur le règlement ePrivacy pour la faire disparaître du droit européen.
Le lancement de projets tels que l'Alliance Gravity et Skyline montre, s'il en était besoin, qu'ils continuent à envisager leur modèle économique comme si le RGPD et ePrivacy n'existaient pas, ce qui est particulièrement inquiétant.
Une position contraire à la qualité de l'information
Le modèle économique de la presse repose historiquement sur la vente et l'abonnement. Ce modèle demande de fidéliser un lectorat en lui donnant l'assurance de retrouver sur son média des analyses et des investigations de qualité. Or, il est brutalement remis en cause depuis quelques années par l'apparition d'acteurs concurrents qui proposent gratuitement sur internet des informations d'actualité ou de divertissement, simples et variées, demandant généralement peu de temps de lecture et destinées au plus large public possible. Ce nouveau modèle économique repose uniquement sur la publicité ciblée, dont les revenus dépendent de la quantité de visiteurs touchés et non de la qualité de l'information4.
La concurrence imposée par ces nouveaux acteurs a poussé une part importante de la presse traditionnelle à faire évoluer (non sans douleur) son modèle économique et la façon qu'elle a de produire de l'information – en investissant plus dans l'information « spectacle » et moins dans l'analyse et l'investigation, par exemple.
Cette évolution nuit forcément à la qualité du débat public, mais peut être limitée en interdisant qu'un site puisse empêcher son accès aux utilisateurs qui refusent la publicité ciblée. Une telle protection des internautes remettrait profondément en cause le modèle économique fondé sur la publicité ciblée et, par effet de balancier, rendrait bien plus viables les modèles traditionnels fondés sur la fidélisation du lectorat et la qualité de l'information. Surtout, cette protection réconcilierait durablement le modèle économique de la presse avec le respect de droits fondamentaux de ses lecteurs5.
Des arguments fallacieux
Il est donc très problématique que les éditeurs de presse, à l'encontre de leurs intérêts à long terme, se mettent en situation de dépendance vis-à-vis des régies publicitaires et ne cherchent que très marginalement à repenser leur modèle économique, alors même que l'opposition des internautes à l'envahissement publicitaire et à l'exploitation de leurs données personnelles se fait de plus en plus visible.
Outre le lancement de ces Alliance Gravity et Skyline, qui peuvent s'assimiler à une véritable provocation à l'adresse du législateur européen, ces groupes de presse -- soutenus par des opérateurs tels que SFR, eux-mêmes impliqués dans le secteur des médias -- font un intense lobbying auprès des institutions européennes et du grand public, qu'il s'agit de démonter méthodiquement tant il est nocif. Ces éditeurs et groupes coalisés ont par exemple écrit à trois reprises aux décideurs européens pour lutter contre la mise en place d'un consentement explicite et libre des internautes à l'exploitation de leurs données personnelles.
Une première lettre, signée par divers groupes de presse, dont celui du Figaro et Lagardère Active (qui comprend europe1.fr, parismatch.fr, lejdd.fr, doctissimo.fr...), ainsi que par des fédérations d'éditeurs de presse, dont le GESTE (qui comprend Le Monde, Le Point, L'Obs, Le Parisien, L'Express, L'Equipe...), exige simplement, sans véritable argument, de pouvoir exclure des sites les internautes refusant de se soumettre au pistage et à la publicitée ciblée.
Une deuxième lettre a été signée par des groupes de presse, dont celui du Monde, du Figaro, de L'Equipe et des Echos/Le Parisien, ainsi que par des journaux, dont L'Humanité et Libération. Ceux-ci y prétendent que « en privant les éditeurs de presse de proposer des publicités ciblées à leurs lecteurs, ePrivacy favorise la réorientation des annonceurs publicitaires de la presse vers les plateformes numériques dominantes, et diminue donc l’investissement possible dans le journalisme de qualité ».
Cet argumentaire se rapproche de celui avancé pour justifier la création de l'Alliance Gravity et de Skyline : les éditeurs de presse prétendent vouloir s'opposer aux plateformes numériques telles que Google ou Facebook et, pour cela, réclament de pouvoir elles aussi s'adonner à une collecte et exploitation sans entrave de la vie privée de leurs lecteurs.
Ici encore, cet argument est totalement fallacieux : les « plateformes dominantes » seront soumises aux mêmes réglementations que les éditeurs de presse. Si le RGPD et ePrivacy améliorent les conditions de consentement des utilisateurs, et par là compliquent l'exploitation des données personnelles par les entreprises, les plateformes telles que Google et Facebook seront autant concernées que les éditeurs de presse, et devront s'adapter de la même façon. Faire croire que le RGPD et ePrivacy affecteront seulement la presse et pas les plateformes est faux. Faire croire que la publicité ciblée est seule garante de l'investissement pour un journalisme de qualité est une erreur également.
Une troisième lettre enfin, notamment signée par des syndicats d'éditeurs de presse français (SPIIL, SPQN, SEPM, FNPS, GESTE), reprend les arguments précédemment développés et en ajoute deux autres, qui sont particulièrement fallacieux et dont l'objectif consiste à se passer purement et simplement du consentement des utilisateurs (et non plus seulement d'exclure les lecteurs ayant refusé de donner leur consentement). Pour cela, ils prétendent que « le RGPD n’impose pas le consentement préalable des personnes » pour exploiter des données personnelles ayant été pseudonymisées, « en ce qu’une telle pseudonymisation peut constituer une garantie de licéité suffisante ». Ceci est tout simplement faux : s'il est vrai que des débats intenses ont eu lieu sur ce sujet il y a un an, le législateur européen a heureusement rejeté cette dangereuse exception au consentement, qui n'aurait apporté aucune garantie en matière d'exploitation ciblée des données personnelles6.
Alors pourquoi prétendre l'inverse, si ce n'est pour embrouiller le débat et justifier la création de ce type d' « alliances » dont l'objectif est bien l'exploitation centralisée et massive des données personnelles des internautes ?
En outre, dans la même lettre, les syndicats d'éditeurs affirment que « les entreprises européennes sont libres d’utiliser de nombreux cookies pour fournir des services adaptés aux utilisateurs finaux ». Et de poursuivre : « si ces derniers souhaitent refuser certains cookies, les entreprises soumises au RGPD doivent mettre à leur disposition un ou plusieurs liens permettant de les désactiver le cas échéant ». Là encore, cette interprétation est totalement fausse : le RGPD conduit clairement à l'interdiction pure et simple de déposer des cookies sans le consentement explicite de chaque utilisateur. Les entreprises ne pouront pas « librement » déposer des cookies en étant seulement tenues de permettre leur désactivation7. Les signataires de la lettre font comme si le RGPD prévoyait un régime d'opt-out alors qu'il prévoit très clairement un régime d'opt-in8. Encore une fois, difficile d'attribuer de telles erreurs à l'ignorance ou de savoir s'il y a intention de tromper par désinformation.
Conclusion
Ces différentes prises de position des groupes de presse sur le droit européen des données personnelles sont directement liées aux annonces récentes d'alliances visant à centraliser les données des utilisateurs. Cette concentration de moyens -- qui s'ajoute à la concentration inédite des médias entre les mains de quelques acteurs, eux-mêmes de plus en plus souvent liés aux opérateurs télécoms tels que SFR / Altice -- entraîne la création de silos de données. Elle poursuit un mouvement de plus en plus rapide vers une information qui n'est plus qu'un prétexte à la captation de données à des fins publicitaires. Ce modèle est absolument délétère pour la presse, et à rebours complet du rôle fondamental qu'elle devrait jouer en démocratie pour assurer le respect du droit à l'information et son corollaire, la liberté d'expression. Dans le modèle actuel de ces éditeurs de presse, le droit au respect de la vie privée passe ainsi par pertes et profit, au mépris de l'esprit et de la lettre de la législation européenne qui rentrera en vigueur dans quelques mois.
Au delà, c'est le modèle de développement basé sur la publicité ciblée qui est, une fois encore, à remettre en question. Il n'est pas et ne doit pas être une fatalité. Les groupes de presse français et européens doivent prendre appui sur la législation européenne, encore imparfaite mais qui propose probablement un des meilleurs cadres de protection au monde, pour construire des modèles économiques respectueux de leurs lecteurs et de leurs journalistes.
Certaines entreprises de presse l'osent, et portent un modèle qui veut respecter les lecteurs et la qualité des contenus publiés. Ainsi, LesJours.fr, media en ligne sur abonnement, rejoint notre analyse :
Il est crucial pour la presse de recréer un lien de confiance avec ses lecteurs notamment en étant très attentif au respect de leurs données. Ainsi, la création de l'alliance Gravity, qui annonce ouvertement vouloir mettre en commun des données personnelles sans précision sur la question du consentement préalable et éclairé des utilisateurs, qui risquent de ne pas avoir conscience de l'ampleur de la centralisation de leurs données entre les mains d'un acteur aux objectifs purement publicitaires, nous semble très dommageable pour l'image de la presse auprès du grand public. La commercialisation des données de ses lecteurs doit-elle vraiment devenir le modèle économique d'une partie de la presse ?9 ».
D'autres groupes de presse fonctionnent sur des modèles vertueux et doivent prendre leur part dans les débats actuels sur les modèles économiques de la presse, et s'inscrire dans la tradition d'une presse libre, engagée en faveur des droit fondamentaux. Par leurs actions et leurs réussites, ils peuvent à leur tour rappeler que d'autre modèles existent, et qu'il n'y a donc aucune raison que le financement de la presse en passe par l'exploitation de la vie privée des lecteurs.
1. Cette alliance regroupe notamment : Groupes Centre France La Montagne, Condé Nast, FNAC Darty, L’Équipe, La Dépêche, La Nouvelle République, Lagardère Active, Le Télégramme, Les Echos-Le Parisien, Marie-Claire, M6, NextRadio TV, Perdriel, Prisma Media, SFR, SoLocal et Sud-Ouest etc.
2. L'article 4 du RGPD exige désormais que le consentement soit donné « par une déclaration ou par un acte positif clair ». Le considérant 32 du règlement explique que « cela pourrait se faire notamment en cochant une case lors de la consultation d'un site internet » mais que « il ne saurait dès lors y avoir de consentement en cas de silence, de cases cochées par défaut ou d'inactivité ». Le fait de « consentir » en poursuivant sa navigation sur un site Web revient exactement à « consentir » au moyen d'une case précochée : la personne n'a réalisé aucun acte spécifiquement destiné à exprimer son consentement. Ceci ne pourra bientôt plus constituer un consentement valide.
3. Par anticipation, la CNIL a interprété le droit actuel au regard du RGPD, en indiquant très explicitement que « la personne qui refuse un cookie nécessitant un consentement doit pouvoir continuer à bénéficier du service (l'accès à un site internet par exemple) ».
5. Interdire d'empêcher l'accès à un site internet aux internautes refusant la publicité ciblée ne veut pas dire qu'il n'y a aucun moyen acceptable de faire financer la presse par ses lecteurs. L'abonnement ou d'autres méthodes sont tout à fait légitimes. Cependant, en conformité avec la législation européenne, il est impensable de forcer les utilisateurs à voir leurs données personnelles exploitées en échange d'une information
6. La pseudonymisation est une mesure de sécurité qui, tout en offrant une certaine protection contre les failles de sécurité (par exemple), n'empêche en rien l'exploitant d'utiliser les données comme il l'entend, notamment à des fins de publicité ciblée. Elle a été définie à l'article 4 du RGPD comme une mesure technique visant à ce que des données personnelles « ne puissent plus être attribuées à une personne concernée précise sans avoir recours à des informations supplémentaires, pour autant que ces informations supplémentaires soient conservées séparément ». L'article 6 du RGPD, qui liste les conditions sous lesquelles des données peuvent être exploitée sans le consentement des personnes concernées, ne prévoit à aucun moment que la pseudonymisation justifierait de se passer du consentement.
7. Les éditeurs prétendent en fait que le RGPD n'aurait rien changé à la situation actuelle. Actuellement, les cookies peuvent être déposés en obtenant un consentement « implicite » des utilisateurs, tel que le fait de continuer à naviguer sur un site web après avoir été informé du dépot de cookies et des façons de s'y opposer ultérieurement. Comme il a été expliqué dans une note précédente, le RGPD interdit maintenant de donner son consentement au moyen de « cases pré-cochées » ou par tout acte n'étant pas spécifiquement desinté à exprimer son consentement.
8. Dans un régime d'opt-out, les utilisateurs sont considérés avoir donné leur consentement par défaut (c'est la situation actuelle en matière de cookie). Les utilisateurs peuvent seulement s'opposer au traitement de leurs données a posteriori, en retirant le consentement qu'ils sont présumés avoir donné. Dans un régime d'opt-in, le consentement n'est pas présumé et aucun traitement de données n'est permis tant que l'utilisateur ne l'a pas explicitement accepté (c'est ce que prévoit le RGPD).
";s:7:"dateiso";s:15:"20170706_181448";}s:15:"20170705_151846";a:7:{s:5:"title";s:90:"État d’urgence : de l’exception à la permanence, les parlementaires au pied du mur";s:4:"link";s:53:"http://www.laquadrature.net/fr/etat_urgence_permanent";s:4:"guid";s:36:"10262 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 05 Jul 2017 13:18:46 +0000";s:11:"description";s:5451:"
Paris, le 5 juillet 2017 — Douze organisations, des avocats et des universitaires (liste ci-dessous) appellent les députés à ne pas voter la loi de prorogation de l’état d’urgence et tous les parlementaires à rejeter la loi renforçant la lutte contre le terrorisme et la sécurité intérieure. Elles dénoncent la dangereuse logique du soupçon qui imprègne les deux textes. Les parlementaires ne doivent pas se laisser abuser par l’idée que la France va sortir d’un régime d’exception alors même qu’il s’agit de l’inscrire dans le marbre de la loi permanente.
Photo Vox Public
Le discours du Président de la République, lors du Congrès à Versailles, a été l’occasion d’un nouveau tour de passe-passe : prétendre à une sortie de l’état d’urgence, quand, en même temps, le Sénat examinait une sixième loi de prorogation de ce dispositif d’exception, suivie du projet de loi antiterroriste qui pérennisera l’état d’urgence pour l’inscrire dans le droit commun.
Le 30 juin, lors d’une rencontre avec le Président de la République, notre collectif « état d’urgence / antiterrorisme » s’est employé à mettre au jour ces incohérences entre les annonces et les faits. Face à ces contradictions, le Président de la République n’a pas montré d’ouverture pour modifier le fond de ces projets de loi. Les perquisitions et assignations administratives, mesures phares de l’état d’urgence, aussi inefficaces qu’excessives, ne disparaîtront ainsi pas en novembre 2017. Elles seront pérennisées ; les assignés et perquisitionnés de l’état d’urgence d’aujourd’hui seront, sans nul doute, les assignés et perquisitionnés de la loi antiterroriste de demain.
En prétendant aujourd’hui réserver aux seuls terroristes ces mesures, le gouvernement reconnaît en creux l’usage arbitraire et dévoyé de l’état d’urgence. Autre preuve de duplicité du discours officiel : les interdictions dites « de séjour » (valant interdiction de se déplacer pour participer à une manifestation), censurées par le Conseil constitutionnel, ont été réintroduites par le gouvernement et aussitôt adoptées en commission des Lois du Sénat. Cette disposition spécifique pourra être utilisée contre des manifestants ou militants, sans lien avec le terrorisme, comme cela été le cas ces derniers mois.
Nos organisations alertent les parlementaires sur la nouvelle loi antiterroriste qui vise à normaliser la logique du soupçon. L’objectif fondamental, subjectif et donc potentiellement arbitraire, demeure la neutralisation d’individus dont on pourrait anticiper les « comportements non conformes » et la « radicalisation » supposée. Le texte ambitionne ainsi de pérenniser des dispositifs qui accuseront les personnes sur la base de critères flous (notamment d’appartenance à l’entourage de personnes ou d’organisations, l’adhésion, même privée, à des idées ou doctrines religieuses…) et bien en amont de toute preuve de la commission ou la préparation d’un acte de terrorisme, laquelle, rappelons-le, est d’ores et déjà prise en charge au plan pénal. La nature de la contrainte demeure elle aussi inchangée. Le contrôle par un juge, fût-il judiciaire, exercé selon des critères vagues et sur la base de notes blanches fournies par les services de renseignement, ne sera, par essence, pas plus effectif que sous l’état d’urgence.
Entre l’état d’urgence qu’on s’apprête enfin, nous dit-on, à quitter, et l’état de soupçon permanent dans lequel il s’agirait d’entrer, il n’y a pas de différence de nature. Tandis que l’état d’urgence se voulait temporaire et ses mesures exceptionnelles, les fouilles indifférenciées, les assignations et les perquisitions de la loi à venir seront permanentes. Les atteintes aux libertés d’aller et de venir, de se réunir et de manifester, la stigmatisation des personnes de confession musulmanes ou supposées telles, et avec elles, la division de la société, prendront, elles aussi, un tour permanent, par l’effet de cliquet propre aux législations antiterroristes, comme le montre l’expérience de celles accumulées, presque sans débat, ces dernières années.
Le réseau « état d’urgence / antiterrorisme » est composé :
des organisations suivantes : ACAT-France (Action des chrétiens pour l’abolition de la torture), Action Droits des Musulmans, Amnesty international – France, Collectif contre l’Islamophobie en France (CCIF), European Prison Litigation Network, Greenpeace France, Human Rights Watch, La Quadrature du Net, Ligue des Droits de l’Homme, Observatoire international des Prisons (section française), Syndicat des Avocats de France et Syndicat de la Magistrature.
et d’universitaires (membres, notamment, Centre de recherche et d’études sur les droits fondamentaux (CREDOF) de l’Université Paris Nanterre, engagés dans un programme de recherche sur l’état d’urgence 2015-17).
";s:7:"content";s:5454:"
Paris, le 5 juillet 2017 — Douze organisations, des avocats et des universitaires (liste ci-dessous) appellent les députés à ne pas voter la loi de prorogation de l’état d’urgence et tous les parlementaires à rejeter la loi renforçant la lutte contre le terrorisme et la sécurité intérieure. Elles dénoncent la dangereuse logique du soupçon qui imprègne les deux textes. Les parlementaires ne doivent pas se laisser abuser par l’idée que la France va sortir d’un régime d’exception alors même qu’il s’agit de l’inscrire dans le marbre de la loi permanente.
Photo Vox Public
Le discours du Président de la République, lors du Congrès à Versailles, a été l’occasion d’un nouveau tour de passe-passe : prétendre à une sortie de l’état d’urgence, quand, en même temps, le Sénat examinait une sixième loi de prorogation de ce dispositif d’exception, suivie du projet de loi antiterroriste qui pérennisera l’état d’urgence pour l’inscrire dans le droit commun.
Le 30 juin, lors d’une rencontre avec le Président de la République, notre collectif « état d’urgence / antiterrorisme » s’est employé à mettre au jour ces incohérences entre les annonces et les faits. Face à ces contradictions, le Président de la République n’a pas montré d’ouverture pour modifier le fond de ces projets de loi. Les perquisitions et assignations administratives, mesures phares de l’état d’urgence, aussi inefficaces qu’excessives, ne disparaîtront ainsi pas en novembre 2017. Elles seront pérennisées ; les assignés et perquisitionnés de l’état d’urgence d’aujourd’hui seront, sans nul doute, les assignés et perquisitionnés de la loi antiterroriste de demain.
En prétendant aujourd’hui réserver aux seuls terroristes ces mesures, le gouvernement reconnaît en creux l’usage arbitraire et dévoyé de l’état d’urgence. Autre preuve de duplicité du discours officiel : les interdictions dites « de séjour » (valant interdiction de se déplacer pour participer à une manifestation), censurées par le Conseil constitutionnel, ont été réintroduites par le gouvernement et aussitôt adoptées en commission des Lois du Sénat. Cette disposition spécifique pourra être utilisée contre des manifestants ou militants, sans lien avec le terrorisme, comme cela été le cas ces derniers mois.
Nos organisations alertent les parlementaires sur la nouvelle loi antiterroriste qui vise à normaliser la logique du soupçon. L’objectif fondamental, subjectif et donc potentiellement arbitraire, demeure la neutralisation d’individus dont on pourrait anticiper les « comportements non conformes » et la « radicalisation » supposée. Le texte ambitionne ainsi de pérenniser des dispositifs qui accuseront les personnes sur la base de critères flous (notamment d’appartenance à l’entourage de personnes ou d’organisations, l’adhésion, même privée, à des idées ou doctrines religieuses…) et bien en amont de toute preuve de la commission ou la préparation d’un acte de terrorisme, laquelle, rappelons-le, est d’ores et déjà prise en charge au plan pénal. La nature de la contrainte demeure elle aussi inchangée. Le contrôle par un juge, fût-il judiciaire, exercé selon des critères vagues et sur la base de notes blanches fournies par les services de renseignement, ne sera, par essence, pas plus effectif que sous l’état d’urgence.
Entre l’état d’urgence qu’on s’apprête enfin, nous dit-on, à quitter, et l’état de soupçon permanent dans lequel il s’agirait d’entrer, il n’y a pas de différence de nature. Tandis que l’état d’urgence se voulait temporaire et ses mesures exceptionnelles, les fouilles indifférenciées, les assignations et les perquisitions de la loi à venir seront permanentes. Les atteintes aux libertés d’aller et de venir, de se réunir et de manifester, la stigmatisation des personnes de confession musulmanes ou supposées telles, et avec elles, la division de la société, prendront, elles aussi, un tour permanent, par l’effet de cliquet propre aux législations antiterroristes, comme le montre l’expérience de celles accumulées, presque sans débat, ces dernières années.
Le réseau « état d’urgence / antiterrorisme » est composé :
des organisations suivantes : ACAT-France (Action des chrétiens pour l’abolition de la torture), Action Droits des Musulmans, Amnesty international – France, Collectif contre l’Islamophobie en France (CCIF), European Prison Litigation Network, Greenpeace France, Human Rights Watch, La Quadrature du Net, Ligue des Droits de l’Homme, Observatoire international des Prisons (section française), Syndicat des Avocats de France et Syndicat de la Magistrature.
et d’universitaires (membres, notamment, Centre de recherche et d’études sur les droits fondamentaux (CREDOF) de l’Université Paris Nanterre, engagés dans un programme de recherche sur l’état d’urgence 2015-17).
";s:7:"dateiso";s:15:"20170705_151846";}s:15:"20170630_150731";a:7:{s:5:"title";s:45:"ePrivacy : séparons le bon grain de l'ivraie";s:4:"link";s:59:"http://www.laquadrature.net/fr/ePrivacy-bon-grain-et-ivraie";s:4:"guid";s:36:"10260 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 30 Jun 2017 13:07:31 +0000";s:11:"description";s:6137:"
Paris, le 30 juin 2017 - Le débat sur le règlement ePrivacy devient de plus en plus vif et complexe, tant au sein du Parlement européen que de chaque État membre - le gouvernement français n'ayant pas encore annoncé sa position publique. De nombreux arguments et propositions sont apparus, tant pour renforcer la vie privée que pour sacrifier celle-ci au nom d'un certain modèle économique. La Quadrature du Net publie ainsi de nouvelles positions pour aider les décideurs publics à séparer le bon grain de l'ivraie et s'assurer que les avancées techniques constantes ne servent pas de prétexte pour remettre en cause des libertés fondamentales immuables.
Adopter un règlement spécifique aux communications électroniques. Le règlement général sur la protection des données (RGPD) adopté l'année dernière par l'UE s'appliquera à partir de mai 2018 à tout secteur d'activité. Face à la diversité des secteurs affectés, le législateur avait renoncé à y lister les cas concrets où les données peuvent être exploitées sans le consentement des individus, préférant prévoir des exceptions extrêmement larges et dangereuses. Le but d'un texte sectoriel comme ePrivacy est de préciser le RGPD pour définir les cas où le consentement n'est pas obligatoire.
Définir limitativement les dérogations au consentement. Le but de ePrivacy étant ainsi défini, le règlement n'a aucune raison d'intégrer des exceptions aussi larges qu'incertaines, tels que l' « intérêt légitime », les « traitements ultérieurs » ou la « pseudonymisation ».
Préserver la liberté du consentement. Le RGPD prévoit qu'un consentement donné sous la menace de ne pas pouvoir accéder à un service (tel un site internet) n'est pas librement donné et n'est donc pas valide. Il s'agit du principe fondamental selon lequel les libertés ne peuvent jamais être des contreparties économiques. Certaines entreprises le remettent pourtant en cause, défendant une société où seuls les plus riches pourraient encore se payer le « luxe » de la vie privée.
Exiger un consentement complet pour l'analyse des communications. Les communications électroniques impliquent toujours au moins deux personnes : un expéditeur et un ou plusieurs destinataires. La proposition de règlement autorise une seule de ces personnes à accepter, à la place des autres, l'analyse de leurs communications. Le règlement doit exiger le consentement de tous. De plus, le règlement prévoit un consentement différent selon que l'analyse porte sur le contenu ou les métadonnées : cette distinction est injustifiable.
S'opposer au consentement automatique pour le pistage. La proposition de règlement accepte que les utilisateurs puissent donner leur consentement de façon automatique en configurant leurs logiciels de communication (typiquement leur navigateur Web). Leur consentement est ainsi donné en une seule fois à une infinité d'opérations différentes et avant même d'avoir été informé de l'auteur, de la finalité ou de la nature de ces opérations. Ceci est parfaitement contraire au consentement « spécifique » et « informé » exigé par le RGPD et doit être rejeté.
Exiger le consentement pour la géolocalisation. La proposition de règlement n'exige aucun consentement pour géolocaliser les individus à partir des informations émises par leurs appareils. Cette dérogation est inacceptable, en plus d'être contraire à la protection garantie par le droit en vigueur.
Encadrer la surveillance d'État. Le règlement doit intégrer en droit écrit les limites décisives posées par la Cour de justice de l'UE dans son arrêt Tele21 face à la surveillance d'État. Les seules mesures permises doivent être ciblées, autorisées par un juge, réduites à la lutte contre les crimes graves et limitées dans le temps (2 mois en matière d'obligation de conservation des métadonnées).
La proposition de règlement est actuellement examinée par les commissions du Parlement européen. Ces commissions auront bientôt toutes déposé leurs propositions d'amendements, qui ne seront débattues qu'à la rentrée prochaine. La Quadrature en publiera prochainement une analyse détaillée.
Paris, le 30 juin 2017 - Le débat sur le règlement ePrivacy devient de plus en plus vif et complexe, tant au sein du Parlement européen que de chaque État membre - le gouvernement français n'ayant pas encore annoncé sa position publique. De nombreux arguments et propositions sont apparus, tant pour renforcer la vie privée que pour sacrifier celle-ci au nom d'un certain modèle économique. La Quadrature du Net publie ainsi de nouvelles positions pour aider les décideurs publics à séparer le bon grain de l'ivraie et s'assurer que les avancées techniques constantes ne servent pas de prétexte pour remettre en cause des libertés fondamentales immuables.
Adopter un règlement spécifique aux communications électroniques. Le règlement général sur la protection des données (RGPD) adopté l'année dernière par l'UE s'appliquera à partir de mai 2018 à tout secteur d'activité. Face à la diversité des secteurs affectés, le législateur avait renoncé à y lister les cas concrets où les données peuvent être exploitées sans le consentement des individus, préférant prévoir des exceptions extrêmement larges et dangereuses. Le but d'un texte sectoriel comme ePrivacy est de préciser le RGPD pour définir les cas où le consentement n'est pas obligatoire.
Définir limitativement les dérogations au consentement. Le but de ePrivacy étant ainsi défini, le règlement n'a aucune raison d'intégrer des exceptions aussi larges qu'incertaines, tels que l' « intérêt légitime », les « traitements ultérieurs » ou la « pseudonymisation ».
Préserver la liberté du consentement. Le RGPD prévoit qu'un consentement donné sous la menace de ne pas pouvoir accéder à un service (tel un site internet) n'est pas librement donné et n'est donc pas valide. Il s'agit du principe fondamental selon lequel les libertés ne peuvent jamais être des contreparties économiques. Certaines entreprises le remettent pourtant en cause, défendant une société où seuls les plus riches pourraient encore se payer le « luxe » de la vie privée.
Exiger un consentement complet pour l'analyse des communications. Les communications électroniques impliquent toujours au moins deux personnes : un expéditeur et un ou plusieurs destinataires. La proposition de règlement autorise une seule de ces personnes à accepter, à la place des autres, l'analyse de leurs communications. Le règlement doit exiger le consentement de tous. De plus, le règlement prévoit un consentement différent selon que l'analyse porte sur le contenu ou les métadonnées : cette distinction est injustifiable.
S'opposer au consentement automatique pour le pistage. La proposition de règlement accepte que les utilisateurs puissent donner leur consentement de façon automatique en configurant leurs logiciels de communication (typiquement leur navigateur Web). Leur consentement est ainsi donné en une seule fois à une infinité d'opérations différentes et avant même d'avoir été informé de l'auteur, de la finalité ou de la nature de ces opérations. Ceci est parfaitement contraire au consentement « spécifique » et « informé » exigé par le RGPD et doit être rejeté.
Exiger le consentement pour la géolocalisation. La proposition de règlement n'exige aucun consentement pour géolocaliser les individus à partir des informations émises par leurs appareils. Cette dérogation est inacceptable, en plus d'être contraire à la protection garantie par le droit en vigueur.
Encadrer la surveillance d'État. Le règlement doit intégrer en droit écrit les limites décisives posées par la Cour de justice de l'UE dans son arrêt Tele21 face à la surveillance d'État. Les seules mesures permises doivent être ciblées, autorisées par un juge, réduites à la lutte contre les crimes graves et limitées dans le temps (2 mois en matière d'obligation de conservation des métadonnées).
La proposition de règlement est actuellement examinée par les commissions du Parlement européen. Ces commissions auront bientôt toutes déposé leurs propositions d'amendements, qui ne seront débattues qu'à la rentrée prochaine. La Quadrature en publiera prochainement une analyse détaillée.
";s:7:"dateiso";s:15:"20170630_150731";}s:15:"20170613_120037";a:7:{s:5:"title";s:50:"ePrivacy : une étape cruciale pour la vie privée";s:4:"link";s:63:"http://www.laquadrature.net/fr/ePrivacy-une-%C3%A9tape-cruciale";s:4:"guid";s:36:"10254 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 13 Jun 2017 10:00:37 +0000";s:11:"description";s:9605:"
Paris, 13 juin 2017 — Le mois de juin sera décisif pour le futur de notre vie privée et la confidentialité de nos communications électroniques. Actuellement en débat au Parlement européen, le futur règlement « ePrivacy » divise et réveille de désagréables souvenirs du temps des négociations du Règlement général sur la protection des données personnelles (RGPD). Après la publication de deux rapports pour avis tirant dans des sens complètement opposés, tous les yeux sont à présent tournés vers la rapporteure principale, Marju Lauristin, qui devrait présenter son texte le 21 juin. Courage ou aveu de faiblesse face aux lobbys ? Libertés et modèles innovants ou exploitation et capitalisme de surveillance ? La Quadrature du Net a fait son choix et entend bien continuer à le défendre au cours de ces longs mois de négociation à venir.
Depuis un an maintenant, la question de la vie privée et de la confidentialité des communications électroniques est à l'agenda des institutions européennes.
À travers la révision d'une vieille directive de 2002, appelée « ePrivacy », l'Union européenne souhaite revoir les règles qui entourent la confidentialité de nos correspondances et de nos appareils (téléphone, ordinateurs etc.). Un sujet extrêmement sensible donc, puisqu'il vise à protéger notre vie privée à un moment où celle-ci est gravement mise en danger par la surveillance des États et le pistage incessant des acteurs privés, majoritairement à des fins commerciales.
Suite à la proposition de règlement de la Commission européenne en janvier, le dossier a été transmis au Parlement qui travaille à présent dessus. La Quadrature du Net - aux côtés d'autres organisations de défense des droits fondamentaux - est présente au sein du Parlement depuis le début de l'année pour faire valoir l'importance d'un règlement fort et ambitieux qui sort du status-quo et protège réellement les Européens. Malheureusement elle se heurte au lobbying acharné de l'industrie et à l'argument incontournable de « l'équilibre » qu'il faudrait trouver entre droits fondamentaux et business.
Cette rhétorique de « l'équilibre » est insupportable car elle vise à nous faire croire qu'aujourd'hui la balance penche en faveur de la protection de nos droits et libertés et qu'il faudrait rééquilibrer cela en favorisant d'avantage les industries et leur business. C'est un mensonge, les individus n'ont aucun pouvoir face aux fournisseurs de services. Leurs informations personnelles leur sont dérobées sans que leur consentement soit libre et informé, quand il n'est pas simplement ignoré. Cette création de richesse, qui se fait à l'insu des utilisateurs, continue pendant ce temps à alimenter d'énormes bases de données faisant le bonheur des États pour leur surveillance et des entreprises pour le contrôle social par le profilage et la publicité.
La responsabilité des parlementaires européens est grande car, à travers le règlement ePrivacy, ils et elles ont la possibilité de créer un cadre réellement protecteur de nos droits et libertés qui incitera les acteurs européens du numérique à investir dans des modèles plus vertueux et ainsi se démarquer - par le haut - du reste de leurs concurrents.
La rapporteure désignée par le Parlement en charge de rédiger une proposition de règlement est l'Estonienne social-démocrate Marju Lauristin. Son projet de rapport qui doit être présenté au sein delà commission des Libertés civiles (LIBE) le 21 juin est très attendu. Habituée de ces sujets, la rapporteure comprend bien les enjeux d'ePrivacy, mais il lui faudra rester ferme et résister à la puissance des lobbys de l'industrie, qui sont nombreux et surtout très divers (opérateurs télécoms, géants américains du net, industrie de la publicité en ligne, éditeurs de presse etc.).
Deux autres commissions ont souhaité donner leurs avis sur le dossier : la commission industrie, recherche et énergie (ITRE) et la commission marché intérieur et protection des consommateurs (IMCO).
En ITRE, la libérale Kaja Kallas a sorti un avis en demi teinte. Elle n'affaiblit pas la proposition initiale de la Commission et l'améliore même sur certains points
le consentement doit-être libre et ne peut donc pas être une contrepartie imposée pour accéder à un service (autrement dit, on ne peut pas vous interdire l'accès à un service dont le modèle économique serait exclusivement basé sur la publicité ciblée au seul motif que vous refusiez que vos données personnelles soient exploitées) ;
le pistage de nos appareils hors-ligne doit-être soumis au consentement ;
les dérogations laissées aux États membres doivent-être réduites ;
le chiffrement de bout-en-bout doit être encouragé et les portes dérobées interdites.
Malheureusement, le rapport de Mme Kallas ne cherche en rien à encadrer ou limiter le blanc-seing donné aux fournisseurs de services pour exploiter les données de communications électroniques. Contrairement à ce que La Quadrature recommandait, le consentement d'un seul des utilisateurs engagés dans une communication serait suffisant, d'après elle, pour que les données propre à cette communication (métadonnées ou contenu) puissent être exploitées. Par ailleurs, Kaja Kallas n'a pas souhaité introduire dans son rapport la possibilité de recours collectifs véritablement effectifs pour les utilisateurs et n'a pas augmenté les sanctions pour les entreprises violant les règles en matière de confidentialité de l'appareil terminal.
En IMCO, Eva Maydell (PPE) est très claire sur son orientation business et il n'y a rien à garder de son rapport pour avis. Il ne sera pas ici listé tous les points qu'il faudrait amender mais, en résumé, le rapport Maydell :
refuse de considérer que le secteur des communications électroniques requiert une protection spécifique et renforcée et mais, à la place, introduit des exceptions pour contourner le consentement des utilisateurs, comme les finalités ultérieures ;
s'oppose à ce que l'ensemble des utilisateurs d'une communication doivent consentir afin que le fournisseur de service puisse être autorisé à traiter les métadonnées ou le contenu des correspondances ;
supprime éhontément tout l'article 7 qui oblige les fournisseurs de services à effacer ou à rendre anonymes le contenu des communications acheminées, ainsi que les métadonnées qui ne sont plus nécessaires pour assurer l'acheminement de la communication ou sa facturation.
Ces quelques exemples - s'ils étaient adoptés en commission IMCO ou, pire, repris plus tard par la commission LIBE - affaibliraient considérablement la proposition déjà peu ambitieuse de la Commission européenne. La Quadrature appelle les eurodéputé-e-s de la commission IMCO à massivement rejeter cet inacceptable et dangereux rapport d'Eva Maydell.
Après ces deux rapports pour avis, la proposition de la rapporteure Marju Lauristin sera décisive, puisqu'elle pointera un curseur autour duquel les futures discussions et amendements s'organiseront. Devrons-nous continuer à défendre les rares choses qui avaient été gagnées par l'adoption en 2016 du Règlement général sur la protection des données (comme le fait qu'un consentement au traitement de données personnelles ne peut être la condition de l'accès à un service) et nous battre pour ne pas descendre en deçà de ce que nous avions avec l'ancienne directive ePrivacy de 2002 (avec par exemple le consentement comme seule base légale de traitement) ? Ou bien pourrons-nous enfin quitter cette posture défensive, nous tourner vers le futur et être force de proposition pour un règlement ePrivacy réellement innovant ? Pour l'instant, l'offensive des lobbys, les positions de certains États membres et le rapport pour avis d'IMCO nous font pencher pour la première option, mais la proposition de la rapporteure Lauristin pourrait - avec un peu de courage - renverser la balance.
les recommandations aux eurodéputé-e-s sur ePrivacy (mars 2017). De nouvelles recommandations plus actuelles sont en préparation ;
le wiki de LQDN sur le projet de règlement ePrivacy.
";s:7:"content";s:9605:"
Paris, 13 juin 2017 — Le mois de juin sera décisif pour le futur de notre vie privée et la confidentialité de nos communications électroniques. Actuellement en débat au Parlement européen, le futur règlement « ePrivacy » divise et réveille de désagréables souvenirs du temps des négociations du Règlement général sur la protection des données personnelles (RGPD). Après la publication de deux rapports pour avis tirant dans des sens complètement opposés, tous les yeux sont à présent tournés vers la rapporteure principale, Marju Lauristin, qui devrait présenter son texte le 21 juin. Courage ou aveu de faiblesse face aux lobbys ? Libertés et modèles innovants ou exploitation et capitalisme de surveillance ? La Quadrature du Net a fait son choix et entend bien continuer à le défendre au cours de ces longs mois de négociation à venir.
Depuis un an maintenant, la question de la vie privée et de la confidentialité des communications électroniques est à l'agenda des institutions européennes.
À travers la révision d'une vieille directive de 2002, appelée « ePrivacy », l'Union européenne souhaite revoir les règles qui entourent la confidentialité de nos correspondances et de nos appareils (téléphone, ordinateurs etc.). Un sujet extrêmement sensible donc, puisqu'il vise à protéger notre vie privée à un moment où celle-ci est gravement mise en danger par la surveillance des États et le pistage incessant des acteurs privés, majoritairement à des fins commerciales.
Suite à la proposition de règlement de la Commission européenne en janvier, le dossier a été transmis au Parlement qui travaille à présent dessus. La Quadrature du Net - aux côtés d'autres organisations de défense des droits fondamentaux - est présente au sein du Parlement depuis le début de l'année pour faire valoir l'importance d'un règlement fort et ambitieux qui sort du status-quo et protège réellement les Européens. Malheureusement elle se heurte au lobbying acharné de l'industrie et à l'argument incontournable de « l'équilibre » qu'il faudrait trouver entre droits fondamentaux et business.
Cette rhétorique de « l'équilibre » est insupportable car elle vise à nous faire croire qu'aujourd'hui la balance penche en faveur de la protection de nos droits et libertés et qu'il faudrait rééquilibrer cela en favorisant d'avantage les industries et leur business. C'est un mensonge, les individus n'ont aucun pouvoir face aux fournisseurs de services. Leurs informations personnelles leur sont dérobées sans que leur consentement soit libre et informé, quand il n'est pas simplement ignoré. Cette création de richesse, qui se fait à l'insu des utilisateurs, continue pendant ce temps à alimenter d'énormes bases de données faisant le bonheur des États pour leur surveillance et des entreprises pour le contrôle social par le profilage et la publicité.
La responsabilité des parlementaires européens est grande car, à travers le règlement ePrivacy, ils et elles ont la possibilité de créer un cadre réellement protecteur de nos droits et libertés qui incitera les acteurs européens du numérique à investir dans des modèles plus vertueux et ainsi se démarquer - par le haut - du reste de leurs concurrents.
La rapporteure désignée par le Parlement en charge de rédiger une proposition de règlement est l'Estonienne social-démocrate Marju Lauristin. Son projet de rapport qui doit être présenté au sein delà commission des Libertés civiles (LIBE) le 21 juin est très attendu. Habituée de ces sujets, la rapporteure comprend bien les enjeux d'ePrivacy, mais il lui faudra rester ferme et résister à la puissance des lobbys de l'industrie, qui sont nombreux et surtout très divers (opérateurs télécoms, géants américains du net, industrie de la publicité en ligne, éditeurs de presse etc.).
Deux autres commissions ont souhaité donner leurs avis sur le dossier : la commission industrie, recherche et énergie (ITRE) et la commission marché intérieur et protection des consommateurs (IMCO).
En ITRE, la libérale Kaja Kallas a sorti un avis en demi teinte. Elle n'affaiblit pas la proposition initiale de la Commission et l'améliore même sur certains points
le consentement doit-être libre et ne peut donc pas être une contrepartie imposée pour accéder à un service (autrement dit, on ne peut pas vous interdire l'accès à un service dont le modèle économique serait exclusivement basé sur la publicité ciblée au seul motif que vous refusiez que vos données personnelles soient exploitées) ;
le pistage de nos appareils hors-ligne doit-être soumis au consentement ;
les dérogations laissées aux États membres doivent-être réduites ;
le chiffrement de bout-en-bout doit être encouragé et les portes dérobées interdites.
Malheureusement, le rapport de Mme Kallas ne cherche en rien à encadrer ou limiter le blanc-seing donné aux fournisseurs de services pour exploiter les données de communications électroniques. Contrairement à ce que La Quadrature recommandait, le consentement d'un seul des utilisateurs engagés dans une communication serait suffisant, d'après elle, pour que les données propre à cette communication (métadonnées ou contenu) puissent être exploitées. Par ailleurs, Kaja Kallas n'a pas souhaité introduire dans son rapport la possibilité de recours collectifs véritablement effectifs pour les utilisateurs et n'a pas augmenté les sanctions pour les entreprises violant les règles en matière de confidentialité de l'appareil terminal.
En IMCO, Eva Maydell (PPE) est très claire sur son orientation business et il n'y a rien à garder de son rapport pour avis. Il ne sera pas ici listé tous les points qu'il faudrait amender mais, en résumé, le rapport Maydell :
refuse de considérer que le secteur des communications électroniques requiert une protection spécifique et renforcée et mais, à la place, introduit des exceptions pour contourner le consentement des utilisateurs, comme les finalités ultérieures ;
s'oppose à ce que l'ensemble des utilisateurs d'une communication doivent consentir afin que le fournisseur de service puisse être autorisé à traiter les métadonnées ou le contenu des correspondances ;
supprime éhontément tout l'article 7 qui oblige les fournisseurs de services à effacer ou à rendre anonymes le contenu des communications acheminées, ainsi que les métadonnées qui ne sont plus nécessaires pour assurer l'acheminement de la communication ou sa facturation.
Ces quelques exemples - s'ils étaient adoptés en commission IMCO ou, pire, repris plus tard par la commission LIBE - affaibliraient considérablement la proposition déjà peu ambitieuse de la Commission européenne. La Quadrature appelle les eurodéputé-e-s de la commission IMCO à massivement rejeter cet inacceptable et dangereux rapport d'Eva Maydell.
Après ces deux rapports pour avis, la proposition de la rapporteure Marju Lauristin sera décisive, puisqu'elle pointera un curseur autour duquel les futures discussions et amendements s'organiseront. Devrons-nous continuer à défendre les rares choses qui avaient été gagnées par l'adoption en 2016 du Règlement général sur la protection des données (comme le fait qu'un consentement au traitement de données personnelles ne peut être la condition de l'accès à un service) et nous battre pour ne pas descendre en deçà de ce que nous avions avec l'ancienne directive ePrivacy de 2002 (avec par exemple le consentement comme seule base légale de traitement) ? Ou bien pourrons-nous enfin quitter cette posture défensive, nous tourner vers le futur et être force de proposition pour un règlement ePrivacy réellement innovant ? Pour l'instant, l'offensive des lobbys, les positions de certains États membres et le rapport pour avis d'IMCO nous font pencher pour la première option, mais la proposition de la rapporteure Lauristin pourrait - avec un peu de courage - renverser la balance.
les recommandations aux eurodéputé-e-s sur ePrivacy (mars 2017). De nouvelles recommandations plus actuelles sont en préparation ;
le wiki de LQDN sur le projet de règlement ePrivacy.
";s:7:"dateiso";s:15:"20170613_120037";}s:15:"20170612_163805";a:7:{s:5:"title";s:73:"Sous le capot: votez pour une infrastructure télécoms décentralisée! ";s:4:"link";s:83:"http://www.laquadrature.net/fr/EECC-protegeons-Internet-decentralise-infrastructure";s:4:"guid";s:36:"10253 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 12 Jun 2017 14:38:05 +0000";s:11:"description";s:16513:"
Paris, 13 juin 2017 — La nature décentralisée d'Internet est en jeu avec les négociations sur le code européen des communications électroniques. La Quadrature du Net publie ses premières listes de vote sur les amendements qui ont été déposés au Parlement européen1 et soutient les fiches d'informations (pdf) élaborées par netCommons. Comme prévu, le lobbying de telcos a été très efficace sur les amendements, déposés notamment par la droite, et qui visent à protéger les positions oligopolistiques des acteurs majoritaires et limiter toute possibilité d'ouverture pour les nouveaux acteurs ainsi que les droits des utilisateurs.
Dans le cadre de la révision du Paquet télécom, la Commission européenne a décidé de créer un code européen des communications électroniques. Ce très long et très complexe projet de loi établit les règles régissant le co-investissement, les fréquences radio, l'accès des petits acteurs aux réseaux des opérateurs historiques, le chiffrement, l'aménagement des zones rurales, etc. Nous avons déjà écrit à propos de ce texte dans notre article sur le rapport de la rapporteure principale, Pilar Del Castillo.
La liste des amendements votés le 22 juin en commission IMCO et le 11 juillet en commission ITRE est désormais publiée et les négociations sur les soi-disant « amendements de compromis » sont en cours. Les amendements de compromis reflètent un processus très opaque et non démocratique dans lequel, via des accords obscurs, les membres du Parlement européen essayent de réduire et de simplifier le vote en « mélangeant » leurs différentes positions sur le texte suivant le poids respectif des différents groupes politiques.
Malgré le fait que tous les amendements de compromis ne soient pas encore publiés2, La Quadrature offre sa propre évaluation des amendements proposés en commissions IMCO et ITRE. Ces « listes de vote » ont été préparées dans le but de protéger les droits dans le code des communications électroniques, et d'assurer l'ouverture du secteur des télécoms à des acteurs plus petits, et en particulier aux réseaux communautaires (cette liste ne tient pas compte des mauvais amendements déposés par Pilar del Castillo qui devraient être tous rejetés).
Ce qui est en jeu :
Spectre radio - licences de fréquences radio
Madame del Castillo, tout comme les opérateurs oligopolistiques, veut étendre la durée de ces licences de manière déraisonnable : 25 à 30 ans ! Pendant que les plus gros acteurs vont rester assis sur leur pile de licences et leur soi-disant « sécurité de marché », d'autres acteurs, comme des petites entreprises télécoms ou des acteurs à but non lucratif, seront exclus de l'accès aux communs du spectre radio. Les négociations en cours sur les amendements de compromis devraient promouvoir le partage de l'accès non-soumis à licence du spectre radio, qui favoriserait les petits opérateurs et accroîtrait la diversité du secteur des télécoms. Pour éviter la privatisation et l'épuisement des ressources publiques du spectre radio, des amendements de compromis devraient également s'assurer que les autorités nationales de régulation priveront de leurs licences exclusives les opérateurs qui manqueraient à leurs engagements d'utilisation efficace et pertinente de la bande allouée.
Accès au réseau
Pour encourager la mise en œuvre d'un réseau local adapté aux besoins locaux (« granularité »), et la diversité des FAI dans les marchés télécoms, il est nécessaire d'obtenir un accès de gros à la fois actif et passif3. Tous les acteurs doivent être capables de se connecter au réseau soit par des offres passives raisonnables (au niveau de la ligne individuelles par exemple) ou soit par un accès actif si la taille de l'opérateur ne permet pas un accès passif. L'actuelle inégalité des offres pour les petits acteurs mène à une inégalité d'accès au marché en particulier pour les petites localités, avec de sérieuses conséquences sur la concurrence, l'innovation, la concentration des connaissances, la cohésion territoriale et le développement.
Les amendements de compromis ne doivent pas donner une priorité aux accès passifs sur les accès actifs. Au contraire, avoir une offre de gros raisonnable à la fois sur l'accès passif et l'accès actif assurerait le développement de petits acteurs locaux en améliorant ainsi la concurrence, particulièrement sur le marché des entreprises privées4
Co-investissement et concurrence
Le principal défi pour les politiques de co-investissement est de permettre aux petits acteurs de contribuer et de participer au développement et à l'établissement de nouvelles infrastructures, de façon à encourager l'innovation et le développement économique. Les dispositions actuelles pour les pratiques de co-investissement ne permettent pas aux FAI locaux ou à but non lucratif de prendre part aux investissements, réservant cette opportunité uniquement aux gros acteurs historiques. Bien que les réseaux communautaires et les PME locales ayant fait leurs preuves en ce qui concerne le raccordement des communautés défavorisées, aussi bien en zone urbaine qu'en zone rurale, il serait tout simplement normal de les considérer comme des membres à part entière de l'écosystème des télécoms, leur donnant ainsi un accès égal et équitable aux opportunités de co-investissement. De plus, le co-investissement dans certaines zones doit être considéré comme un oligopole de quelques acteurs puissants (au niveau local), comme la fédération FDN l'a montré dans son analyse du marché fixe écrite pour une consultation de l'ARCEP en 2016. Ces oligopoles fonctionnent comme des cartels. Les co-investisseurs, dans une zone donnée, devraient être considérés comme ayant une position d'acteur historique dans cette zone. Une telle régulation symétrique permettrait d'accueillir tous les acteurs dans le marché.
Wi-Fi ouvert
Plusieurs lois nationales cherchent à empêcher le partage des connexions Internet par les utilisateurs en les rendant responsables de toutes les communications faites au travers de leur connexion Wi-Fi. En 2017, deux tribunaux allemands ont jugé des individus partageant leur connexion Wi-Fi responsables de violation de droit d'auteur commises par des utilisateurs tiers, ce qui va à l'encontre des principes fondamentaux de la responsabilité des intermédiaires garantis par la Directive 2000/31/EC (directive sur la société de l'information, également appelée la « directive e-commerce »). Ces deux individus ont été jugés responsables car, après avoir été avertis par des ayant-droits de ces violations, ils n'ont pas pris les mesures nécessaires pour les empêcher. En France, la même logique, avec les mêmes effets pervers, est mise en œuvre par la HADOPI. Cette responsabilisation des personnes souhaitant partager leur accès est une menace majeure pour les petits réseaux sans fils communautaires ainsi qu'une flagrante distorsion de concurrence : les fournisseurs d'accès à Internet « traditionnels » ne peuvent, eux, être tenus responsables des infractions commises par leurs utilisateurs, même s'ils en ont connaissance, comme prévu par l'article 12 sur la directive 2000/31.
Chiffrement et vie privée
Chiffrer les contenus des communications de bout en bout par défaut est la seule façon de minimiser efficacement les conséquences des incidents de sécurité. Toutes les autres mesures n'ont qu'un effet bien moindre. De plus, le chiffrement est le principal moyen technique permettant d'appliquer la disposition de l'article 5(1) de la directive ePrivacy 2002/58/EC, qui interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Le chiffrement est également un moyen efficace pour les utilisateurs d'exercer leur droit définit à l'article 7 de la charte des droits fondamentaux de l'UE qui protège les communications. Le code européen des communications électroniques devrait ainsi inclure des dispositions assurant que les communications électroniques soient chiffrées de bout en bout.
Par ailleurs, le code doit être conforme à ladécision de la CJUE du 21 décembre 2016 (affaires C-203/15 et C-698/15, « Tele2 »), et inclure une disposition qui interdit la conservation généralisée des données de trafic et de localisation pour tous les abonnés et utilisateurs enregistrés.
Logiciels libres sur les terminaux
L'article 3.3(i) de la Directive 2014/53/EU du Parlement européen et du Conseil de l'Union européenne prévoit que les fabricants d'équipements radio doivent s'assurer que chaque logiciel qui peut être chargé sur l'appareil est conforme au réglementations radio applicables (la fréquence et la puissance du signal par exemple). Une telle disposition n'est pas seulement une lourde charge pour les fabricants mais également une violation du droit à la liberté de choix des consommateurs. Ces derniers seront enfermés dans des logiciels des fabricants parce qu'ils ne pouront plus choisir leurs logiciels et leur matériel de manière indépendantes. Cet aspect est crucial car des alternatives, les logiciels libres en particulier, satisfont souvent les critères requis en matière de sécurité, de fonctionnalités techniques et de standards.
Cela peut sévèrement entraver le développement de réseaux radio communautaires, qui sont souvent gérés par des bénévoles utilisant des logiciels libres adaptés à ce type de réseaux. Puisque les logiciels libres peuvent être librement étudiés et améliorés par tout un chacun, ils ne devraient pas faire l'objet de restrictions imposées par l'article 3.3(i) et l'adoption du code est une opportunité de retirer de telles restrictions.
Service universel
Aujourd'hui, et ce sera encore plus vrai demain, une connexion Internet est au centre de la vie de tous. Être connecté à Internet ne peut être limité à une connexion lente et instable. Au regard de son importance en tant que service publique, notamment en ce qu'il permet aux moins privilégiés de participer à la vie de la société, le service universel devrait être amélioré afin de permettre aux bénéficiaires d'avoir un accès haut débit. Nous soutenons les amendements de compromis préliminaires de la commission IMCO5 qui cherchent à assurer l'égalité entre les consommateurs bénéficiant du service universel et les autres consommateurs.
Le code européen des communications électroniques est la dernière opportunité avant plusieurs années de freiner le développement oligopolistic du secteur des télécommunications dans la plupart des État membres. Nous devons regarder les effets positifs sur la concurrence, sur le tissu socio-économique local et les droits fondamentaux des utilisateurs qu'auront le financement et le développement de réseaux durables. La menace est grande et la rapporteure principale, connue pour ses intérêts liés à l'industrie des télécoms, profite de cette refonte pour renforcer le statu quo en faveur des plus puissants. Les membres du Parlement européen doivent refuser le chantage des lobbys de l'industrie et soutenir les initiatives qui ont réussi à développer ces réseaux locaux et durables.
1. et notamment dans les commissions ITRE (Industry, Research and Energy), la commission responsable du texte et IMCO (Internal market and consumer protection), la commission associée. Voir également la fiche de procédure sur le site web du parlement européen.
5. Les amendements 71, 79, 451, 455, 458, 460, 765, 766, 767 se trouvent sur notre page wiki.
";s:7:"content";s:16522:"
Paris, 13 juin 2017 — La nature décentralisée d'Internet est en jeu avec les négociations sur le code européen des communications électroniques. La Quadrature du Net publie ses premières listes de vote sur les amendements qui ont été déposés au Parlement européen1 et soutient les fiches d'informations (pdf) élaborées par netCommons. Comme prévu, le lobbying de telcos a été très efficace sur les amendements, déposés notamment par la droite, et qui visent à protéger les positions oligopolistiques des acteurs majoritaires et limiter toute possibilité d'ouverture pour les nouveaux acteurs ainsi que les droits des utilisateurs.
Dans le cadre de la révision du Paquet télécom, la Commission européenne a décidé de créer un code européen des communications électroniques. Ce très long et très complexe projet de loi établit les règles régissant le co-investissement, les fréquences radio, l'accès des petits acteurs aux réseaux des opérateurs historiques, le chiffrement, l'aménagement des zones rurales, etc. Nous avons déjà écrit à propos de ce texte dans notre article sur le rapport de la rapporteure principale, Pilar Del Castillo.
La liste des amendements votés le 22 juin en commission IMCO et le 11 juillet en commission ITRE est désormais publiée et les négociations sur les soi-disant « amendements de compromis » sont en cours. Les amendements de compromis reflètent un processus très opaque et non démocratique dans lequel, via des accords obscurs, les membres du Parlement européen essayent de réduire et de simplifier le vote en « mélangeant » leurs différentes positions sur le texte suivant le poids respectif des différents groupes politiques.
Malgré le fait que tous les amendements de compromis ne soient pas encore publiés2, La Quadrature offre sa propre évaluation des amendements proposés en commissions IMCO et ITRE. Ces « listes de vote » ont été préparées dans le but de protéger les droits dans le code des communications électroniques, et d'assurer l'ouverture du secteur des télécoms à des acteurs plus petits, et en particulier aux réseaux communautaires (cette liste ne tient pas compte des mauvais amendements déposés par Pilar del Castillo qui devraient être tous rejetés).
Ce qui est en jeu :
Spectre radio - licences de fréquences radio
Madame del Castillo, tout comme les opérateurs oligopolistiques, veut étendre la durée de ces licences de manière déraisonnable : 25 à 30 ans ! Pendant que les plus gros acteurs vont rester assis sur leur pile de licences et leur soi-disant « sécurité de marché », d'autres acteurs, comme des petites entreprises télécoms ou des acteurs à but non lucratif, seront exclus de l'accès aux communs du spectre radio. Les négociations en cours sur les amendements de compromis devraient promouvoir le partage de l'accès non-soumis à licence du spectre radio, qui favoriserait les petits opérateurs et accroîtrait la diversité du secteur des télécoms. Pour éviter la privatisation et l'épuisement des ressources publiques du spectre radio, des amendements de compromis devraient également s'assurer que les autorités nationales de régulation priveront de leurs licences exclusives les opérateurs qui manqueraient à leurs engagements d'utilisation efficace et pertinente de la bande allouée.
Accès au réseau
Pour encourager la mise en œuvre d'un réseau local adapté aux besoins locaux (« granularité »), et la diversité des FAI dans les marchés télécoms, il est nécessaire d'obtenir un accès de gros à la fois actif et passif3. Tous les acteurs doivent être capables de se connecter au réseau soit par des offres passives raisonnables (au niveau de la ligne individuelles par exemple) ou soit par un accès actif si la taille de l'opérateur ne permet pas un accès passif. L'actuelle inégalité des offres pour les petits acteurs mène à une inégalité d'accès au marché en particulier pour les petites localités, avec de sérieuses conséquences sur la concurrence, l'innovation, la concentration des connaissances, la cohésion territoriale et le développement.
Les amendements de compromis ne doivent pas donner une priorité aux accès passifs sur les accès actifs. Au contraire, avoir une offre de gros raisonnable à la fois sur l'accès passif et l'accès actif assurerait le développement de petits acteurs locaux en améliorant ainsi la concurrence, particulièrement sur le marché des entreprises privées4
Co-investissement et concurrence
Le principal défi pour les politiques de co-investissement est de permettre aux petits acteurs de contribuer et de participer au développement et à l'établissement de nouvelles infrastructures, de façon à encourager l'innovation et le développement économique. Les dispositions actuelles pour les pratiques de co-investissement ne permettent pas aux FAI locaux ou à but non lucratif de prendre part aux investissements, réservant cette opportunité uniquement aux gros acteurs historiques. Bien que les réseaux communautaires et les PME locales ayant fait leurs preuves en ce qui concerne le raccordement des communautés défavorisées, aussi bien en zone urbaine qu'en zone rurale, il serait tout simplement normal de les considérer comme des membres à part entière de l'écosystème des télécoms, leur donnant ainsi un accès égal et équitable aux opportunités de co-investissement. De plus, le co-investissement dans certaines zones doit être considéré comme un oligopole de quelques acteurs puissants (au niveau local), comme la fédération FDN l'a montré dans son analyse du marché fixe écrite pour une consultation de l'ARCEP en 2016. Ces oligopoles fonctionnent comme des cartels. Les co-investisseurs, dans une zone donnée, devraient être considérés comme ayant une position d'acteur historique dans cette zone. Une telle régulation symétrique permettrait d'accueillir tous les acteurs dans le marché.
Wi-Fi ouvert
Plusieurs lois nationales cherchent à empêcher le partage des connexions Internet par les utilisateurs en les rendant responsables de toutes les communications faites au travers de leur connexion Wi-Fi. En 2017, deux tribunaux allemands ont jugé des individus partageant leur connexion Wi-Fi responsables de violation de droit d'auteur commises par des utilisateurs tiers, ce qui va à l'encontre des principes fondamentaux de la responsabilité des intermédiaires garantis par la Directive 2000/31/EC (directive sur la société de l'information, également appelée la « directive e-commerce »). Ces deux individus ont été jugés responsables car, après avoir été avertis par des ayant-droits de ces violations, ils n'ont pas pris les mesures nécessaires pour les empêcher. En France, la même logique, avec les mêmes effets pervers, est mise en œuvre par la HADOPI. Cette responsabilisation des personnes souhaitant partager leur accès est une menace majeure pour les petits réseaux sans fils communautaires ainsi qu'une flagrante distorsion de concurrence : les fournisseurs d'accès à Internet « traditionnels » ne peuvent, eux, être tenus responsables des infractions commises par leurs utilisateurs, même s'ils en ont connaissance, comme prévu par l'article 12 sur la directive 2000/31.
Chiffrement et vie privée
Chiffrer les contenus des communications de bout en bout par défaut est la seule façon de minimiser efficacement les conséquences des incidents de sécurité. Toutes les autres mesures n'ont qu'un effet bien moindre. De plus, le chiffrement est le principal moyen technique permettant d'appliquer la disposition de l'article 5(1) de la directive ePrivacy 2002/58/EC, qui interdit « à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes, ou de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés ». Le chiffrement est également un moyen efficace pour les utilisateurs d'exercer leur droit définit à l'article 7 de la charte des droits fondamentaux de l'UE qui protège les communications. Le code européen des communications électroniques devrait ainsi inclure des dispositions assurant que les communications électroniques soient chiffrées de bout en bout.
Par ailleurs, le code doit être conforme à ladécision de la CJUE du 21 décembre 2016 (affaires C-203/15 et C-698/15, « Tele2 »), et inclure une disposition qui interdit la conservation généralisée des données de trafic et de localisation pour tous les abonnés et utilisateurs enregistrés.
Logiciels libres sur les terminaux
L'article 3.3(i) de la Directive 2014/53/EU du Parlement européen et du Conseil de l'Union européenne prévoit que les fabricants d'équipements radio doivent s'assurer que chaque logiciel qui peut être chargé sur l'appareil est conforme au réglementations radio applicables (la fréquence et la puissance du signal par exemple). Une telle disposition n'est pas seulement une lourde charge pour les fabricants mais également une violation du droit à la liberté de choix des consommateurs. Ces derniers seront enfermés dans des logiciels des fabricants parce qu'ils ne pouront plus choisir leurs logiciels et leur matériel de manière indépendantes. Cet aspect est crucial car des alternatives, les logiciels libres en particulier, satisfont souvent les critères requis en matière de sécurité, de fonctionnalités techniques et de standards.
Cela peut sévèrement entraver le développement de réseaux radio communautaires, qui sont souvent gérés par des bénévoles utilisant des logiciels libres adaptés à ce type de réseaux. Puisque les logiciels libres peuvent être librement étudiés et améliorés par tout un chacun, ils ne devraient pas faire l'objet de restrictions imposées par l'article 3.3(i) et l'adoption du code est une opportunité de retirer de telles restrictions.
Service universel
Aujourd'hui, et ce sera encore plus vrai demain, une connexion Internet est au centre de la vie de tous. Être connecté à Internet ne peut être limité à une connexion lente et instable. Au regard de son importance en tant que service publique, notamment en ce qu'il permet aux moins privilégiés de participer à la vie de la société, le service universel devrait être amélioré afin de permettre aux bénéficiaires d'avoir un accès haut débit. Nous soutenons les amendements de compromis préliminaires de la commission IMCO5 qui cherchent à assurer l'égalité entre les consommateurs bénéficiant du service universel et les autres consommateurs.
Le code européen des communications électroniques est la dernière opportunité avant plusieurs années de freiner le développement oligopolistic du secteur des télécommunications dans la plupart des État membres. Nous devons regarder les effets positifs sur la concurrence, sur le tissu socio-économique local et les droits fondamentaux des utilisateurs qu'auront le financement et le développement de réseaux durables. La menace est grande et la rapporteure principale, connue pour ses intérêts liés à l'industrie des télécoms, profite de cette refonte pour renforcer le statu quo en faveur des plus puissants. Les membres du Parlement européen doivent refuser le chantage des lobbys de l'industrie et soutenir les initiatives qui ont réussi à développer ces réseaux locaux et durables.
1. et notamment dans les commissions ITRE (Industry, Research and Energy), la commission responsable du texte et IMCO (Internal market and consumer protection), la commission associée. Voir également la fiche de procédure sur le site web du parlement européen.
5. Les amendements 71, 79, 451, 455, 458, 460, 765, 766, 767 se trouvent sur notre page wiki.
";s:7:"dateiso";s:15:"20170612_163805";}s:15:"20170606_114401";a:7:{s:5:"title";s:101:"Directive copyright : le Parlement européen sous la menace des lobbies et des manoeuvres françaises";s:4:"link";s:58:"http://www.laquadrature.net/fr/directive-copyright-lobbies";s:4:"guid";s:36:"10243 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 06 Jun 2017 09:44:01 +0000";s:11:"description";s:7295:"
Paris, le 6 juin 2017 — Alors que toutes les commissions concernées au Parlement européen ont rendu leurs avis sur la proposition de directive sur la réforme du droit d'auteur, la situation est plus que complexe : les rapports constructifs des différentes commissions ont été pilonnés à la fois par la Commission européenne, mécontente de voir ses dispositions dangereuses être contestées, par les ayants droit et les lobbies de l'industrie culturelle qui refusent de céder le moindre point aux utilisateurs, et par certains acteurs parlementaires ou nationaux, au premier rang desquels malheureusement la représentation française, qui continue de défendre les positions les plus réactionnaires sur le droit d'auteur. La Quadrature du Net dénonce le dévoiement du travail parlementaire au profit des lobbies, et appelle le nouveau gouvernement à reprendre le dossier de la réforme du droit d'auteur avec une position ré-équilibrée en faveur des libertés, de la création sous toutes ses formes et des utilisateurs.
Le projet de directive européenne sur le droit d'auteur, présenté en septembre 2016, était assez peu ambitieux et comportait deux mesures dangereuses que nous avons dénoncées depuis lors : la création d'un droit voisin pour les éditeurs de presse (article 11), et une mesure visant à obliger les plateformes de partage à mettre en place des outils de détection automatique de contenus illicites (article 13).
La rapporteure de la commission JURI (affaires juridiques) au sein du Parlement européen, saisie au fond sur la directive, avait cependant rendu au printemps 2017 un rapport et des propositions d'amendements plutôt équilibrés, suivie en cela par les rapporteurs pour avis des commissions CULT (culture), ITRE (industrie) et IMCO (marché intérieur). Ces rapports, de façon différente mais avec une logique semblable, attaquaient ces deux mesures comme attentatoires aux libertés, dangereuses pour l'équilibre de la directive eCommerce de 2000 qui encadre les responsabilités des hébergeurs sur Internet, et ne réglant pas la question du transfert de valeur pourtant présentée comme étant au cœur de la directive.
Immédiatement, la Commission européenne, les lobbies de l'industrie culturelle, les ayants droit et certains parlementaires, notamment français, se sont insurgés face à ces propositions pourtant constructives et éclairées. Les amendements proposés dans les différentes commissions sur les rapports se partagent entre deux grandes positions :
une position autour notamment de l'eurodéputée Julia Reda, qui souhaite supprimer les articles 11 et 13 ;
une position autour notamment d'eurodéputés français qui veut encore aggraver les effets de ces deux articles, et introduire de nouvelles mesures encore plus dangereuses :
un droit inaliénable à la rémunération pour les créateurs, qui priverait ceux-ci, par exemple, de la possibilité d'offrir leur création sans vouloir de rémunération, ou de les placer sous licence libre ;
généraliser à toute l'Union européenne la taxe Google Images instaurée en France par la loi Création, qui pénalise également les créateurs sous licence libre ;
conditionner le droit pour une plateforme de se réclamer du régime de la directive eCommerce au fait d'installer des outils de détection de contenus illicites ;
et encore bien d'autres propositions toutes plus irréalistes et dangereuses pour la création, les utilisateurs, et le partage des contenus.
En se rangeant derrière les exigences les plus excessives des ayants droit, et en tentant de rallier au sein du Parlement européen d'autres parlementaires pour soutenir ces positions, un certain nombre de parlementaires français (Virginie Roziere, Jean-Marie Cavada ou Constance Le Grip pour les plus actifs) empêchent toute évolution positive du droit d'auteur en Europe et brouillent les positions d'un débat qui aurait pu être constructif, s'ils avaient joué le jeu d'une vraie ouverture et non d'un relais systématique des positions des lobbies.
La Commission LIBE (des libertés civiles), dernière à se prononcer, et uniquement sur l'Article 13, a bien senti le danger pour les droits fondamentaux de la détection automatique de contenus illicites, qui entraîne par nature la surveillance des internautes et le non-respect des exceptions légitimes au droit d'auteur. Elle vient de proposer de remplacer cette mesure par des accords de licence entre ayants droit et plateformes, ce qui pourrait être un moindre mal s'il s'agit de partager des revenus publicitaires ou autres mesures indolores pour les utilisateurs, mais qui manque singulièrement de précision sur les fondements de ces accords de licences.
Dans ce maelström de positions et de contre-propositions, il est difficile aujourd'hui de savoir si le Parlement européen réussira à avancer sur la question de la réforme du droit d'auteur, ou si nous allons non seulement ne rien faire progresser, mais même régresser sur certains points. La position des représentants français les plus actifs sur ce dossier, et jusqu'aux dernières élections celle du gouvernement français, a été désastreuse.
La Quadrature du Net demande donc aux parlementaires européens de s'atteler plus sérieusement à trouver un équilibre constructif dans les votes qui auront lieu entre juin et l'automne dans les commissions, à repousser les positions les plus extrémistes portées par les ayants droit et les industriels, et à ne pas perdre de vue que l'équilibre des responsabilités sur Internet est une matière sensible qu'il ne faut changer qu'avec d'infinies précautions, qui ne semblent pas avoir été prises ici.
La Quadrature du Net demande aussi au gouvernement d'Edouard Philippe, et à la ministre de la Culture Françoise Nyssen, de prendre le temps d'écouter et de recevoir les associations et collectifs engagés pour une réforme ambitieuse du droit d'auteur. Après plusieurs années d'enfermement total du ministère de la Culture au profit des ayants droit et des industries, il est temps de reprendre l'ouverture pour porter une vision française du droit d'auteur qui défende la création sous toutes ses formes, l'innovation culturelle et les droits des utilisateurs.
";s:7:"content";s:7313:"
Paris, le 6 juin 2017 — Alors que toutes les commissions concernées au Parlement européen ont rendu leurs avis sur la proposition de directive sur la réforme du droit d'auteur, la situation est plus que complexe : les rapports constructifs des différentes commissions ont été pilonnés à la fois par la Commission européenne, mécontente de voir ses dispositions dangereuses être contestées, par les ayants droit et les lobbies de l'industrie culturelle qui refusent de céder le moindre point aux utilisateurs, et par certains acteurs parlementaires ou nationaux, au premier rang desquels malheureusement la représentation française, qui continue de défendre les positions les plus réactionnaires sur le droit d'auteur. La Quadrature du Net dénonce le dévoiement du travail parlementaire au profit des lobbies, et appelle le nouveau gouvernement à reprendre le dossier de la réforme du droit d'auteur avec une position ré-équilibrée en faveur des libertés, de la création sous toutes ses formes et des utilisateurs.
Le projet de directive européenne sur le droit d'auteur, présenté en septembre 2016, était assez peu ambitieux et comportait deux mesures dangereuses que nous avons dénoncées depuis lors : la création d'un droit voisin pour les éditeurs de presse (article 11), et une mesure visant à obliger les plateformes de partage à mettre en place des outils de détection automatique de contenus illicites (article 13).
La rapporteure de la commission JURI (affaires juridiques) au sein du Parlement européen, saisie au fond sur la directive, avait cependant rendu au printemps 2017 un rapport et des propositions d'amendements plutôt équilibrés, suivie en cela par les rapporteurs pour avis des commissions CULT (culture), ITRE (industrie) et IMCO (marché intérieur). Ces rapports, de façon différente mais avec une logique semblable, attaquaient ces deux mesures comme attentatoires aux libertés, dangereuses pour l'équilibre de la directive eCommerce de 2000 qui encadre les responsabilités des hébergeurs sur Internet, et ne réglant pas la question du transfert de valeur pourtant présentée comme étant au cœur de la directive.
Immédiatement, la Commission européenne, les lobbies de l'industrie culturelle, les ayants droit et certains parlementaires, notamment français, se sont insurgés face à ces propositions pourtant constructives et éclairées. Les amendements proposés dans les différentes commissions sur les rapports se partagent entre deux grandes positions :
une position autour notamment de l'eurodéputée Julia Reda, qui souhaite supprimer les articles 11 et 13 ;
une position autour notamment d'eurodéputés français qui veut encore aggraver les effets de ces deux articles, et introduire de nouvelles mesures encore plus dangereuses :
un droit inaliénable à la rémunération pour les créateurs, qui priverait ceux-ci, par exemple, de la possibilité d'offrir leur création sans vouloir de rémunération, ou de les placer sous licence libre ;
généraliser à toute l'Union européenne la taxe Google Images instaurée en France par la loi Création, qui pénalise également les créateurs sous licence libre ;
conditionner le droit pour une plateforme de se réclamer du régime de la directive eCommerce au fait d'installer des outils de détection de contenus illicites ;
et encore bien d'autres propositions toutes plus irréalistes et dangereuses pour la création, les utilisateurs, et le partage des contenus.
En se rangeant derrière les exigences les plus excessives des ayants droit, et en tentant de rallier au sein du Parlement européen d'autres parlementaires pour soutenir ces positions, un certain nombre de parlementaires français (Virginie Roziere, Jean-Marie Cavada ou Constance Le Grip pour les plus actifs) empêchent toute évolution positive du droit d'auteur en Europe et brouillent les positions d'un débat qui aurait pu être constructif, s'ils avaient joué le jeu d'une vraie ouverture et non d'un relais systématique des positions des lobbies.
La Commission LIBE (des libertés civiles), dernière à se prononcer, et uniquement sur l'Article 13, a bien senti le danger pour les droits fondamentaux de la détection automatique de contenus illicites, qui entraîne par nature la surveillance des internautes et le non-respect des exceptions légitimes au droit d'auteur. Elle vient de proposer de remplacer cette mesure par des accords de licence entre ayants droit et plateformes, ce qui pourrait être un moindre mal s'il s'agit de partager des revenus publicitaires ou autres mesures indolores pour les utilisateurs, mais qui manque singulièrement de précision sur les fondements de ces accords de licences.
Dans ce maelström de positions et de contre-propositions, il est difficile aujourd'hui de savoir si le Parlement européen réussira à avancer sur la question de la réforme du droit d'auteur, ou si nous allons non seulement ne rien faire progresser, mais même régresser sur certains points. La position des représentants français les plus actifs sur ce dossier, et jusqu'aux dernières élections celle du gouvernement français, a été désastreuse.
La Quadrature du Net demande donc aux parlementaires européens de s'atteler plus sérieusement à trouver un équilibre constructif dans les votes qui auront lieu entre juin et l'automne dans les commissions, à repousser les positions les plus extrémistes portées par les ayants droit et les industriels, et à ne pas perdre de vue que l'équilibre des responsabilités sur Internet est une matière sensible qu'il ne faut changer qu'avec d'infinies précautions, qui ne semblent pas avoir été prises ici.
La Quadrature du Net demande aussi au gouvernement d'Edouard Philippe, et à la ministre de la Culture Françoise Nyssen, de prendre le temps d'écouter et de recevoir les associations et collectifs engagés pour une réforme ambitieuse du droit d'auteur. Après plusieurs années d'enfermement total du ministère de la Culture au profit des ayants droit et des industries, il est temps de reprendre l'ouverture pour porter une vision française du droit d'auteur qui défende la création sous toutes ses formes, l'innovation culturelle et les droits des utilisateurs.
";s:7:"dateiso";s:15:"20170606_114401";}s:15:"20170531_100746";a:7:{s:5:"title";s:55:"Neutralité du Net : un an après, un bilan gris foncé";s:4:"link";s:75:"http://www.laquadrature.net/fr/Neutralit%C3%A9-du-Net-bilan-gris-fonc%C3%A9";s:4:"guid";s:36:"10241 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 31 May 2017 08:07:46 +0000";s:11:"description";s:17237:"
Paris, le 31 mai 2017 — A l'occasion du premier anniversaire de l'adoption du règlement sur l'internet ouvert qui régit notamment les aspects liés à la neutralité du Net, et tandis que l'ARCEP sort son premier rapport sur l'état de l'Internet, nous dressons ci-dessous un bilan assez mitigé de sa mise en œuvre en France et au sein de l'Union européenne.
Si le rapport de l'ARCEP fait apparaître quelques points positifs, il dresse un bilan un peu trop élogieux, laissant dans l'ombre tout ce qui ne progresse pas. La Quadrature souhaite donc dresser son propre bilan, plus sombre, de l'état de la neutralité du Net, et plus largement, du rôle des intermédiaires techniques dans l'exercice des libertés fondamentales dans l'environnement numérique.
Sur tous ces points, le régulateur a été alerté, par nous et par d'autres. Sur tous ces points, il s'informe. Reste qu'il n'agit pas (toujours). Et quand il y a incontestablement matière à agir, l'ARCEP préfère parfois attendre d'être saisie par les utilisateurs pour imposer aux opérateurs de respecter les règles édictées au niveau européen. Le régulateur est trop frileux pour se mettre en avant, pour dire ce qu'il constate, préférant se cacher derrière des particuliers ou des associations de consommateurs.
Le président de l'ARCEP nous invitait, il y a un an, à juger sur pièce. Un an plus tard, le régulateur n'a pas agi. Il nous disait hier que, la phase de dialogue pro-actif étant terminée, l'ARCEP allait maintenant agir. Il nous invitait implicitement à attendre pour juger sur pièces les actions... Cela fait deux fois. C'est beaucoup.
La Quadrature n'a pas de ligne impérative, et pas vraiment d'avis, sur le mode d'action du régulateur. Mais force est de constater que les résultats ne viennent pas.
« Ce que nous souhaitons, ce ne sont pas des études, des sanctions, des rapports, du dialogue, de la législation, ou une incantation. Ce que nous souhaitons c'est que les opérateurs cessent les comportements abusifs qu'ils ont vis-à-vis de leurs abonnés. L'ARCEP est l'autorité en charge de ce dossier, et le dossier n'avance pas. » conclut Benjamin Bayart, cofondateur de La Quadrature du Net.
Si l'ARCEP va en général plutôt dans le bon sens, cette politique attentiste dans certains domaines est un point noir de son activité. Sébastien Soriano parlait des zones de gris du règlement. Voici une zone grise de son action :
IPv6 : rien ne sert de courir, mais quand même
Les lignes directrices (paragraphe 16) de l'ORECE1 prévoient d'autoriser la fourniture d'une adresse IP fixe (soit IPv4, soit IPv6) et nous faisions part de nos inquiétudes sur la mise en œuvre, dès septembre dernier. Aujourd'hui, le déploiement de l'IPv6 est lent et le manque d'IP fixes voire d'IP publiques pour le cas des téléphones, ne permet pas aux utilisateurs de fournir du contenu et des applications en auto-hébergement, alors même que ce droit est directement inscrit dans la définition de la neutralité du Net en Europe. En outre, l'augmentation du nombre d'équipements ne peut qu’accroître ce problème, bridant « certaines applications ou certains usages, limitant le caractère pleinement ouvert d'internet et la liberté des utilisateurs. »2
L'ARCEP a néanmoins pris le taureau par les cornes en ouvrant un observatoire de la transition vers IPv6 en France. La transition vers IPv6 est encore bien lente cependant, un simple observatoire n'est sans doute pas suffisant.
VOD et services gérés : Tous sont égaux mais certains sont plus égaux que d'autres
En matière de VOD ou VOIP, certains opérateurs profitent de leur situation pour proposer leur propre offre, ou celle d'un partenaire, favorisant le trafic de ce service. Ce type de pratique est totalement contraire au règlement sur l'internet ouvert3. Ainsi, les flux de VOD (ou VOIP) de toutes les offres du marché, quel que soit le fournisseur, devraient passer par cet accès priorisé, sous peine d'empêcher la création de nouveaux services qui ne bénéficient pas des mêmes avantages : barrières à l'entrée sur le marché, mais aussi choix réduit de l'utilisateur en fonction des choix de l'opérateur.
La priorisation du trafic n'est pas en elle-même un problème. C'est le fait que cette priorisation se fasse pour un seul service de VOD (ou VOIP) qui est un problème, et que le service qui en bénéficie est choisi par l'opérateur et non par l'utilisateur final.
Jusqu'à présent le régulateur n'a pas dépassé l'étape du « dialogue proactif » avec les opérateurs, mais dans la mesure où ce type de pratique demeure, il semblerait nécessaire de passer à l'étape suivante, sans attendre les plaintes des consommateurs.
DNS mobile, proxys intrusifs et portails captifs
Chez les opérateurs mobiles, les DNS menteurs, les proxys intrusifs (qui modifient le contenu et gardent des traces) et les portails captifs restent fréquents, et le « dialogue proactif » de l'ARCEP tarde à se muer en une intervention résolue du régulateur pour mettre fin à ces pratiques inacceptables. Pourtant, ces pratiques empêchent les utilisateurs de contourner la censure privée des opérateurs, et permet au contraire à ces derniers d'agir sur le contenu (redirection vers de la publicité, filtrage, compression, etc.) sans transparence ni moyen pour l'utilisateur de s'en protéger.
Chantage à la 5G
Le leitmotiv des opérateurs aujourd'hui, y compris dans le cadre des négociations sur le paquet télécom, est que le seul moyen de gérer correctement le réseau 5G, de rentabiliser les investissements et de favoriser l'innovation est de permettre de revenir sur le règlement européen garantissant la neutralité du Net.
Aucun des arguments n'est réellement valable et la neutralité du Net est au contraire un réel facteur d'innovation et de développement de la concurrence et des usages, permettant à tous les utilisateurs et acteurs un accès identique au réseau pour fournir et utiliser les services. L'ARCEP ne semble pas suivre cette voix des opérateurs et c'est une bonne nouvelle. On attendrait cependant du régulateur français comme de la Commission européenne une dénonciation claire de ce chantage des opérateurs dominants.
Quelle liberté de choix du terminal ?
Le règlement européen indique que l'utilisateur final peut utiliser le terminal de son choix, règle nécessaire pour assurer un internet ouvert. Sur ce point, des travaux sont en cours du côté de l'ARCEP, mais aucun progrès n'est constaté dans la pratique, et ce n'est pas faute d'en avoir parlé.
Ainsi aujourd'hui, l'utilisateur final est toujours soumis à la vente liée des opérateurs fixes (la box) et ne peut toujours pas opter pour l'équipement terminal de son choix, pourtant fondamental pour permettre par exemple d'utiliser des logiciels libres, et pour pouvoir contrôler la connexion au réseau, s'émancipant ainsi d'opérateurs qui ne respectent pas toujours la neutralité complète du réseau.
L'ARCEP fait une analyse assez bonne des problèmes sur les terminaux mobiles : omniprésence des solutions fermées dans des environnements contraints (iOS et Android), fermeture des environnements applicatifs (Markeplace et autre Store), situation de duopole de fait, position contraignante d'intermédiaire technique dans l'accès au réseau, etc. Un rapport sur le sujet a été publié en même temps que celui sur l'état d'Internet. Mais ce sujet est d'autant plus facile à analyser pour le régulateur qu'il est en dehors de son champs de compétence : facile d'analyser quand on n'agira pas.
Le zero rating reprend de la vitesse
La situation s'est dégradée dans plusieurs États membres. Le zéro-rating, accepté par le régulateur belge et la justice néerlandaise est contraire à l'esprit qui présidait à la préparation du règlement. Les opérateurs sélectionnent ce que leurs abonnés sont supposés pouvoir voir sans limite, s'arrogeant un pouvoir anormal dans la façon dont les citoyens accèdent à l'information. En Allemagne aussi, une offre de Deutsch Telekom porte atteinte à la neutralité du Net depuis début avril, sans réaction du régulateur.
Le manque de clarté des lignes directrices du BEREC ne permet aujourd'hui pas d'assurer une application uniforme du règlement dans toute l'UE, et le mécanisme de coordination au sein du BEREC - présidé actuellement par Sébastien Soriano - semble insuffisant. Faudra-t-il en passer par des recours auprès de la Cour de justice de l'UE (CJUE) ?
C'est particulièrement inquiétant, parce que sur le zero-rating, les régulateurs européens ont bien identifié la pratique comme risquée et peu souhaitable, et cependant elle se propage. Cet effet désastreux force à s'interroger. Pour défendre l'inérêt général, pour limiter les abus des puissants, la régulation des télécoms est-elle un outil stérile ?
Des offres commerciales inquiétantes
Le développement de gros groupes possédant à la fois le réseau, des services culturels et des médias et le développement d'offres intégrant ces divers services, posent la question de la liberté d'expression et du droit d'accès à l'information, mais aussi du pluralisme des médias.
Ainsi le règlement dans son considérant 74 prend en compte les effets néfastes sur les droits et libertés d'offres proposées par des fournisseurs de services qui auraient une position dominante sur le marché. Que dire donc des offres de bouquet TV largement répandues, mais aussi des offres SFR Presse et du récent Bouquet Presse de Bouygues ?
Sur ces points encore, l'ARCEP se contente d'attendre que des plaintes soient déposées. Regrettable, là encore.
4.Considérant 7 : « Afin d’exercer leurs droits d’accéder aux informations et aux contenus et de les diffuser, et d’utiliser et de fournir des applications et des services de leur choix, les utilisateurs finals devraient être libres de convenir avec les fournisseurs de services d’accès à l’internet des tarifs du service d’accès à l’internet pour des volumes de données et des débits déterminés. Ces accords, ainsi que les pratiques commerciales des fournisseurs de services d’accès à l’internet, ne devraient pas limiter l’exercice de ces droits, ni, par conséquent, permettre de contourner les dispositions du présent règlement en matière de garantie d’accès à un internet ouvert. Les autorités réglementaires nationales et les autres autorités compétentes devraient être habilitées à prendre des mesures à l’encontre d’accords ou de pratiques commerciales qui, en raison de leur ampleur, donnent lieu à des situations où le choix des utilisateurs finals est largement réduit dans les faits. À cette fin, il convient, entre autres, de tenir compte, dans le cadre de l’évaluation des accords et des pratiques commerciales, des positions respectives sur le marché de ces fournisseurs de services d’accès à l’internet ainsi que des fournisseurs de contenus, d’applications et de services qui sont concernés. Les autorités réglementaires nationales et les autres autorités compétentes devraient être tenues, dans le cadre de leur mission de contrôle et de respect de la réglementation, d’intervenir lorsque les accords ou les pratiques commerciales auraient pour effet de porter atteinte à l’essence des droits des utilisateurs finals. »
";s:7:"content";s:17237:"
Paris, le 31 mai 2017 — A l'occasion du premier anniversaire de l'adoption du règlement sur l'internet ouvert qui régit notamment les aspects liés à la neutralité du Net, et tandis que l'ARCEP sort son premier rapport sur l'état de l'Internet, nous dressons ci-dessous un bilan assez mitigé de sa mise en œuvre en France et au sein de l'Union européenne.
Si le rapport de l'ARCEP fait apparaître quelques points positifs, il dresse un bilan un peu trop élogieux, laissant dans l'ombre tout ce qui ne progresse pas. La Quadrature souhaite donc dresser son propre bilan, plus sombre, de l'état de la neutralité du Net, et plus largement, du rôle des intermédiaires techniques dans l'exercice des libertés fondamentales dans l'environnement numérique.
Sur tous ces points, le régulateur a été alerté, par nous et par d'autres. Sur tous ces points, il s'informe. Reste qu'il n'agit pas (toujours). Et quand il y a incontestablement matière à agir, l'ARCEP préfère parfois attendre d'être saisie par les utilisateurs pour imposer aux opérateurs de respecter les règles édictées au niveau européen. Le régulateur est trop frileux pour se mettre en avant, pour dire ce qu'il constate, préférant se cacher derrière des particuliers ou des associations de consommateurs.
Le président de l'ARCEP nous invitait, il y a un an, à juger sur pièce. Un an plus tard, le régulateur n'a pas agi. Il nous disait hier que, la phase de dialogue pro-actif étant terminée, l'ARCEP allait maintenant agir. Il nous invitait implicitement à attendre pour juger sur pièces les actions... Cela fait deux fois. C'est beaucoup.
La Quadrature n'a pas de ligne impérative, et pas vraiment d'avis, sur le mode d'action du régulateur. Mais force est de constater que les résultats ne viennent pas.
« Ce que nous souhaitons, ce ne sont pas des études, des sanctions, des rapports, du dialogue, de la législation, ou une incantation. Ce que nous souhaitons c'est que les opérateurs cessent les comportements abusifs qu'ils ont vis-à-vis de leurs abonnés. L'ARCEP est l'autorité en charge de ce dossier, et le dossier n'avance pas. » conclut Benjamin Bayart, cofondateur de La Quadrature du Net.
Si l'ARCEP va en général plutôt dans le bon sens, cette politique attentiste dans certains domaines est un point noir de son activité. Sébastien Soriano parlait des zones de gris du règlement. Voici une zone grise de son action :
IPv6 : rien ne sert de courir, mais quand même
Les lignes directrices (paragraphe 16) de l'ORECE1 prévoient d'autoriser la fourniture d'une adresse IP fixe (soit IPv4, soit IPv6) et nous faisions part de nos inquiétudes sur la mise en œuvre, dès septembre dernier. Aujourd'hui, le déploiement de l'IPv6 est lent et le manque d'IP fixes voire d'IP publiques pour le cas des téléphones, ne permet pas aux utilisateurs de fournir du contenu et des applications en auto-hébergement, alors même que ce droit est directement inscrit dans la définition de la neutralité du Net en Europe. En outre, l'augmentation du nombre d'équipements ne peut qu’accroître ce problème, bridant « certaines applications ou certains usages, limitant le caractère pleinement ouvert d'internet et la liberté des utilisateurs. »2
L'ARCEP a néanmoins pris le taureau par les cornes en ouvrant un observatoire de la transition vers IPv6 en France. La transition vers IPv6 est encore bien lente cependant, un simple observatoire n'est sans doute pas suffisant.
VOD et services gérés : Tous sont égaux mais certains sont plus égaux que d'autres
En matière de VOD ou VOIP, certains opérateurs profitent de leur situation pour proposer leur propre offre, ou celle d'un partenaire, favorisant le trafic de ce service. Ce type de pratique est totalement contraire au règlement sur l'internet ouvert3. Ainsi, les flux de VOD (ou VOIP) de toutes les offres du marché, quel que soit le fournisseur, devraient passer par cet accès priorisé, sous peine d'empêcher la création de nouveaux services qui ne bénéficient pas des mêmes avantages : barrières à l'entrée sur le marché, mais aussi choix réduit de l'utilisateur en fonction des choix de l'opérateur.
La priorisation du trafic n'est pas en elle-même un problème. C'est le fait que cette priorisation se fasse pour un seul service de VOD (ou VOIP) qui est un problème, et que le service qui en bénéficie est choisi par l'opérateur et non par l'utilisateur final.
Jusqu'à présent le régulateur n'a pas dépassé l'étape du « dialogue proactif » avec les opérateurs, mais dans la mesure où ce type de pratique demeure, il semblerait nécessaire de passer à l'étape suivante, sans attendre les plaintes des consommateurs.
DNS mobile, proxys intrusifs et portails captifs
Chez les opérateurs mobiles, les DNS menteurs, les proxys intrusifs (qui modifient le contenu et gardent des traces) et les portails captifs restent fréquents, et le « dialogue proactif » de l'ARCEP tarde à se muer en une intervention résolue du régulateur pour mettre fin à ces pratiques inacceptables. Pourtant, ces pratiques empêchent les utilisateurs de contourner la censure privée des opérateurs, et permet au contraire à ces derniers d'agir sur le contenu (redirection vers de la publicité, filtrage, compression, etc.) sans transparence ni moyen pour l'utilisateur de s'en protéger.
Chantage à la 5G
Le leitmotiv des opérateurs aujourd'hui, y compris dans le cadre des négociations sur le paquet télécom, est que le seul moyen de gérer correctement le réseau 5G, de rentabiliser les investissements et de favoriser l'innovation est de permettre de revenir sur le règlement européen garantissant la neutralité du Net.
Aucun des arguments n'est réellement valable et la neutralité du Net est au contraire un réel facteur d'innovation et de développement de la concurrence et des usages, permettant à tous les utilisateurs et acteurs un accès identique au réseau pour fournir et utiliser les services. L'ARCEP ne semble pas suivre cette voix des opérateurs et c'est une bonne nouvelle. On attendrait cependant du régulateur français comme de la Commission européenne une dénonciation claire de ce chantage des opérateurs dominants.
Quelle liberté de choix du terminal ?
Le règlement européen indique que l'utilisateur final peut utiliser le terminal de son choix, règle nécessaire pour assurer un internet ouvert. Sur ce point, des travaux sont en cours du côté de l'ARCEP, mais aucun progrès n'est constaté dans la pratique, et ce n'est pas faute d'en avoir parlé.
Ainsi aujourd'hui, l'utilisateur final est toujours soumis à la vente liée des opérateurs fixes (la box) et ne peut toujours pas opter pour l'équipement terminal de son choix, pourtant fondamental pour permettre par exemple d'utiliser des logiciels libres, et pour pouvoir contrôler la connexion au réseau, s'émancipant ainsi d'opérateurs qui ne respectent pas toujours la neutralité complète du réseau.
L'ARCEP fait une analyse assez bonne des problèmes sur les terminaux mobiles : omniprésence des solutions fermées dans des environnements contraints (iOS et Android), fermeture des environnements applicatifs (Markeplace et autre Store), situation de duopole de fait, position contraignante d'intermédiaire technique dans l'accès au réseau, etc. Un rapport sur le sujet a été publié en même temps que celui sur l'état d'Internet. Mais ce sujet est d'autant plus facile à analyser pour le régulateur qu'il est en dehors de son champs de compétence : facile d'analyser quand on n'agira pas.
Le zero rating reprend de la vitesse
La situation s'est dégradée dans plusieurs États membres. Le zéro-rating, accepté par le régulateur belge et la justice néerlandaise est contraire à l'esprit qui présidait à la préparation du règlement. Les opérateurs sélectionnent ce que leurs abonnés sont supposés pouvoir voir sans limite, s'arrogeant un pouvoir anormal dans la façon dont les citoyens accèdent à l'information. En Allemagne aussi, une offre de Deutsch Telekom porte atteinte à la neutralité du Net depuis début avril, sans réaction du régulateur.
Le manque de clarté des lignes directrices du BEREC ne permet aujourd'hui pas d'assurer une application uniforme du règlement dans toute l'UE, et le mécanisme de coordination au sein du BEREC - présidé actuellement par Sébastien Soriano - semble insuffisant. Faudra-t-il en passer par des recours auprès de la Cour de justice de l'UE (CJUE) ?
C'est particulièrement inquiétant, parce que sur le zero-rating, les régulateurs européens ont bien identifié la pratique comme risquée et peu souhaitable, et cependant elle se propage. Cet effet désastreux force à s'interroger. Pour défendre l'inérêt général, pour limiter les abus des puissants, la régulation des télécoms est-elle un outil stérile ?
Des offres commerciales inquiétantes
Le développement de gros groupes possédant à la fois le réseau, des services culturels et des médias et le développement d'offres intégrant ces divers services, posent la question de la liberté d'expression et du droit d'accès à l'information, mais aussi du pluralisme des médias.
Ainsi le règlement dans son considérant 74 prend en compte les effets néfastes sur les droits et libertés d'offres proposées par des fournisseurs de services qui auraient une position dominante sur le marché. Que dire donc des offres de bouquet TV largement répandues, mais aussi des offres SFR Presse et du récent Bouquet Presse de Bouygues ?
Sur ces points encore, l'ARCEP se contente d'attendre que des plaintes soient déposées. Regrettable, là encore.
4.Considérant 7 : « Afin d’exercer leurs droits d’accéder aux informations et aux contenus et de les diffuser, et d’utiliser et de fournir des applications et des services de leur choix, les utilisateurs finals devraient être libres de convenir avec les fournisseurs de services d’accès à l’internet des tarifs du service d’accès à l’internet pour des volumes de données et des débits déterminés. Ces accords, ainsi que les pratiques commerciales des fournisseurs de services d’accès à l’internet, ne devraient pas limiter l’exercice de ces droits, ni, par conséquent, permettre de contourner les dispositions du présent règlement en matière de garantie d’accès à un internet ouvert. Les autorités réglementaires nationales et les autres autorités compétentes devraient être habilitées à prendre des mesures à l’encontre d’accords ou de pratiques commerciales qui, en raison de leur ampleur, donnent lieu à des situations où le choix des utilisateurs finals est largement réduit dans les faits. À cette fin, il convient, entre autres, de tenir compte, dans le cadre de l’évaluation des accords et des pratiques commerciales, des positions respectives sur le marché de ces fournisseurs de services d’accès à l’internet ainsi que des fournisseurs de contenus, d’applications et de services qui sont concernés. Les autorités réglementaires nationales et les autres autorités compétentes devraient être tenues, dans le cadre de leur mission de contrôle et de respect de la réglementation, d’intervenir lorsque les accords ou les pratiques commerciales auraient pour effet de porter atteinte à l’essence des droits des utilisateurs finals. »
";s:7:"dateiso";s:15:"20170531_100746";}s:15:"20170524_173234";a:7:{s:5:"title";s:90:"Appel à la non prorogation de l'état d'urgence : lettre au Président de la République ";s:4:"link";s:57:"http://www.laquadrature.net/fr/lettre-macron-etat-urgence";s:4:"guid";s:36:"10234 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 24 May 2017 15:32:34 +0000";s:11:"description";s:10861:"
Paris, 24 mai 2017 — À l'issue du conseil de Défense tenu ce mercredi matin, le Président de la République a annoncé qu'il demanderait au Parlement la prolongation de l'état d'urgence jusqu'au 1er novembre 2017, ainsi que la discussion d'une nouvelle loi pour lutter contre le terrorisme.
La veille de cette réunion, nous, associations de défense des droits, avocats et universitaires, avions envoyé un courrier au Président de la République lui demandant d'avoir le courage de ne pas renouveler une fois encore l'état d'urgence, déclaré inopérant dans la lutte antiterroriste par les missions de contrôles parlementaires qui ont eu à en connaître ces derniers mois.
Nous regrettons que le Président de la République et son gouvernement aient annoncé, aussi rapidement et sans concertation avec les acteurs de la société civile qui travaillent sur le sujet, leur volonté de renouvellement de l'état d'urgence.
Leur engagement à évaluer les politiques publiques trouvait pourtant sur le sujet de l'état d'urgence un motif impérieux d'être mis en pratique immédiatement : qu'en est-il de l'évaluation de l'efficacité et de la constitutionnalité du mille-feuilles juridique sécuritaire mis en place ces 5 dernières années au fil des différentes loi antiterroriste (5 en 3 ans) ? Alors que de plus en plus souvent les mesures antiterroristes, ou liées à l'état d'urgence, sont appréhendées par les spécialistes comme relevant de la communication politique davantage que de la logique opérationnelle, quelle évaluation a été faite de leur impact sur l'état de droit, les libertés fondamentales ou la cohésion sociale ? De même, la réflexion sur une réorganisation des services de renseignement, telle qu'annoncée par le Président, au profit d'une meilleure lutte antiterroriste ne devrait-elle pas être menée à son terme avant toute proposition de nouvelle loi antiterroriste ou sécuritaire ?
Nous rendons ici public notre courrier au Président de la République qui reprend de façon synthétique la plupart des revendications que nous portons. De par nos expériences respectives, nos travaux, et le dialogue avec certaines institutions, nous avons acquis la conviction de l’inefficience de l’état d’urgence et de son caractère contre-productif.
Le Conseil de Défense et de Sécurité nationale que vous avez convoqué demain se réunira moins de deux jours après que le Royaume-Uni a été durement frappé par une action terroriste. Nous souhaitons d’abord exprimer notre solidarité à l’égard des victimes et de leurs proches. Ce drame ne vous dégage toutefois pas de la responsabilité que vous confie la Constitution de rétablir le fonctionnement régulier des institutions. L’état d’urgence ne favorise en rien la protection de nos concitoyens et empêche au contraire de concevoir une réponse de long terme à la menace du terrorisme international.
Nous, membres actifs de la société civile, assistons avec inquiétude à ce basculement normatif se diffusant durablement dans le droit en portant une atteinte insupportable aux libertés fondamentales, libertés pour la garantie desquelles nous nous battons et que nous ne voulons pas voir réduites sous la pression de la menace terroriste.
La menace qui pèse sur la France - comme sur d'autres pays d'Europe et du monde - reste et restera longtemps élevée. Plus de 18 mois après son déclenchement, face à une menace terroriste persistante et latente, les conditions juridiques de prorogation de l’état d’urgence - le péril imminent résultant d’atteintes graves à l’ordre public - ne sont pas réunies.
Nous pensons que la seule audition des services de renseignement ne vous suffira pas pour avoir une vision complète de la situation. L’appréciation objective de la situation actuelle commande d’entendre l’ensemble des acteurs (juristes spécialisés, universitaires, avocats spécialisés, associations qui accompagnent les personnes visées par les mesures, éducateurs, médiateurs…) qui vous éclaireront sur les effets toxiques de l’état d’urgence, pour certaines communautés comme pour l’ensemble de la société française, ainsi que sur l’efficacité de la lutte contre le terrorisme elle-même.
De par nos expériences respectives, nos travaux, et le dialogue avec les institutions, nous avons acquis la conviction de l’inefficience de l’état d’urgence et de son caractère contre-productif. Nous faisons ici écho aux bilans dressés par la commission des lois de l’Assemblée nationale chargée du contrôle parlementaire de l’état d’urgence et par des autorités indépendantes, comme le Défenseur des droits, la Commission nationale consultative des droits de l’Homme ou encore le Commissaire européen des droits de l’Homme.
La commission d’enquête parlementaire sur les moyens mis en œuvre dans la lutte contre le terrorisme a affirmé clairement que « s’il a été réel, cet effet déstabilisateur, lié à la surprise des opérations menées, semble s’être rapidement amenuisé ». En contournant la justice antiterroriste, en épuisant les forces de sécurité, l'état d'urgence s'avère même à long terme non seulement inefficace, mais aussi contre-productif.
Nous tenons par ailleurs à vous rappeler le coût, social, politique et institutionnel très élevé de l'état d'urgence qui autorise des mesures impliquant des atteintes graves aux libertés individuelles sans contrôle en amont du juge judiciaire et sans que le contrôle a posteriori du juge administratif permette de compenser cet absence de contrôle a priori. Un régime d'exception ne saurait durer si longtemps impunément pour la République et ses citoyens. Il tend à fragiliser la séparation et l’indépendance des pouvoirs, en particulier au prix d’une dé-judiciarisation s’installant durablement dans notre paysage juridique. Notre droit commun, déjà de plus en plus imprégné de dispositions dérogatoires aux principes fondamentaux de la Constitution, se retrouve de facto disqualifié par la longueur de l’état d’urgence, et cela nous inquiète pour l’avenir.
Monsieur le Président, vous avez plusieurs fois affirmé que vous souhaitiez réconcilier la France. Des vies ont été et sont encore bouleversées par des mesures disproportionnées et discriminatoires : assignations à résidence se prolongeant de manière indéfinie, fermeture prolongée et non motivée de certains lieux de culte, multiplication des contrôles au faciès stigmatisant les personnes de confession musulmane ou supposée telle, autant d’éléments dont l’efficacité dans la lutte contre le terrorisme n’a jamais été démontrée... Au fil des mois, nous avons documenté de nombreux abus commis contre des personnes en vertu des pouvoirs d’exception conférés par l’état d’urgence.
A cet égard, l’avis rendu le 18 mai 2017 par la Commission Nationale Consultative des Droits de l’Homme (CNCDH) sur la prévention de la radicalisation, confirme que les « signes de radicalisation », souvent faibles, donnent lieu à des mesures disproportionnées, aussi bien administratives que judiciaires, témoignant des effets contre-productifs des mesures prises. L’état d’urgence est un facteur de division interne de la société française, ne pas le renouveler serait une marque de courage et un pas en avant vers une réflexion sur la résolution à moyen et long terme de la menace terroriste dans une société multiple et apaisée.
Vous aurez noté que ni l'Allemagne ni la Belgique, également touchés par des attentats, n'ont eu recours à un régime juridique d'exception tel que l’état d’urgence. En revanche, la France s’illustre négativement, en étant l’un des seuls pays du Conseil de l’Europe qui dérogent, avec l’Ukraine et la Turquie, à l’application de la Convention européenne des droits de l’Homme.
Nous rejoignons enfin la déclaration de Monsieur le ministre de l’Intérieur Gérard Collomb faite le 19 mai 2017, selon laquelle « à un moment donné, il faudra sortir de l’état d’urgence ». Nous pensons que ce moment est venu.
Nous invitons donc le gouvernement à ne pas soumettre au Parlement de projet de loi pour proroger une sixième fois l’état d’urgence.
Nous nous tenons à votre disposition pour nous entretenir de ce sujet avec vous, ou avec vos proches collaborateurs.
Veuillez agréer, Monsieur le Président, notre très haute considération
M. le Premier ministre, Mme la ministre de la Défense, M. le ministre de l’Intérieur, M. le ministre de l’Europe et des Affaires étrangères, M. le Garde des Sceaux, ministre de la Justice.
M. le Défenseur des Droits, Mme la Présidente de la CNCDH.
Paris, 24 mai 2017 — À l'issue du conseil de Défense tenu ce mercredi matin, le Président de la République a annoncé qu'il demanderait au Parlement la prolongation de l'état d'urgence jusqu'au 1er novembre 2017, ainsi que la discussion d'une nouvelle loi pour lutter contre le terrorisme.
La veille de cette réunion, nous, associations de défense des droits, avocats et universitaires, avions envoyé un courrier au Président de la République lui demandant d'avoir le courage de ne pas renouveler une fois encore l'état d'urgence, déclaré inopérant dans la lutte antiterroriste par les missions de contrôles parlementaires qui ont eu à en connaître ces derniers mois.
Nous regrettons que le Président de la République et son gouvernement aient annoncé, aussi rapidement et sans concertation avec les acteurs de la société civile qui travaillent sur le sujet, leur volonté de renouvellement de l'état d'urgence.
Leur engagement à évaluer les politiques publiques trouvait pourtant sur le sujet de l'état d'urgence un motif impérieux d'être mis en pratique immédiatement : qu'en est-il de l'évaluation de l'efficacité et de la constitutionnalité du mille-feuilles juridique sécuritaire mis en place ces 5 dernières années au fil des différentes loi antiterroriste (5 en 3 ans) ? Alors que de plus en plus souvent les mesures antiterroristes, ou liées à l'état d'urgence, sont appréhendées par les spécialistes comme relevant de la communication politique davantage que de la logique opérationnelle, quelle évaluation a été faite de leur impact sur l'état de droit, les libertés fondamentales ou la cohésion sociale ? De même, la réflexion sur une réorganisation des services de renseignement, telle qu'annoncée par le Président, au profit d'une meilleure lutte antiterroriste ne devrait-elle pas être menée à son terme avant toute proposition de nouvelle loi antiterroriste ou sécuritaire ?
Nous rendons ici public notre courrier au Président de la République qui reprend de façon synthétique la plupart des revendications que nous portons. De par nos expériences respectives, nos travaux, et le dialogue avec certaines institutions, nous avons acquis la conviction de l’inefficience de l’état d’urgence et de son caractère contre-productif.
Le Conseil de Défense et de Sécurité nationale que vous avez convoqué demain se réunira moins de deux jours après que le Royaume-Uni a été durement frappé par une action terroriste. Nous souhaitons d’abord exprimer notre solidarité à l’égard des victimes et de leurs proches. Ce drame ne vous dégage toutefois pas de la responsabilité que vous confie la Constitution de rétablir le fonctionnement régulier des institutions. L’état d’urgence ne favorise en rien la protection de nos concitoyens et empêche au contraire de concevoir une réponse de long terme à la menace du terrorisme international.
Nous, membres actifs de la société civile, assistons avec inquiétude à ce basculement normatif se diffusant durablement dans le droit en portant une atteinte insupportable aux libertés fondamentales, libertés pour la garantie desquelles nous nous battons et que nous ne voulons pas voir réduites sous la pression de la menace terroriste.
La menace qui pèse sur la France - comme sur d'autres pays d'Europe et du monde - reste et restera longtemps élevée. Plus de 18 mois après son déclenchement, face à une menace terroriste persistante et latente, les conditions juridiques de prorogation de l’état d’urgence - le péril imminent résultant d’atteintes graves à l’ordre public - ne sont pas réunies.
Nous pensons que la seule audition des services de renseignement ne vous suffira pas pour avoir une vision complète de la situation. L’appréciation objective de la situation actuelle commande d’entendre l’ensemble des acteurs (juristes spécialisés, universitaires, avocats spécialisés, associations qui accompagnent les personnes visées par les mesures, éducateurs, médiateurs…) qui vous éclaireront sur les effets toxiques de l’état d’urgence, pour certaines communautés comme pour l’ensemble de la société française, ainsi que sur l’efficacité de la lutte contre le terrorisme elle-même.
De par nos expériences respectives, nos travaux, et le dialogue avec les institutions, nous avons acquis la conviction de l’inefficience de l’état d’urgence et de son caractère contre-productif. Nous faisons ici écho aux bilans dressés par la commission des lois de l’Assemblée nationale chargée du contrôle parlementaire de l’état d’urgence et par des autorités indépendantes, comme le Défenseur des droits, la Commission nationale consultative des droits de l’Homme ou encore le Commissaire européen des droits de l’Homme.
La commission d’enquête parlementaire sur les moyens mis en œuvre dans la lutte contre le terrorisme a affirmé clairement que « s’il a été réel, cet effet déstabilisateur, lié à la surprise des opérations menées, semble s’être rapidement amenuisé ». En contournant la justice antiterroriste, en épuisant les forces de sécurité, l'état d'urgence s'avère même à long terme non seulement inefficace, mais aussi contre-productif.
Nous tenons par ailleurs à vous rappeler le coût, social, politique et institutionnel très élevé de l'état d'urgence qui autorise des mesures impliquant des atteintes graves aux libertés individuelles sans contrôle en amont du juge judiciaire et sans que le contrôle a posteriori du juge administratif permette de compenser cet absence de contrôle a priori. Un régime d'exception ne saurait durer si longtemps impunément pour la République et ses citoyens. Il tend à fragiliser la séparation et l’indépendance des pouvoirs, en particulier au prix d’une dé-judiciarisation s’installant durablement dans notre paysage juridique. Notre droit commun, déjà de plus en plus imprégné de dispositions dérogatoires aux principes fondamentaux de la Constitution, se retrouve de facto disqualifié par la longueur de l’état d’urgence, et cela nous inquiète pour l’avenir.
Monsieur le Président, vous avez plusieurs fois affirmé que vous souhaitiez réconcilier la France. Des vies ont été et sont encore bouleversées par des mesures disproportionnées et discriminatoires : assignations à résidence se prolongeant de manière indéfinie, fermeture prolongée et non motivée de certains lieux de culte, multiplication des contrôles au faciès stigmatisant les personnes de confession musulmane ou supposée telle, autant d’éléments dont l’efficacité dans la lutte contre le terrorisme n’a jamais été démontrée... Au fil des mois, nous avons documenté de nombreux abus commis contre des personnes en vertu des pouvoirs d’exception conférés par l’état d’urgence.
A cet égard, l’avis rendu le 18 mai 2017 par la Commission Nationale Consultative des Droits de l’Homme (CNCDH) sur la prévention de la radicalisation, confirme que les « signes de radicalisation », souvent faibles, donnent lieu à des mesures disproportionnées, aussi bien administratives que judiciaires, témoignant des effets contre-productifs des mesures prises. L’état d’urgence est un facteur de division interne de la société française, ne pas le renouveler serait une marque de courage et un pas en avant vers une réflexion sur la résolution à moyen et long terme de la menace terroriste dans une société multiple et apaisée.
Vous aurez noté que ni l'Allemagne ni la Belgique, également touchés par des attentats, n'ont eu recours à un régime juridique d'exception tel que l’état d’urgence. En revanche, la France s’illustre négativement, en étant l’un des seuls pays du Conseil de l’Europe qui dérogent, avec l’Ukraine et la Turquie, à l’application de la Convention européenne des droits de l’Homme.
Nous rejoignons enfin la déclaration de Monsieur le ministre de l’Intérieur Gérard Collomb faite le 19 mai 2017, selon laquelle « à un moment donné, il faudra sortir de l’état d’urgence ». Nous pensons que ce moment est venu.
Nous invitons donc le gouvernement à ne pas soumettre au Parlement de projet de loi pour proroger une sixième fois l’état d’urgence.
Nous nous tenons à votre disposition pour nous entretenir de ce sujet avec vous, ou avec vos proches collaborateurs.
Veuillez agréer, Monsieur le Président, notre très haute considération
M. le Premier ministre, Mme la ministre de la Défense, M. le ministre de l’Intérieur, M. le ministre de l’Europe et des Affaires étrangères, M. le Garde des Sceaux, ministre de la Justice.
M. le Défenseur des Droits, Mme la Présidente de la CNCDH.
";s:7:"dateiso";s:15:"20170524_173234";}s:15:"20170522_164441";a:7:{s:5:"title";s:116:"Lettre ouverte aux institutions européennes : WIFI4EU doit promouvoir la diversité, le local et les droits humains";s:4:"link";s:62:"http://www.laquadrature.net/fr/wifi4eu-diversite-droit-humains";s:4:"guid";s:36:"10232 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 22 May 2017 14:44:41 +0000";s:11:"description";s:11903:"
Paris, le 22 mai 2017 — Alors que le Conseil de l'Union européenne et la Commission européenne entrent dans la phase obscure des trilogues pour le projet de réglement WIFI4EU, les réseaux associatifs européens ainsi que la communauté du wifi-ouvert veulent leur rappeler l'importance d'inclure tous les acteurs dans le développement de la connectivité locale.
Sujet : WIFI4EU — l'Union européenne doit promouvoir la diversité dans le secteur des télécommunications et résister à la marchandisation des réseaux financés par de l'argent public
Monsieur, Madame,
Les délégations des membres du Parlement européen sont en train de terminer les négociations pour le projet de règlement WIFI4EU. Ce règlement autorisera les collectivités locales à ouvrir des points d'accès WIFI afin de développer l'accès à Internet, particulièrement dans les communautés mal couvertes.
WIFI4EU est une initiative annoncée l'année passée par le président Juncker dans le discours sur l'état de l'Union prononcé à Strasbourg. Afin de tenir sa promesse « d'équiper chaque village européen et chaque ville d'un accès sans fil à Internet autour des centres de vie publique d'ici 2020 », l'UE va débloquer 120 millions d'euros entre 2017 et 2019 afin de déployer des points d'accès WIFI dans 6000 à 8000 collectivités locales.
Mais alors que les trilogues se terminent, il y a un grand risque de voir cette louable initiative rater l'opportunité de promouvoir la diversité dans le domaine des télécommunications et de promouvoir les droits humains. Les négociations récentes démontrent que les gouvernements des États membres veulent garder les petits fournisseurs d'accès à Internet locaux hors du champ, en favorisant les opérateurs et corporations historiques et en leur laissant le droit d'espionner les communications des utilisateurs.
Pour surmonter ces risques, nous appelons le Conseil de l'UE et la Commission européenne à soutenir la proposition constructive du Parlement européen, et demandons que les termes restent suffisamment fermes pour garantir l'intérêt public dans les politiques de télécommunication.
Faire de la place pour les PME et les coopératives à but non lucratif
Dans le considérant 4 du règlement, le Parlement européen insiste sur l'engagement d'organisations telles que « les coopératives sans but lucratif » et « les centres communautaires » en tant qu'entités pouvant offrir un accès à Internet sans fil. Dans la même veine, au considérant 9b, le Parlement européen souhaite promouvoir les PME locales et les acteurs sans but lucratif comme les bénéficiaires clés pour la fourniture et l'installation d’équipements 1. Une telle formulation garantit que les acteurs locaux et de petite taille — y compris des PME et de nombreux réseaux communautaires à but non lucratif — seront éligibles aux fonds WIFI4EU. En dirigeant ces fonds vers ces acteurs de petite taille mais compétents, WIFI4EU promouvrait l'emploi local ainsi que la diffusion des compétences techniques et de la diversité dans le secteur des télécommunications, au lieu de favoriser les acteurs déjà dominants de l'industrie. Il est déjà pour le moins choquant de constater que de nombreux réseaux communautaires sans but lucratif gèrent le type de réseaux sans fils ouverts dont WIFI4EU fait la promotion, sans ou avec peu de soutien public. En dirigeant ces fonds européens vers ces acteurs quand cela est possible, WIFI4EU a la possibilité de les aider à grandir et à étendre leurs activités au niveau local. Malheureusement, le Conseil européen essaye de retirer ces con sidérants en prétextant qu'ils ne reposent sur aucune base légale, ouvrant ainsi la voie aux acteurs dominants pour qu'ils ramassent l'essentiel des subsides de WIFI4EU.
Considérant 4
Protéger le droit à la vie privée en renonçant à l'authentification préalable
Au considérant 2, le Parlement européen et le Conseil de l'Union européenne promeuvent tous deux un système d'authentification unique qui pourrait être utilisé à travers toute l'UE. Cette solution qui favorise un système d'authentification pour réglementer l'accès aux réseaux « ouverts » ne s'appuie sur aucun raisonnement substantiel, et va à l'encontre des droits humains. Nous comprenons le but des législateurs de rendre l'accès à ces réseaux publics aussi facile que possible pour les gens voyageant à travers l'UE, mais la manière la plus simple d'arriver à cela, c'est de garantir que ces réseaux soient en effet des réseaux ouverts sans authentification. Si l'objectif du système d'authentification est d'empêcher les activités illégales, il faut rappeler aux législateurs que l'Avocat Général de la CJUE a récemment expliqué dans l'affaire C‑484/14 (McFadden) qu'imposer aux opérateurs de réseaux sans fil une obligation « d'identifier les utilisateurs et de conserver leurs données » serait « clairement disproportionnée » car elle ne serait pas en elle-même efficace (…) à empêcher des violations particulières ». Dans sa décision, la Cour a convenu qu'une telle obligation ne devrait être seulement imposée qu'après qu'un opérateur WIFI aura reçu une injonction ciblée spécifique à le faire. Pour minimiser le risque d'atteinte à la vie privée associé à la rétention de données et favoriser la facilité d'utilisation, WIFI4EU ne devrait pas promouvoir les systèmes d'authentification dans ce qui est censé être des points d'accès ouverts et gratuits.
Considérant 2
Garder la publicité et la surveillance commerciale hors des réseaux sans fils publics
WIFI4EU ne doit pas transformer en valeur marchande les services financés par de l'argent public en autorisant des modèles publicitaires rendus possible par la surveillance commerciale. Malheureusement, le Conseil essaie de saper la protection proposée par le Parlement dans le considérant 2 qui exclu l'utilisation des données de trafic pour des raisons publicitaires ou d'autres utilisations commerciales. Le Parlement et le Conseil doivent garder la version du Parlement afin d'être entièrement alignés avec le cadre de protection des données personnelles ainsi que la Charte des Droits Fondamentaux de l'Union européenne. De plus, l'utilisation commerciale de données ne peut se justifier dans le cadre de services publics, particulièrement si ces services sont financés par de l'argent public.
Offrir un accès gratuit, ouvert et neutre à ceux qui en ont le plus besoin
La première priorité de WIFI4EU est de mettre en place un réseau d'accès sans fil ouvert et gratuit qui développera un accès à Internet dans les localités non ou mal desservies. La proposition du Conseil d'effacer l'objectif législatif de « ne pas laisser les localités éloignées et les zones rurales à la traîne » et de faire de ces réseaux financés par de l'argent public « exempts de charges et exempt de restrictions » est dangereuse. Elle suggère que les réseaux de WIFI4EU pourraient ne pas être gratuits, ni ouverts ni même respecter la neutralité du Net, principe gravé dans la réglementation européenne lors de la première régulation sur les télécommunications. La formulation du Parlement européen doit être confirmée.
Considérant 4a
Considérant 2§2c
Nous comptons sur vous afin d'assurer que les propositions du Parlement européen, qui servent l'intérêt général ainsi que les objectifs spécifiques de l'UE concernant la législation sur la bande passante, soient conservées dans la version finale du texte.
1. Dans ce contexte, le textes ne mentionne que les « PME », mais ces dernières sont définies dans la loi européenne comme des « entités engagées dans une activité économique, indépendamment de leur forme légale. » La notion peut par conséquence inclure de nombreuses entités sans but lucratif qui travaillent déjà au niveau local pour fournir un accès à Internet souple et abordable. Voir : http://ec.europa.eu/DocsRoom/documents/15582/attachments/1/translations
";s:7:"content";s:11918:"
Paris, le 22 mai 2017 — Alors que le Conseil de l'Union européenne et la Commission européenne entrent dans la phase obscure des trilogues pour le projet de réglement WIFI4EU, les réseaux associatifs européens ainsi que la communauté du wifi-ouvert veulent leur rappeler l'importance d'inclure tous les acteurs dans le développement de la connectivité locale.
Sujet : WIFI4EU — l'Union européenne doit promouvoir la diversité dans le secteur des télécommunications et résister à la marchandisation des réseaux financés par de l'argent public
Monsieur, Madame,
Les délégations des membres du Parlement européen sont en train de terminer les négociations pour le projet de règlement WIFI4EU. Ce règlement autorisera les collectivités locales à ouvrir des points d'accès WIFI afin de développer l'accès à Internet, particulièrement dans les communautés mal couvertes.
WIFI4EU est une initiative annoncée l'année passée par le président Juncker dans le discours sur l'état de l'Union prononcé à Strasbourg. Afin de tenir sa promesse « d'équiper chaque village européen et chaque ville d'un accès sans fil à Internet autour des centres de vie publique d'ici 2020 », l'UE va débloquer 120 millions d'euros entre 2017 et 2019 afin de déployer des points d'accès WIFI dans 6000 à 8000 collectivités locales.
Mais alors que les trilogues se terminent, il y a un grand risque de voir cette louable initiative rater l'opportunité de promouvoir la diversité dans le domaine des télécommunications et de promouvoir les droits humains. Les négociations récentes démontrent que les gouvernements des États membres veulent garder les petits fournisseurs d'accès à Internet locaux hors du champ, en favorisant les opérateurs et corporations historiques et en leur laissant le droit d'espionner les communications des utilisateurs.
Pour surmonter ces risques, nous appelons le Conseil de l'UE et la Commission européenne à soutenir la proposition constructive du Parlement européen, et demandons que les termes restent suffisamment fermes pour garantir l'intérêt public dans les politiques de télécommunication.
Faire de la place pour les PME et les coopératives à but non lucratif
Dans le considérant 4 du règlement, le Parlement européen insiste sur l'engagement d'organisations telles que « les coopératives sans but lucratif » et « les centres communautaires » en tant qu'entités pouvant offrir un accès à Internet sans fil. Dans la même veine, au considérant 9b, le Parlement européen souhaite promouvoir les PME locales et les acteurs sans but lucratif comme les bénéficiaires clés pour la fourniture et l'installation d’équipements 1. Une telle formulation garantit que les acteurs locaux et de petite taille — y compris des PME et de nombreux réseaux communautaires à but non lucratif — seront éligibles aux fonds WIFI4EU. En dirigeant ces fonds vers ces acteurs de petite taille mais compétents, WIFI4EU promouvrait l'emploi local ainsi que la diffusion des compétences techniques et de la diversité dans le secteur des télécommunications, au lieu de favoriser les acteurs déjà dominants de l'industrie. Il est déjà pour le moins choquant de constater que de nombreux réseaux communautaires sans but lucratif gèrent le type de réseaux sans fils ouverts dont WIFI4EU fait la promotion, sans ou avec peu de soutien public. En dirigeant ces fonds européens vers ces acteurs quand cela est possible, WIFI4EU a la possibilité de les aider à grandir et à étendre leurs activités au niveau local. Malheureusement, le Conseil européen essaye de retirer ces con sidérants en prétextant qu'ils ne reposent sur aucune base légale, ouvrant ainsi la voie aux acteurs dominants pour qu'ils ramassent l'essentiel des subsides de WIFI4EU.
Considérant 4
Protéger le droit à la vie privée en renonçant à l'authentification préalable
Au considérant 2, le Parlement européen et le Conseil de l'Union européenne promeuvent tous deux un système d'authentification unique qui pourrait être utilisé à travers toute l'UE. Cette solution qui favorise un système d'authentification pour réglementer l'accès aux réseaux « ouverts » ne s'appuie sur aucun raisonnement substantiel, et va à l'encontre des droits humains. Nous comprenons le but des législateurs de rendre l'accès à ces réseaux publics aussi facile que possible pour les gens voyageant à travers l'UE, mais la manière la plus simple d'arriver à cela, c'est de garantir que ces réseaux soient en effet des réseaux ouverts sans authentification. Si l'objectif du système d'authentification est d'empêcher les activités illégales, il faut rappeler aux législateurs que l'Avocat Général de la CJUE a récemment expliqué dans l'affaire C‑484/14 (McFadden) qu'imposer aux opérateurs de réseaux sans fil une obligation « d'identifier les utilisateurs et de conserver leurs données » serait « clairement disproportionnée » car elle ne serait pas en elle-même efficace (…) à empêcher des violations particulières ». Dans sa décision, la Cour a convenu qu'une telle obligation ne devrait être seulement imposée qu'après qu'un opérateur WIFI aura reçu une injonction ciblée spécifique à le faire. Pour minimiser le risque d'atteinte à la vie privée associé à la rétention de données et favoriser la facilité d'utilisation, WIFI4EU ne devrait pas promouvoir les systèmes d'authentification dans ce qui est censé être des points d'accès ouverts et gratuits.
Considérant 2
Garder la publicité et la surveillance commerciale hors des réseaux sans fils publics
WIFI4EU ne doit pas transformer en valeur marchande les services financés par de l'argent public en autorisant des modèles publicitaires rendus possible par la surveillance commerciale. Malheureusement, le Conseil essaie de saper la protection proposée par le Parlement dans le considérant 2 qui exclu l'utilisation des données de trafic pour des raisons publicitaires ou d'autres utilisations commerciales. Le Parlement et le Conseil doivent garder la version du Parlement afin d'être entièrement alignés avec le cadre de protection des données personnelles ainsi que la Charte des Droits Fondamentaux de l'Union européenne. De plus, l'utilisation commerciale de données ne peut se justifier dans le cadre de services publics, particulièrement si ces services sont financés par de l'argent public.
Offrir un accès gratuit, ouvert et neutre à ceux qui en ont le plus besoin
La première priorité de WIFI4EU est de mettre en place un réseau d'accès sans fil ouvert et gratuit qui développera un accès à Internet dans les localités non ou mal desservies. La proposition du Conseil d'effacer l'objectif législatif de « ne pas laisser les localités éloignées et les zones rurales à la traîne » et de faire de ces réseaux financés par de l'argent public « exempts de charges et exempt de restrictions » est dangereuse. Elle suggère que les réseaux de WIFI4EU pourraient ne pas être gratuits, ni ouverts ni même respecter la neutralité du Net, principe gravé dans la réglementation européenne lors de la première régulation sur les télécommunications. La formulation du Parlement européen doit être confirmée.
Considérant 4a
Considérant 2§2c
Nous comptons sur vous afin d'assurer que les propositions du Parlement européen, qui servent l'intérêt général ainsi que les objectifs spécifiques de l'UE concernant la législation sur la bande passante, soient conservées dans la version finale du texte.
1. Dans ce contexte, le textes ne mentionne que les « PME », mais ces dernières sont définies dans la loi européenne comme des « entités engagées dans une activité économique, indépendamment de leur forme légale. » La notion peut par conséquence inclure de nombreuses entités sans but lucratif qui travaillent déjà au niveau local pour fournir un accès à Internet souple et abordable. Voir : http://ec.europa.eu/DocsRoom/documents/15582/attachments/1/translations
";s:7:"dateiso";s:15:"20170522_164441";}s:15:"20170420_174746";a:7:{s:5:"title";s:63:"Présidentielles 2017 : changer de méthode pour changer de cap";s:4:"link";s:45:"http://www.laquadrature.net/fr/virage-citoyen";s:4:"guid";s:36:"10211 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 20 Apr 2017 15:47:46 +0000";s:11:"description";s:9499:"
Paris, 21 avril 2017 — La campagne électorale française donne peu de satisfaction depuis des mois. Entre affaires, discours sécuritaire et coups bas, la politique au sens noble du terme a peu de place, les propositions positives sont quasiment absentes. Dans sa volonté d'action positive et de long terme, La Quadrature du Net s'associe avec d'autres organisations couvrant une large part du champ social pour remettre au coeur du débat public les idées de transformation sociale et politique que nous portons depuis des années. Avec Aides, Greenpeace, la Cimade et la Ligue des droits de l'Homme, nous refusons la résignation actuelle et redisons avec force qu'il faut avancer vers l'universalité, l'effectivité et l'égalité des droits, la dignité des personnes et la solidarité.
Cette campagne est décidément bien étrange. C’est la confirmation, s’il en fallait encore une, qu’un changement radical de méthode et de cap est nécessaire. Voilà maintenant plusieurs mois que la surenchère sécuritaire et les « affaires » polluent l’espace public. Ce climat délétère empêche l’émergence de tout débat de fond sur des sujets pourtant vitaux pour notre avenir commun. Bref disons-le clairement : cette campagne électorale n’est pas à la hauteur. Elle ne répond pas aux grands défis actuels, elle ne s’attaque pas aux racines des problèmes qui minent notre société et elle ouvre un boulevard toujours plus large aux forces populistes et rétrogrades.
Pour nous, acteurs-trices du changement et de la transformation sociale, la résignation n’est pas une option. Convaincus-es qu’un sursaut citoyen pourra nous sortir de l’impasse, nous parlons aujourd’hui d’une seule voix pour réaffirmer les valeurs qui nous lient et proposer une autre vision du monde. Il est temps de reconstruire ensemble un idéal commun et de faire prendre à notre société un nouveau virage. Un virage vers le progrès social. Vers une société où tous et toutes ont les mêmes droits, des droits effectifs qui reposent sur la solidarité. Un virage résolument citoyen.
Chaque jour sur le terrain nos organisations agissent en se confrontant au réel. Nous mobilisons des milliers de personnes pour défendre pied à pied notre bien commun le plus élémentaire : les droits fondamentaux. Le droit de chacun-e à vivre dignement, à être soigné-e correctement, à se déplacer, s’informer et s’exprimer librement, à être reconnu-e socialement, à vivre dans un environnement sain et à bénéficier du respect total de sa vie privée. Ensemble, nous défendons la solidarité, ici et ailleurs, aujourd’hui et demain. Nous agissons avec les personnes en situation de pauvreté, confrontées à la maladie, discriminées, menacées par les multiples risques sanitaires et écologiques.
Nous savons à quel point ces défis sont immenses et nous voulons peser en imposant la légitimité de ces sujets. Nous n’acceptons pas que le débat public soit pollué par celles et ceux qui proposent pour seul programme le repli identitaire et l’exclusion des plus vulnérables.
Il est temps que notre société apporte des solutions conformes au bien commun et à un avenir partagé, seul moyen de répondre aux enjeux considérables que sont la lutte contre la pauvreté et les inégalités, la transparence et l’exemplarité de la vie politique, la transition écologique, l’accès inconditionnel à la santé et à un logement décent, le devoir d’hospitalité, le respect des droits fondamentaux dans la transformation numérique, la promotion de la justice sociale et environnementale, la sécurisation des libertés publiques dans le contexte de risque terroriste.
Ces sujets méritent davantage qu’un addendum en fin de programme. Ils doivent être au cœur du débat. Mieux, les réponses politiques qu’ils exigent doivent se construire collectivement et s’appuyer sur l’expertise des citoyens-nes, des personnes concernées, des organisations et de la société civile.
Le monde associatif et militant, les millions de citoyens-nes qui agissent au quotidien montrent partout qu’une autre voie est possible.
Nous savons qu’il faudra du temps pour changer durablement de cap. Nous savons que le sursaut citoyen que nous appelons de nos vœux ne se produira pas en un claquement de doigts. Mais il n’est plus temps d’attendre Nous sommes prêts, ensemble, plus déterminés que jamais. Pour citer Elizabeth Plum, activiste américaine et opposante féroce à la politique de Donald Trump : « notre lutte ne sera pas un sprint, mais un marathon. ».
AIDES est une association française de lutte contre le VIH/sida et les hépatites, qui, dans une approche globale en santé, entend transformer la société toute entière. AIDES s’attaque à tous les facteurs de vulnérabilité qui entravent l’accès aux soins et à la prévention tels que les discriminations, la précarité sociale, financière et affective, les politiques répressives, les inégalités de santé et d’accès aux droits, les stigmatisations, etc. En luttant pour les droits des personnes vivant avec le VIH ou une hépatite et de toutes les populations les plus exposées au risque de contamination, en bousculant les représentations, en faisant évoluer le contexte politique, social, thérapeutique, AIDES milite pour une société plus égalitaire, plus juste, plus protectrice, plus inclusive et plus émancipatrice.
Greenpeace est une organisation internationale qui agit selon les principes de non-violence pour protéger l’environnement, la biodiversité et promouvoir la paix. Elle s’appuie sur un mouvement de citoyennes et citoyens engagé-e-s pour construire un monde durable et équitable. Nous sommes convaincus que chacun peut apporter sa pierre à l’édifice, qu’ensemble et avec nos alliés, nous pouvons changer un système qui repose trop souvent sur l’oppression, les inégalités et la cupidité d’un petit nombre. Nous voulons agir sur les causes des atteintes à l’environnement, des inégalités et des conflits.
La Cimade a pour but de manifester une solidarité active avec les personnes opprimées et exploitées. Elle défend la dignité et les droits des personnes réfugiées et migrantes.
La Cimade inscrit son engagement dans la perspective d’un monde plus juste. Forte d’une action de terrain auprès des personnes étrangères à toutes les étapes de leurs parcours (accueil dans des permanences sur l’ensemble du territoire, y compris Outre-mer, hébergement de demandeurs d’asile à Béziers et de réfugiés à Massy, présence dans huit centres de rétention administrative et 75 établissements pénitentiaires, défense des droits des personnes migrantes dans les pays d’origine, de transit et d’accueil avec des associations partenaires dans les pays du Sud), La Cimade intervient auprès des décideurs par des actions de plaidoyer, informe et sensibilise l’opinion publique sur les réalités migratoires et construit des propositions pour changer les politiques migratoires.
La Ligue des droits de l’Homme met au centre de ses actions la défense des libertés publiques, de la démocratie et de la capacité à faire société. Face à l’idée fausse que sécurité et liberté ne peuvent plus aller ensemble, elle s’oppose à un État d’urgence perpétuellement prolongé .alors que notre pays dispose d’un vaste dispositif législatif pour lutter cotre le terrorisme. Elle est aussi conduite à devoir combattre le détournement de la laïcité en moyen d’exclusion dirigé, en particulier, contre l’islam Notre société a au contraire besoin que la laïcité assure la neutralité de l’État et des collectivités territoriales tout en protégeant la liberté de conscience et la liberté de manifester son appartenance religieuse dans la sphère publique (loi de 1905). Contre toutes les constructions d’exclusions qui passent par des affirmations prétendument identitaires, il s’agit de mettre en pratique les valeurs permettant de « faire société ».
La Quadrature du Net défend les droits et libertés à l’ère du numérique. Elle promeut une législation et des politiques numériques fidèles aux valeurs qui ont présidé au développement d’Internet, notamment sur les questions de liberté d’expression, de respect de la vie privée, de droit d’auteur et de régulation du secteur des télécommunications. La Quadrature du Net agit en défense des droits fondamentaux contre la censure, la surveillance, les atteintes à la vie privée, le non-respect de la neutralité du Net, et en défense des Communs.
";s:7:"content";s:9502:"
Paris, 21 avril 2017 — La campagne électorale française donne peu de satisfaction depuis des mois. Entre affaires, discours sécuritaire et coups bas, la politique au sens noble du terme a peu de place, les propositions positives sont quasiment absentes. Dans sa volonté d'action positive et de long terme, La Quadrature du Net s'associe avec d'autres organisations couvrant une large part du champ social pour remettre au coeur du débat public les idées de transformation sociale et politique que nous portons depuis des années. Avec Aides, Greenpeace, la Cimade et la Ligue des droits de l'Homme, nous refusons la résignation actuelle et redisons avec force qu'il faut avancer vers l'universalité, l'effectivité et l'égalité des droits, la dignité des personnes et la solidarité.
Cette campagne est décidément bien étrange. C’est la confirmation, s’il en fallait encore une, qu’un changement radical de méthode et de cap est nécessaire. Voilà maintenant plusieurs mois que la surenchère sécuritaire et les « affaires » polluent l’espace public. Ce climat délétère empêche l’émergence de tout débat de fond sur des sujets pourtant vitaux pour notre avenir commun. Bref disons-le clairement : cette campagne électorale n’est pas à la hauteur. Elle ne répond pas aux grands défis actuels, elle ne s’attaque pas aux racines des problèmes qui minent notre société et elle ouvre un boulevard toujours plus large aux forces populistes et rétrogrades.
Pour nous, acteurs-trices du changement et de la transformation sociale, la résignation n’est pas une option. Convaincus-es qu’un sursaut citoyen pourra nous sortir de l’impasse, nous parlons aujourd’hui d’une seule voix pour réaffirmer les valeurs qui nous lient et proposer une autre vision du monde. Il est temps de reconstruire ensemble un idéal commun et de faire prendre à notre société un nouveau virage. Un virage vers le progrès social. Vers une société où tous et toutes ont les mêmes droits, des droits effectifs qui reposent sur la solidarité. Un virage résolument citoyen.
Chaque jour sur le terrain nos organisations agissent en se confrontant au réel. Nous mobilisons des milliers de personnes pour défendre pied à pied notre bien commun le plus élémentaire : les droits fondamentaux. Le droit de chacun-e à vivre dignement, à être soigné-e correctement, à se déplacer, s’informer et s’exprimer librement, à être reconnu-e socialement, à vivre dans un environnement sain et à bénéficier du respect total de sa vie privée. Ensemble, nous défendons la solidarité, ici et ailleurs, aujourd’hui et demain. Nous agissons avec les personnes en situation de pauvreté, confrontées à la maladie, discriminées, menacées par les multiples risques sanitaires et écologiques.
Nous savons à quel point ces défis sont immenses et nous voulons peser en imposant la légitimité de ces sujets. Nous n’acceptons pas que le débat public soit pollué par celles et ceux qui proposent pour seul programme le repli identitaire et l’exclusion des plus vulnérables.
Il est temps que notre société apporte des solutions conformes au bien commun et à un avenir partagé, seul moyen de répondre aux enjeux considérables que sont la lutte contre la pauvreté et les inégalités, la transparence et l’exemplarité de la vie politique, la transition écologique, l’accès inconditionnel à la santé et à un logement décent, le devoir d’hospitalité, le respect des droits fondamentaux dans la transformation numérique, la promotion de la justice sociale et environnementale, la sécurisation des libertés publiques dans le contexte de risque terroriste.
Ces sujets méritent davantage qu’un addendum en fin de programme. Ils doivent être au cœur du débat. Mieux, les réponses politiques qu’ils exigent doivent se construire collectivement et s’appuyer sur l’expertise des citoyens-nes, des personnes concernées, des organisations et de la société civile.
Le monde associatif et militant, les millions de citoyens-nes qui agissent au quotidien montrent partout qu’une autre voie est possible.
Nous savons qu’il faudra du temps pour changer durablement de cap. Nous savons que le sursaut citoyen que nous appelons de nos vœux ne se produira pas en un claquement de doigts. Mais il n’est plus temps d’attendre Nous sommes prêts, ensemble, plus déterminés que jamais. Pour citer Elizabeth Plum, activiste américaine et opposante féroce à la politique de Donald Trump : « notre lutte ne sera pas un sprint, mais un marathon. ».
AIDES est une association française de lutte contre le VIH/sida et les hépatites, qui, dans une approche globale en santé, entend transformer la société toute entière. AIDES s’attaque à tous les facteurs de vulnérabilité qui entravent l’accès aux soins et à la prévention tels que les discriminations, la précarité sociale, financière et affective, les politiques répressives, les inégalités de santé et d’accès aux droits, les stigmatisations, etc. En luttant pour les droits des personnes vivant avec le VIH ou une hépatite et de toutes les populations les plus exposées au risque de contamination, en bousculant les représentations, en faisant évoluer le contexte politique, social, thérapeutique, AIDES milite pour une société plus égalitaire, plus juste, plus protectrice, plus inclusive et plus émancipatrice.
Greenpeace est une organisation internationale qui agit selon les principes de non-violence pour protéger l’environnement, la biodiversité et promouvoir la paix. Elle s’appuie sur un mouvement de citoyennes et citoyens engagé-e-s pour construire un monde durable et équitable. Nous sommes convaincus que chacun peut apporter sa pierre à l’édifice, qu’ensemble et avec nos alliés, nous pouvons changer un système qui repose trop souvent sur l’oppression, les inégalités et la cupidité d’un petit nombre. Nous voulons agir sur les causes des atteintes à l’environnement, des inégalités et des conflits.
La Cimade a pour but de manifester une solidarité active avec les personnes opprimées et exploitées. Elle défend la dignité et les droits des personnes réfugiées et migrantes.
La Cimade inscrit son engagement dans la perspective d’un monde plus juste. Forte d’une action de terrain auprès des personnes étrangères à toutes les étapes de leurs parcours (accueil dans des permanences sur l’ensemble du territoire, y compris Outre-mer, hébergement de demandeurs d’asile à Béziers et de réfugiés à Massy, présence dans huit centres de rétention administrative et 75 établissements pénitentiaires, défense des droits des personnes migrantes dans les pays d’origine, de transit et d’accueil avec des associations partenaires dans les pays du Sud), La Cimade intervient auprès des décideurs par des actions de plaidoyer, informe et sensibilise l’opinion publique sur les réalités migratoires et construit des propositions pour changer les politiques migratoires.
La Ligue des droits de l’Homme met au centre de ses actions la défense des libertés publiques, de la démocratie et de la capacité à faire société. Face à l’idée fausse que sécurité et liberté ne peuvent plus aller ensemble, elle s’oppose à un État d’urgence perpétuellement prolongé .alors que notre pays dispose d’un vaste dispositif législatif pour lutter cotre le terrorisme. Elle est aussi conduite à devoir combattre le détournement de la laïcité en moyen d’exclusion dirigé, en particulier, contre l’islam Notre société a au contraire besoin que la laïcité assure la neutralité de l’État et des collectivités territoriales tout en protégeant la liberté de conscience et la liberté de manifester son appartenance religieuse dans la sphère publique (loi de 1905). Contre toutes les constructions d’exclusions qui passent par des affirmations prétendument identitaires, il s’agit de mettre en pratique les valeurs permettant de « faire société ».
La Quadrature du Net défend les droits et libertés à l’ère du numérique. Elle promeut une législation et des politiques numériques fidèles aux valeurs qui ont présidé au développement d’Internet, notamment sur les questions de liberté d’expression, de respect de la vie privée, de droit d’auteur et de régulation du secteur des télécommunications. La Quadrature du Net agit en défense des droits fondamentaux contre la censure, la surveillance, les atteintes à la vie privée, le non-respect de la neutralité du Net, et en défense des Communs.
";s:7:"dateiso";s:15:"20170420_174746";}s:15:"20170405_145148";a:7:{s:5:"title";s:53:"Youtube : invisibilisation au profit de la publicité";s:4:"link";s:65:"http://www.laquadrature.net/fr/youtube-invisibilisation-publicite";s:4:"guid";s:36:"10202 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 05 Apr 2017 12:51:48 +0000";s:11:"description";s:10558:"
La Quadrature du Net publie ici une tribune de Okhin.
Paris, 5 avril 2017 — Les plateformes de vidéos en ligne (Youtube et Facebook en tête) supplantent maintenant la télévision en nombre d'audiences, rendant ces médias extrêmement importants dans la représentation de la société qu'ils fournissent. Elles constituent un espace public d'expression, régi par des sociétés privées, et permettant à de nombreuses personnes, cultures, sous-cultures, groupes sociaux d'exister, d'échanger et d'être vus. Il existe bien entendu des initiatives et des alternatives libres, mais aucune d'entre elles ne peut prétendre à atteindre le niveau de présence de ces plateformes.
La représentativité des minorités dans les médias de divertissements de masse (télé, séries, films, jeux vidéos, etc …) est — au mieux — problématique. Internet permettant à toute personne y ayant accès de créer et d’accéder à du contenu permet d'attaquer ce problème, en facilitant la prise de parole, le partage d'expérience et de connaissance, et c'est une des principales raisons du succès des plateformes de médias et de contenus créés par les utilisateurs.
YouTube, Facebook et les autres plateformes numériques massives sont donc devenues essentielles pour la représentation des minorités dans l'espace public, devenant de fait un élément majeur pour la visibilité de ces personnes, de leurs luttes, de leurs discussions, ou simplement comme moyen de lutte contre l'isolement, de confrontation de points de vue et de situations ou d'entraide.
Mi-mars, Youtube (propriété de Google-Alphabet) a mis à jour son mode restreint, optionnel, qui a pour but de « filtrer les contenus susceptibles de choquer et que vous ne souhaitez pas voir vous-même, ou que vous ne voulez pas que vos proches voient lorsqu'ils sont sur YouTube ».
YouTube présente ce mode comme un contrôle parental, sur lequel les parents n'ont pas leur mot à dire et abandonnent à YouTube le choix de décider ce que leurs enfants peuvent voir ; ou pour une utilisation sur des postes en consultation publique, comme dans les bibliothèques ou les écoles. Le but étant de garantir que personne n'utilisant ces postes ne tombe sur du contenu qui pourrait potentiellement les choquer.
La conséquence la plus visible de cette mise à jour fut de rendre inaccessible aux personnes utilisant ce mode restreint la plupart des contenus produit par des auteur⋅rice⋅s LGBT, ou parlant de problématiques LGBT, même de manière distante — il suffit par exemple qu'il y ait « gay » dans le titre d'une vidéo de chat. Cette mise à jour a généré une forte colère au sein de cette communauté, forçant YouTube à s'excuser dans un communiqué, puis à finalement admettre que leur filtrage ne fonctionne pas.
Dans un communiqué envoyé à la presse spécialisée, YouTube a précisé, que les sujets pouvant amener à une classification restreinte du contenu incluent la santé, la politique ou la sexualité. Cette définition permet, de facto, à YouTube de cibler quasiment n'importe quel contenu, et de le marquer comme restreint. Dans ce même communiqué, YouTube ajoute que les signalements par leur communauté, mais aussi le fait qu'une personne ait déjà mis en ligne du contenu restreint, étaient également des critères permettant de cibler le contenu. Plus on est ciblé par le mode restreint, plus on a de chances de l'être de nouveau.
Cette régulation d'un espace public par des intérêts privés doit être comprise non via le prisme de la morale, mais bien via celui du modèle économique de ces plateformes. Plateformes, dont le but n'est ni d'afficher le contenu demandé par l'utilisateur, ni de permettre aux créateurs de mettre en ligne leur contenu, mais bien d'afficher la bonne publicité, à côté du bon contenu, en face de la bonne personne, afin de satisfaire aux exigences de leurs clients publicitaires. Havas et Procter & Gamble ont récemment menacé de cesser tous leurs partenariats avec Google face à l'incapacité de celui-ci de correctement cataloguer et étiqueter son contenu. Ces entreprises veulent pouvoir garantir à leurs clients qu'aucune publicité ne sera mise à côté d'un contenu pouvant porter atteinte à leur marque1.
Cette problématique est aussi vieille que l'existence de la publicité sur Internet. La publicité par pop-up a été créée dans ce but dans les années 1990 (et il a fallu presque 10 ans pour endiguer ce fléau). À l'époque, la plainte des afficheurs de publicité était qu'ils ne voulaient pas que leur publicité, et donc leur marque, soit associées à des choses qu'ils réprouvent — l'exemple de la pornographie était largement cité à l'époque.
Au delà du simple cas de YouTube, il faut rappeler qu'il ne s'agit malheureusement que d'un cas très médiatisé parmi de nombreuses autres atteintes à la liberté d'expression au profit des afficheurs publicitaires. La nudité féminine est bannie de différents réseaux sociaux ou des plateformes logicielles privatives par exemple. Ce qui a touché récemment les personnes et communautés queer, pourrait parfaitement toucher prochainement les vidéos défendant des idées politiques — qu'il s'agisse de candidat⋅e⋅s aux élections ou de simple militants et potentiellement n'importe quelle personne tenant des propos ne plaisant pas à un afficheur de publicité.
Le scandale du mode restreint de YouTube tel qu'il a éclaté il y a quelques jours, ressemble donc bien à une réaction de cette entreprise face aux menaces de ses clients. Il s'agit d'une tentative de créer un espace public entièrement dédié à la présentation de message publicitaire, dépouillé de contenu pouvant potentiellement déplaire à une marque, réalisant le rêve de Patrick Le Lay de maximiser la profitabilité du « temps de cerveau disponible ».
Car si la pression des annonceurs amène YouTube à se plier à leurs exigences, le mode restreint sera probablement activé par défaut. Si ce mode restreint restait optionnel mais qu'il était activé par les lycées et collèges, comment serait-il alors possible d'effectuer des recherches en ligne si ces plateformes ne fournissent aucun contenu pouvant potentiellement être politisé ? Ou parlant de sexualité ? Comment permettre l'accès — déjà compliqué — à une information sur l'IVG si celle-ci n'est plus disponible ?
Des tentatives de médias décentralisés, dont le modèle économique ne dépend pas du placement publicitaire, existent déjà, mais sans arriver à contester l'oligopole que forment ces plateformes centralisatrices. Or, l'une des forces d'Internet réside dans sa décentralisation, la possibilité offerte à quiconque de mettre en ligne son contenu. Mais la mise en silo et la concentration de ce contenu par quelques entreprises privées, contrôlant désormais toute la chaîne de la production à la diffusion en passant par l'éventuelle gestion des revenus, pose la question du respect des droits de communautés perçues comme une menace pour leur modèle économique.
Il devient de plus en plus critique, si l'on veut vivre dans une société offrant une diversité d'opinions, de culture, d'idées, nécessaire à une démocratie inclusive de toutes et de tous, de réduire notre dépendance à ces plateformes. Le rêve d'un Internet neutre, libre et décentralisé est toujours vivace et de nombreux collectifs y travaillent (de Framasoft à Yunohost en passant par riseup.net ou à une grande partie des hackerspaces) mais de nombreux efforts restent à faire. L'accessibilité de ces outils, leur utilisation pour et par tous et toutes nécessite plus que de simplement ouvrir le code. Si l'on veut réellement sortir ces outils de nos « garages », l'effort initié par ces collectifs doit s'étendre activement vers les milieux militants.
1. Le poids de la pub est également mis en avant par les pouvoirs publics qui veulent encourager la censure privée des contenus « terroristes », au RU ou au niveau UE : "In the UK, for instance, a lot of companies have stopped advertising on Google because they believe Google is not removing enough extremist content)" http://www.euractiv.com/section/politics/interview/eu-anti-terror-czar-t...
";s:7:"content";s:10558:"
La Quadrature du Net publie ici une tribune de Okhin.
Paris, 5 avril 2017 — Les plateformes de vidéos en ligne (Youtube et Facebook en tête) supplantent maintenant la télévision en nombre d'audiences, rendant ces médias extrêmement importants dans la représentation de la société qu'ils fournissent. Elles constituent un espace public d'expression, régi par des sociétés privées, et permettant à de nombreuses personnes, cultures, sous-cultures, groupes sociaux d'exister, d'échanger et d'être vus. Il existe bien entendu des initiatives et des alternatives libres, mais aucune d'entre elles ne peut prétendre à atteindre le niveau de présence de ces plateformes.
La représentativité des minorités dans les médias de divertissements de masse (télé, séries, films, jeux vidéos, etc …) est — au mieux — problématique. Internet permettant à toute personne y ayant accès de créer et d’accéder à du contenu permet d'attaquer ce problème, en facilitant la prise de parole, le partage d'expérience et de connaissance, et c'est une des principales raisons du succès des plateformes de médias et de contenus créés par les utilisateurs.
YouTube, Facebook et les autres plateformes numériques massives sont donc devenues essentielles pour la représentation des minorités dans l'espace public, devenant de fait un élément majeur pour la visibilité de ces personnes, de leurs luttes, de leurs discussions, ou simplement comme moyen de lutte contre l'isolement, de confrontation de points de vue et de situations ou d'entraide.
Mi-mars, Youtube (propriété de Google-Alphabet) a mis à jour son mode restreint, optionnel, qui a pour but de « filtrer les contenus susceptibles de choquer et que vous ne souhaitez pas voir vous-même, ou que vous ne voulez pas que vos proches voient lorsqu'ils sont sur YouTube ».
YouTube présente ce mode comme un contrôle parental, sur lequel les parents n'ont pas leur mot à dire et abandonnent à YouTube le choix de décider ce que leurs enfants peuvent voir ; ou pour une utilisation sur des postes en consultation publique, comme dans les bibliothèques ou les écoles. Le but étant de garantir que personne n'utilisant ces postes ne tombe sur du contenu qui pourrait potentiellement les choquer.
La conséquence la plus visible de cette mise à jour fut de rendre inaccessible aux personnes utilisant ce mode restreint la plupart des contenus produit par des auteur⋅rice⋅s LGBT, ou parlant de problématiques LGBT, même de manière distante — il suffit par exemple qu'il y ait « gay » dans le titre d'une vidéo de chat. Cette mise à jour a généré une forte colère au sein de cette communauté, forçant YouTube à s'excuser dans un communiqué, puis à finalement admettre que leur filtrage ne fonctionne pas.
Dans un communiqué envoyé à la presse spécialisée, YouTube a précisé, que les sujets pouvant amener à une classification restreinte du contenu incluent la santé, la politique ou la sexualité. Cette définition permet, de facto, à YouTube de cibler quasiment n'importe quel contenu, et de le marquer comme restreint. Dans ce même communiqué, YouTube ajoute que les signalements par leur communauté, mais aussi le fait qu'une personne ait déjà mis en ligne du contenu restreint, étaient également des critères permettant de cibler le contenu. Plus on est ciblé par le mode restreint, plus on a de chances de l'être de nouveau.
Cette régulation d'un espace public par des intérêts privés doit être comprise non via le prisme de la morale, mais bien via celui du modèle économique de ces plateformes. Plateformes, dont le but n'est ni d'afficher le contenu demandé par l'utilisateur, ni de permettre aux créateurs de mettre en ligne leur contenu, mais bien d'afficher la bonne publicité, à côté du bon contenu, en face de la bonne personne, afin de satisfaire aux exigences de leurs clients publicitaires. Havas et Procter & Gamble ont récemment menacé de cesser tous leurs partenariats avec Google face à l'incapacité de celui-ci de correctement cataloguer et étiqueter son contenu. Ces entreprises veulent pouvoir garantir à leurs clients qu'aucune publicité ne sera mise à côté d'un contenu pouvant porter atteinte à leur marque1.
Cette problématique est aussi vieille que l'existence de la publicité sur Internet. La publicité par pop-up a été créée dans ce but dans les années 1990 (et il a fallu presque 10 ans pour endiguer ce fléau). À l'époque, la plainte des afficheurs de publicité était qu'ils ne voulaient pas que leur publicité, et donc leur marque, soit associées à des choses qu'ils réprouvent — l'exemple de la pornographie était largement cité à l'époque.
Au delà du simple cas de YouTube, il faut rappeler qu'il ne s'agit malheureusement que d'un cas très médiatisé parmi de nombreuses autres atteintes à la liberté d'expression au profit des afficheurs publicitaires. La nudité féminine est bannie de différents réseaux sociaux ou des plateformes logicielles privatives par exemple. Ce qui a touché récemment les personnes et communautés queer, pourrait parfaitement toucher prochainement les vidéos défendant des idées politiques — qu'il s'agisse de candidat⋅e⋅s aux élections ou de simple militants et potentiellement n'importe quelle personne tenant des propos ne plaisant pas à un afficheur de publicité.
Le scandale du mode restreint de YouTube tel qu'il a éclaté il y a quelques jours, ressemble donc bien à une réaction de cette entreprise face aux menaces de ses clients. Il s'agit d'une tentative de créer un espace public entièrement dédié à la présentation de message publicitaire, dépouillé de contenu pouvant potentiellement déplaire à une marque, réalisant le rêve de Patrick Le Lay de maximiser la profitabilité du « temps de cerveau disponible ».
Car si la pression des annonceurs amène YouTube à se plier à leurs exigences, le mode restreint sera probablement activé par défaut. Si ce mode restreint restait optionnel mais qu'il était activé par les lycées et collèges, comment serait-il alors possible d'effectuer des recherches en ligne si ces plateformes ne fournissent aucun contenu pouvant potentiellement être politisé ? Ou parlant de sexualité ? Comment permettre l'accès — déjà compliqué — à une information sur l'IVG si celle-ci n'est plus disponible ?
Des tentatives de médias décentralisés, dont le modèle économique ne dépend pas du placement publicitaire, existent déjà, mais sans arriver à contester l'oligopole que forment ces plateformes centralisatrices. Or, l'une des forces d'Internet réside dans sa décentralisation, la possibilité offerte à quiconque de mettre en ligne son contenu. Mais la mise en silo et la concentration de ce contenu par quelques entreprises privées, contrôlant désormais toute la chaîne de la production à la diffusion en passant par l'éventuelle gestion des revenus, pose la question du respect des droits de communautés perçues comme une menace pour leur modèle économique.
Il devient de plus en plus critique, si l'on veut vivre dans une société offrant une diversité d'opinions, de culture, d'idées, nécessaire à une démocratie inclusive de toutes et de tous, de réduire notre dépendance à ces plateformes. Le rêve d'un Internet neutre, libre et décentralisé est toujours vivace et de nombreux collectifs y travaillent (de Framasoft à Yunohost en passant par riseup.net ou à une grande partie des hackerspaces) mais de nombreux efforts restent à faire. L'accessibilité de ces outils, leur utilisation pour et par tous et toutes nécessite plus que de simplement ouvrir le code. Si l'on veut réellement sortir ces outils de nos « garages », l'effort initié par ces collectifs doit s'étendre activement vers les milieux militants.
1. Le poids de la pub est également mis en avant par les pouvoirs publics qui veulent encourager la censure privée des contenus « terroristes », au RU ou au niveau UE : "In the UK, for instance, a lot of companies have stopped advertising on Google because they believe Google is not removing enough extremist content)" http://www.euractiv.com/section/politics/interview/eu-anti-terror-czar-t...
";s:7:"dateiso";s:15:"20170405_145148";}s:15:"20170331_150205";a:7:{s:5:"title";s:80:"État d'urgence : lettre à Bernard Cazeneuve pour une transparence des données";s:4:"link";s:60:"http://www.laquadrature.net/fr/lettre-cazeneuve-etat-urgence";s:4:"guid";s:36:"10201 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 31 Mar 2017 13:02:05 +0000";s:11:"description";s:8715:"
Paris, 31 mars 2017 — L'état d'urgence est instauré en France depuis le 14 novembre 2015, soit 503 jours. Mais ses effets ne sont pas connus du public, notamment parce que les promesses de transparence qui avaient été faites il y a un an et demi n'ont pas été respectées. Le Parlement a certes effectué un suivi statistique mais bien trop faible pour être utilisable concrètement. Plusieurs associations et organisations de défense des droits humains demandent donc aujourd'hui à Bernard Cazeneuve et au gouvernement français de publier une série de statistiques et de chiffres précis, afin de pouvoir mesurer l'impact de l'état d'urgence sur la société française. L'exercice des droits fondamentaux passe par un contrôle effectif des mesures de restriction des libertés. Puisque le gouvernement lui-même n'a pas été transparent depuis le 14 novembre sur ses actions, il est temps de demander publiquement l'ouverture des données de l'état d'urgence.
Monsieur le Premier ministre,
Peu après la proclamation de l’état d’urgence par le décret n°2015-1475 du 14 novembre 2015, le Gouvernement et le Parlement ont, de concert, fortement insisté sur les efforts de transparence nécessaire pour rendre compte des mesures prises au titre de la loi du 3 avril 1955 relative à l’état d’urgence.
À cet égard, le rapport n°3784 de la commission des lois de l’Assemblée nationale en date du 25 mai 2016 insiste sur le fait que « le contrôle parlementaire s’est vite imposé comme un élément de la légitimité de cette période d’exception », avec pour objectif de « mettre à la disposition de chacun des données complètes qui permettent de saisir l’état d’urgence et de substituer une évaluation aussi complète que possible aux angoisses et aux fantasmes ».
Dans cette perspective, la loi du 20 novembre 2015 a institué, à l’initiative de M. Jean-Jacques Urvoas, à l’époque président de la commission des lois de l’Assemblé nationale, un dispositif de contrôle et d’évaluation parlementaire des mesures relevant de l’état d’urgence.
Le site de l'Assemblée nationale précise qu'une « veille continue [...] pour un contrôle effectif et permanent de la mise en œuvre de l’état d’urgence » doit s'appuyer sur « des indicateurs actualisés chaque semaine pour recenser les mesures exceptionnelles permises par l’état d’urgence telles que, par exemple, les assignations à résidence, perquisitions, remises d’armes, interdictions de circuler, dissolutions d’associations, fermetures d’établissement ou interdictions de sites internet. Les suites administratives et judiciaires de ces mesures ainsi que les recours formés à leur encontre seront également recensés. »
Il s’avère que les données publiées dans ce cadre sont lacunaires et/ou insuffisamment précises pour atteindre l’objectif affiché de permettre un contrôle objectif des effets de l’état d’urgence et assurer un possible contrôle par la société civile. Nous notons que les suites données, sur le plan judiciaire ou contentieux, aux actions conduites dans le cadre de l’état d’urgence sont très peu explicitées. Il en va ainsi en particulier du fondement des poursuites, du sort judiciaire réservé aux intéressés en termes de statut procédural, de mesures de contrainte ou des condamnations prononcées.
Or, comme le rappelait le rapport annuel de la Commission des lois présenté en décembre 2016 par les deux rapporteurs, messieurs les députés Raimbourg et Poisson : « publié sur le site internet de l’Assemblée nationale, le recensement statistique des mesures administratives et des suites judiciaires auxquelles elles donnent lieu est encore aujourd’hui le seul pôle de diffusion régulière de données accessible au public. »
Nous déplorons donc la granularité insuffisante (dans le temps et dans l’espace) des chiffres communiqués, dans un format non conforme aux standards des données ouvertes, ne correspondant pas à l’ambition initiale formulée par la Commission des Lois de l’Assemblée Nationale. Ne sont
notamment par rendues publiques les données pour chaque type de mesures par département, voire par commune, alors même que les différents rapports « Raimbourg-Poisson » du contrôle parlementaire contiennent des cartes détaillant géographiquement les mesures (par exemple les
contrôles d’identité sur réquisition du préfet).
Par ailleurs, les données disponibles ne sont pas agrégées dans un document unique qui réunirait l'ensemble des données à disposition du public sur la totalité d'application de l'état d'urgence depuis novembre 2015. Les associations signataires rappellent que la France a accueilli en décembre 2016 le sommet mondial du Partenariat pour un gouvernement ouvert (Open Government Partnership). À cette occasion, le Président de la République a souligné que « l’ouverture des données publiques est devenue un principe, elle concerne tous les secteurs de l’action gouvernementale. » En la matière, qu’il s’agisse d’évaluer, d’analyser, de comprendre ou – c’est aussi le rôle de la société civile - de
demander des comptes, la mise à disposition des données concernant l'état d'urgence nous semble indispensable.
Enfin, les associations signataires rappellent ici qu’aux termes des dispositions de l’article 10 de la Convention européenne des droits de l’homme (CEDH), une obligation positive pèse sur les autorités internes de collecte et de diffusion d’informations lorsque l’accès à l’information est déterminant pour l’exercice du droit à la liberté d’expression, en particulier la liberté de recevoir et de communiquer des informations. Dans le cas présent, les droits en jeu sont primordiaux du point de vue de la CEDH. La démarche d’information dans la perspective de laquelle la présente demande est effectuée concerne d’évidence un sujet d’intérêt public légitime, ainsi qu’il résulte des termes mêmes des déclarations gouvernementales et parlementaires concernant la transparence devant entourer la mise en œuvre de l’état d’urgence. En conséquence, le refus de faire droit à leur demande entraverait leur contribution à un débat public sur une question d’intérêt général, et constituerait une ingérence injustifiée au droit qu’elles tiennent de l’article 10 de la CEDH.
Les associations vous demandent donc de leur communiquer, dans les plus brefs délais et sous un format clair et réutilisable, les données statistiques complètes (couvrant la période 2015-2017) telles que précisées en annexe à ce courrier. Il est du devoir du gouvernement de terminer son mandat en laissant au peuple un bilan précis et chiffré de la mise en œuvre de l'état d'urgence, afin que puisse s'exercer le contrôle démocratique effectif et éclairé ambitionné par les pouvoirs publics français.
Convaincus que vous mesurerez pleinement l’importance de notre démarche au regard du fonctionnement démocratique de nos institutions, nous vous prions, Monsieur le Premier ministre, d’agréer l’expression notre haute considération.
Paris, 31 mars 2017 — L'état d'urgence est instauré en France depuis le 14 novembre 2015, soit 503 jours. Mais ses effets ne sont pas connus du public, notamment parce que les promesses de transparence qui avaient été faites il y a un an et demi n'ont pas été respectées. Le Parlement a certes effectué un suivi statistique mais bien trop faible pour être utilisable concrètement. Plusieurs associations et organisations de défense des droits humains demandent donc aujourd'hui à Bernard Cazeneuve et au gouvernement français de publier une série de statistiques et de chiffres précis, afin de pouvoir mesurer l'impact de l'état d'urgence sur la société française. L'exercice des droits fondamentaux passe par un contrôle effectif des mesures de restriction des libertés. Puisque le gouvernement lui-même n'a pas été transparent depuis le 14 novembre sur ses actions, il est temps de demander publiquement l'ouverture des données de l'état d'urgence.
Monsieur le Premier ministre,
Peu après la proclamation de l’état d’urgence par le décret n°2015-1475 du 14 novembre 2015, le Gouvernement et le Parlement ont, de concert, fortement insisté sur les efforts de transparence nécessaire pour rendre compte des mesures prises au titre de la loi du 3 avril 1955 relative à l’état d’urgence.
À cet égard, le rapport n°3784 de la commission des lois de l’Assemblée nationale en date du 25 mai 2016 insiste sur le fait que « le contrôle parlementaire s’est vite imposé comme un élément de la légitimité de cette période d’exception », avec pour objectif de « mettre à la disposition de chacun des données complètes qui permettent de saisir l’état d’urgence et de substituer une évaluation aussi complète que possible aux angoisses et aux fantasmes ».
Dans cette perspective, la loi du 20 novembre 2015 a institué, à l’initiative de M. Jean-Jacques Urvoas, à l’époque président de la commission des lois de l’Assemblé nationale, un dispositif de contrôle et d’évaluation parlementaire des mesures relevant de l’état d’urgence.
Le site de l'Assemblée nationale précise qu'une « veille continue [...] pour un contrôle effectif et permanent de la mise en œuvre de l’état d’urgence » doit s'appuyer sur « des indicateurs actualisés chaque semaine pour recenser les mesures exceptionnelles permises par l’état d’urgence telles que, par exemple, les assignations à résidence, perquisitions, remises d’armes, interdictions de circuler, dissolutions d’associations, fermetures d’établissement ou interdictions de sites internet. Les suites administratives et judiciaires de ces mesures ainsi que les recours formés à leur encontre seront également recensés. »
Il s’avère que les données publiées dans ce cadre sont lacunaires et/ou insuffisamment précises pour atteindre l’objectif affiché de permettre un contrôle objectif des effets de l’état d’urgence et assurer un possible contrôle par la société civile. Nous notons que les suites données, sur le plan judiciaire ou contentieux, aux actions conduites dans le cadre de l’état d’urgence sont très peu explicitées. Il en va ainsi en particulier du fondement des poursuites, du sort judiciaire réservé aux intéressés en termes de statut procédural, de mesures de contrainte ou des condamnations prononcées.
Or, comme le rappelait le rapport annuel de la Commission des lois présenté en décembre 2016 par les deux rapporteurs, messieurs les députés Raimbourg et Poisson : « publié sur le site internet de l’Assemblée nationale, le recensement statistique des mesures administratives et des suites judiciaires auxquelles elles donnent lieu est encore aujourd’hui le seul pôle de diffusion régulière de données accessible au public. »
Nous déplorons donc la granularité insuffisante (dans le temps et dans l’espace) des chiffres communiqués, dans un format non conforme aux standards des données ouvertes, ne correspondant pas à l’ambition initiale formulée par la Commission des Lois de l’Assemblée Nationale. Ne sont
notamment par rendues publiques les données pour chaque type de mesures par département, voire par commune, alors même que les différents rapports « Raimbourg-Poisson » du contrôle parlementaire contiennent des cartes détaillant géographiquement les mesures (par exemple les
contrôles d’identité sur réquisition du préfet).
Par ailleurs, les données disponibles ne sont pas agrégées dans un document unique qui réunirait l'ensemble des données à disposition du public sur la totalité d'application de l'état d'urgence depuis novembre 2015. Les associations signataires rappellent que la France a accueilli en décembre 2016 le sommet mondial du Partenariat pour un gouvernement ouvert (Open Government Partnership). À cette occasion, le Président de la République a souligné que « l’ouverture des données publiques est devenue un principe, elle concerne tous les secteurs de l’action gouvernementale. » En la matière, qu’il s’agisse d’évaluer, d’analyser, de comprendre ou – c’est aussi le rôle de la société civile - de
demander des comptes, la mise à disposition des données concernant l'état d'urgence nous semble indispensable.
Enfin, les associations signataires rappellent ici qu’aux termes des dispositions de l’article 10 de la Convention européenne des droits de l’homme (CEDH), une obligation positive pèse sur les autorités internes de collecte et de diffusion d’informations lorsque l’accès à l’information est déterminant pour l’exercice du droit à la liberté d’expression, en particulier la liberté de recevoir et de communiquer des informations. Dans le cas présent, les droits en jeu sont primordiaux du point de vue de la CEDH. La démarche d’information dans la perspective de laquelle la présente demande est effectuée concerne d’évidence un sujet d’intérêt public légitime, ainsi qu’il résulte des termes mêmes des déclarations gouvernementales et parlementaires concernant la transparence devant entourer la mise en œuvre de l’état d’urgence. En conséquence, le refus de faire droit à leur demande entraverait leur contribution à un débat public sur une question d’intérêt général, et constituerait une ingérence injustifiée au droit qu’elles tiennent de l’article 10 de la CEDH.
Les associations vous demandent donc de leur communiquer, dans les plus brefs délais et sous un format clair et réutilisable, les données statistiques complètes (couvrant la période 2015-2017) telles que précisées en annexe à ce courrier. Il est du devoir du gouvernement de terminer son mandat en laissant au peuple un bilan précis et chiffré de la mise en œuvre de l'état d'urgence, afin que puisse s'exercer le contrôle démocratique effectif et éclairé ambitionné par les pouvoirs publics français.
Convaincus que vous mesurerez pleinement l’importance de notre démarche au regard du fonctionnement démocratique de nos institutions, nous vous prions, Monsieur le Premier ministre, d’agréer l’expression notre haute considération.
";s:7:"dateiso";s:15:"20170331_150205";}s:15:"20170322_131021";a:7:{s:5:"title";s:81:"Le rapport « del Castillo » sur le code européen des télécoms, de mal en pis";s:4:"link";s:66:"http://www.laquadrature.net/fr/paquet-telecom-rapport-del-castillo";s:4:"guid";s:36:"10194 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 22 Mar 2017 12:10:21 +0000";s:11:"description";s:8359:"
Paris, 22 mars 2017 — La rapporteur au Parlement européen sur le code européen des communications électroniques entend faire reculer l’Europe d’un pas sur le chemin d’une société du numérique libre, développée et égalitaire.
Pour comprendre de quoi il s’agit, petit retour en arrière.
Depuis 2002 la réglementation des télécoms est fondée sur des directives européennes formant ce que l’on appelle le « paquet télécom ». La deuxième révision de ce paquet (après une première en 2009) a commencé en septembre 2016 avec la publication par la Commission européenne d’un projet de code européen des communications électroniques. Ce pavé de plus d’une centaine d’articles entend refondre et faire évoluer l’actuel paquet télécom. Il est actuellement en cours de négociation au Conseil de l’Union européenne et vient de faire l’objet d’un rapport au Parlement européen. Ce rapport publié par la députée européenne Pilar del Castillo (ES - PPE) sera débattu dans les mois à venir.
Notre travail sur le paquet télécom sur le wiki
Le projet de la Commission, un projet pour l’oligarchie des télécoms
L’objectif affiché par la Commission, nous le soutenons : offrir une connectivité à très haut débit, fondée par principe sur la fibre, à l’ensemble des citoyens européens. C’est une évidence. Le chemin quant à lui, nous le discutons. Le projet de la Commission est un projet pour oligopoles, un projet pour les gros, les trois-quatre opérateurs grand public présents dans chaque pays, un projet au détriment des petits. On le savait, cette Commission ne pouvait déboucher sur un projet favorable aux citoyens. C’est d’ailleurs probablement ce qui, en dernière minute, l’a poussée à assortir ce projet de code d’une enveloppe dite « Wifi4EU », comme un dernier sursaut avant de complètement oublier les citoyens. Comme si le Wi-Fi était une question d’argent, que l’on donne du bout des doigts sous forme d’aumône, et non un ensemble de libertés à conquérir.
Dans le projet de la Commission, les citoyens ne sont pas égaux en droit. Le service universel ainsi dessiné par elle fait des personnes isolées géographiques ou dans une situation sociale difficile, des citoyens de second rang. Alors que les citoyens mainstream pourront bénéficier d’un accès à très haut débit, les citoyens bénéficiaires du « service universel » n’auront qu’un accès « fonctionnel » digne du minitel. En bref, aux citoyens des villes la société du numérique à très haut débit, aux citoyens des champs les miettes d’une économie à deux vitesses.
Aujourd’hui les réseaux sont des communs. Selon les termes mêmes de l’Arcep, les réseaux sont « une infrastructure de liberté ». La Commission le néglige en fermant la porte du marché des télécoms à tous les petits acteurs qui pourraient alimenter et faire la richesse des télécoms.
Cette fermeture du marché est tangible à de nombreux égards.
À l’opposé des exigences formulées par les réseaux communautaires et autres FAI associatifs, la Commission s’est contentée d’accorder un privilège considérable aux opérateurs puissants en enlevant toute forme de régulation aux investissant sur de nouveaux éléments de réseaux restés indéfinis. Il en allait de même lorsqu’elle celle-ci proposait de ne pas réguler les opérateurs structurellement séparés. La Commission offrait aussi un beau cadeau aux opérateurs en offrant des droits individuels d’utiliser les fréquences de 25 ans et en comptant sur le marché secondaire des fréquences pour fluidifier le tout. C’était, là encore, aller contre le sens de l’histoire, aujourd’hui que le Wi-Fi, et donc les fréquences libres, véhiculent plus de données que toutes les autres technologies confondues.
Pourtant dans ce combat pour le spectre ouvert, la Commission a défendu le partage des fréquences depuis 2012 et a fait de nombreuses propositions en faveur du partage des fréquences dans sa proposition de code. En y croyant peut-être, mais sans prendre le soin de formuler un cadre cohérent et lisible en faveur du spectre ouvert, trop certaine de se faire manger par les États membres.
Voilà quelques illustrations des mauvaises pentes sur laquelle la Commission s’était engagée contre les citoyens, contre la société numérique, contre l’innovation. Mais cela n’est presque rien en comparaison de ce que prévoit la rapporteur au Parlement européen Pilar del Castillo pour ce projet de refonte du droit des télécoms en Europe.
Le rapport« del Castillo », un projet pour monopoles privés (i.e. le cauchemar)
Pilar del Castillo est connue de nos services. Ses mandats, elle les met sans jamais faillir au service de l’industrie. Une industrie avec laquelle elle nourrit des relations privilégiées et à laquelle elle entend faire les plus beaux des cadeaux. Son rapport sur le Code est un de ceux-là.
Déterminée dans sa quête de casse européenne, Mme del Castillo n’hésite pas à creuser la brèche ouverte par la Commission. La réglementation européenne ne doit plus seulement être faite pour une oligarchie,elle doit être faite pour un monopole. Mais pas n’importe quel monopole. Les monopoles publics que l’Europe a voulu combattre lorsqu’ils étaient détenus par des États, la rapporteur entend maintenant les confier à de puissantes entreprises privées, les opérateurs historiques, ces anciens monopoles maintenant privatisés.
À cette fin, les vacances réglementaires évoquées ci-dessus sont étendues, elles sont encore plus vagues : le contrôle du régulateur en faveur d’un développement plus ou moins égalitaire des réseaux est réduit et l’idée que la fibre et un débit symétrique très élevés doivent être l’objectif est tout simplement relégué à un boulevard pour les rustines que les opérateurs puissants mettraient sur leurs réseaux de cuivre. Et bien évidemment aucun des progrès que l’on pouvait attendre de l’intervention d’une représentante des peuples européens n’est proposé.
Mais là où l’intervention de la parlementaire est sans doute la plus grave, c’est encore sur le spectre. Ce ne sont plus des droits de 25 minimums que les entreprises devront avoir sur les fréquences,lesquelles ressortent du domaine public, mais 30 ans ! 30 ans.Voilà de quoi figer l’économie européenne, voilà de quoi ériger de belles forteresses autour des rois de l’économie numérique,ces opérateurs historiques en voie de remonopolisation. Et n’oublions pas au passage l’absence de capacité d’intervention sur les droits d’utiliser le spectre confiés à ces opérateurs.Enfin, parce que les bénéfices des puissants feraient pâle figure s’ils n’étaient assortis d’une privation pour les petits, les apports instables de la Commission en faveur du spectre ouvert sont littéralement éradiqués par la rapporteur. Ne pensons surtout pas le partage. Ne pensons surtout pas l’innovation. Ne pensons surtout pas la liberté.
Sur ces ruines des télécoms en devenir, seul apport positif du rapport, la suppression des frais administratifs pour les petits opérateurs… Comme quoi, il faut toujours un petit cadeau pour ceux qui sont laissés sur le chemin.
";s:7:"content";s:8359:"
Paris, 22 mars 2017 — La rapporteur au Parlement européen sur le code européen des communications électroniques entend faire reculer l’Europe d’un pas sur le chemin d’une société du numérique libre, développée et égalitaire.
Pour comprendre de quoi il s’agit, petit retour en arrière.
Depuis 2002 la réglementation des télécoms est fondée sur des directives européennes formant ce que l’on appelle le « paquet télécom ». La deuxième révision de ce paquet (après une première en 2009) a commencé en septembre 2016 avec la publication par la Commission européenne d’un projet de code européen des communications électroniques. Ce pavé de plus d’une centaine d’articles entend refondre et faire évoluer l’actuel paquet télécom. Il est actuellement en cours de négociation au Conseil de l’Union européenne et vient de faire l’objet d’un rapport au Parlement européen. Ce rapport publié par la députée européenne Pilar del Castillo (ES - PPE) sera débattu dans les mois à venir.
Notre travail sur le paquet télécom sur le wiki
Le projet de la Commission, un projet pour l’oligarchie des télécoms
L’objectif affiché par la Commission, nous le soutenons : offrir une connectivité à très haut débit, fondée par principe sur la fibre, à l’ensemble des citoyens européens. C’est une évidence. Le chemin quant à lui, nous le discutons. Le projet de la Commission est un projet pour oligopoles, un projet pour les gros, les trois-quatre opérateurs grand public présents dans chaque pays, un projet au détriment des petits. On le savait, cette Commission ne pouvait déboucher sur un projet favorable aux citoyens. C’est d’ailleurs probablement ce qui, en dernière minute, l’a poussée à assortir ce projet de code d’une enveloppe dite « Wifi4EU », comme un dernier sursaut avant de complètement oublier les citoyens. Comme si le Wi-Fi était une question d’argent, que l’on donne du bout des doigts sous forme d’aumône, et non un ensemble de libertés à conquérir.
Dans le projet de la Commission, les citoyens ne sont pas égaux en droit. Le service universel ainsi dessiné par elle fait des personnes isolées géographiques ou dans une situation sociale difficile, des citoyens de second rang. Alors que les citoyens mainstream pourront bénéficier d’un accès à très haut débit, les citoyens bénéficiaires du « service universel » n’auront qu’un accès « fonctionnel » digne du minitel. En bref, aux citoyens des villes la société du numérique à très haut débit, aux citoyens des champs les miettes d’une économie à deux vitesses.
Aujourd’hui les réseaux sont des communs. Selon les termes mêmes de l’Arcep, les réseaux sont « une infrastructure de liberté ». La Commission le néglige en fermant la porte du marché des télécoms à tous les petits acteurs qui pourraient alimenter et faire la richesse des télécoms.
Cette fermeture du marché est tangible à de nombreux égards.
À l’opposé des exigences formulées par les réseaux communautaires et autres FAI associatifs, la Commission s’est contentée d’accorder un privilège considérable aux opérateurs puissants en enlevant toute forme de régulation aux investissant sur de nouveaux éléments de réseaux restés indéfinis. Il en allait de même lorsqu’elle celle-ci proposait de ne pas réguler les opérateurs structurellement séparés. La Commission offrait aussi un beau cadeau aux opérateurs en offrant des droits individuels d’utiliser les fréquences de 25 ans et en comptant sur le marché secondaire des fréquences pour fluidifier le tout. C’était, là encore, aller contre le sens de l’histoire, aujourd’hui que le Wi-Fi, et donc les fréquences libres, véhiculent plus de données que toutes les autres technologies confondues.
Pourtant dans ce combat pour le spectre ouvert, la Commission a défendu le partage des fréquences depuis 2012 et a fait de nombreuses propositions en faveur du partage des fréquences dans sa proposition de code. En y croyant peut-être, mais sans prendre le soin de formuler un cadre cohérent et lisible en faveur du spectre ouvert, trop certaine de se faire manger par les États membres.
Voilà quelques illustrations des mauvaises pentes sur laquelle la Commission s’était engagée contre les citoyens, contre la société numérique, contre l’innovation. Mais cela n’est presque rien en comparaison de ce que prévoit la rapporteur au Parlement européen Pilar del Castillo pour ce projet de refonte du droit des télécoms en Europe.
Le rapport« del Castillo », un projet pour monopoles privés (i.e. le cauchemar)
Pilar del Castillo est connue de nos services. Ses mandats, elle les met sans jamais faillir au service de l’industrie. Une industrie avec laquelle elle nourrit des relations privilégiées et à laquelle elle entend faire les plus beaux des cadeaux. Son rapport sur le Code est un de ceux-là.
Déterminée dans sa quête de casse européenne, Mme del Castillo n’hésite pas à creuser la brèche ouverte par la Commission. La réglementation européenne ne doit plus seulement être faite pour une oligarchie,elle doit être faite pour un monopole. Mais pas n’importe quel monopole. Les monopoles publics que l’Europe a voulu combattre lorsqu’ils étaient détenus par des États, la rapporteur entend maintenant les confier à de puissantes entreprises privées, les opérateurs historiques, ces anciens monopoles maintenant privatisés.
À cette fin, les vacances réglementaires évoquées ci-dessus sont étendues, elles sont encore plus vagues : le contrôle du régulateur en faveur d’un développement plus ou moins égalitaire des réseaux est réduit et l’idée que la fibre et un débit symétrique très élevés doivent être l’objectif est tout simplement relégué à un boulevard pour les rustines que les opérateurs puissants mettraient sur leurs réseaux de cuivre. Et bien évidemment aucun des progrès que l’on pouvait attendre de l’intervention d’une représentante des peuples européens n’est proposé.
Mais là où l’intervention de la parlementaire est sans doute la plus grave, c’est encore sur le spectre. Ce ne sont plus des droits de 25 minimums que les entreprises devront avoir sur les fréquences,lesquelles ressortent du domaine public, mais 30 ans ! 30 ans.Voilà de quoi figer l’économie européenne, voilà de quoi ériger de belles forteresses autour des rois de l’économie numérique,ces opérateurs historiques en voie de remonopolisation. Et n’oublions pas au passage l’absence de capacité d’intervention sur les droits d’utiliser le spectre confiés à ces opérateurs.Enfin, parce que les bénéfices des puissants feraient pâle figure s’ils n’étaient assortis d’une privation pour les petits, les apports instables de la Commission en faveur du spectre ouvert sont littéralement éradiqués par la rapporteur. Ne pensons surtout pas le partage. Ne pensons surtout pas l’innovation. Ne pensons surtout pas la liberté.
Sur ces ruines des télécoms en devenir, seul apport positif du rapport, la suppression des frais administratifs pour les petits opérateurs… Comme quoi, il faut toujours un petit cadeau pour ceux qui sont laissés sur le chemin.
";s:7:"dateiso";s:15:"20170322_131021";}s:15:"20170316_100905";a:7:{s:5:"title";s:84:"Lettre ouverte aux législateurs européens sur les réseaux Internet communautaires";s:4:"link";s:111:"http://www.laquadrature.net/fr/netcommons-lettre-ouverte-legislateurs-europeens-reseaux-internet-communautaires";s:4:"guid";s:36:"10183 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 16 Mar 2017 09:09:05 +0000";s:11:"description";s:18681:"
Paris, 16 mars 2017 — Aujourd'hui, plus de 25 réseaux communautaires et fournisseurs d'accès à Internet associatifs, soutenus par des organisations du monde entier, envoient une lettre aux législateurs européens. Alors que l'Union Européenne prépare une réforme majeure des législations sur les télécommunications, cette lettre formule plusieurs propositions afin de s'assurer de la pérennité du développement de ces initiatives citoyennes qui procurent une solution alternative, durable, démocratique à la gestion des infrastructures de télécommunications, pour parvenir aux objectifs des politiques publiques sur le haut débit.
Les réseaux communautaires sont des infrastructures construites dans une logique démocratique par des communautés et des organisations locales. Au vue des lacunes des politiques actuelles - comme l'échec répété des acteurs du marché à répondre aux besoins des populations défavorisées dans les zones rurales et urbaines - les réseaux communautaires sont de plus en plus considérés comme « l'autre » manière de fournir un accès à Internet abordable1.
Ils offrent actuellement bien plus qu'un accès à un Internet de haute qualité, en promouvant également l'engagement citoyen, la résilience, l’éducation, l'innovation et la base de notre souveraineté locale face aux grandes entreprises qui dominent l'économie numérique (les principes sous-tendants ces initiatives sont résumées dans la Déclaration de Guadalajara). Particulièrement en Europe, on constate une croissance continue des initiatives fédérées comme Guifi.net, Freifunk.net, FFDN et beaucoup d'autres.
Cependant, les réseaux communautaires sont systématiquement négligés par les législateurs, et leurs valeurs et modèles mis à mal par de nombreuses réglementations. Aujourd'hui, ces réseaux communautaires demandent un soutien minimum et bien mérité de la part des législateurs. Cette lettre ouverte est signée par 31 réseaux communautaires européens qui représentent plusieurs centaines de milliers de membres et connectant non seulement des citoyens, des TPE et PME, et nombre d'autres structures. Elle explique les différentes menaces auxquelles ces réseaux sont confrontés et formule des propositions pour encourager davantage de diversité dans le secteur des télécommunications.
Cette lettre va être envoyée à la Commission européenne, aux délégations des États-Membres ainsi qu'aux députés européens. Nous espérons que ces institutions se montreront ouvertes à la tenue d'un débat sur les différents sujets abordés dans cette lettre.
Pour des politiques publiques favorables aux réseaux communautaires et autres fournisseurs d'accès citoyens
Préambule
Nous représentons les réseaux communautaires européens, un mouvement d'organisations qui construisent et gèrent des infrastructures de communication, parfois fédérées au niveau régional ou national. Ces réseaux, dont la plupart offrent l'accès à l'Internet mondial, sont gérés comme des biens communs. Plutôt que la recherche du profit, notre priorité est d'assurer une gouvernance démocratique, l'inclusion sociale, l'éducation, et la protection des droits humains dans le cadre de l'usage des réseaux et des technologies de communication.
Nos organisations diffèrent grandement quant à leurs tailles, le type d'infrastructures réseaux et de cultures politiques. Pourtant, malgré cette diversité, nous partageons l'objectif de construire des réseaux qui répondent aux besoins de communication des femmes et des hommes (plutôt qu'à ceux des objets et des machines), à travers des réseaux construits et gérés par nos communautés, pour nos communautés, en donnant la priorité à la capacitation locale, à l'accessibilité et à la résilience.
Aujourd'hui, nous offrons l'accès au haut débit non seulement à des dizaines de milliers de citoyens et résidents européens en ville ou en zone rurale, mais également à des organisations, notamment des petites et moyennes entreprises, des écoles, des centres de soin, des projets sociaux et culturels, et bien d'autres structures. Dans de nombreux cas, nous avons surpassé les acteurs commerciaux, en fournissant des connexions Internet à la fois moins chères et plus rapides. Grâce à nos infrastructures et nos diverses activités, nous encourageons des expérimentations scientifiques et techniques, aidons des fournisseurs d'hébergement ou de services en ligne à mutualiser les investissements et les coûts, nous encourageons l'alphabétisation et la souveraineté numériques grâce à des ateliers et autres activités d'éducation populaire.
Pourtant, en dépit de nos réussites, les décideurs publics au niveaux nationaux et européen ont jusqu'à présent négligé notre existence et nos besoins en matière de régulation. Pire, la réglementation entrave le plus souvent nos initiatives, compliquant inutilement le travail de nos participants et bénévoles. C'est pourquoi, alors que vous entamez vos travaux sur un code européen des communications électroniques, nous avons décidé de vous écrire pour vous faire part de nos idées et de nos recommandations concernant le futur du cadre juridique et politique applicable à nos activités.
1. Alléger les contraintes administratives et financières
Tout d'abord, nous vous demandons de revoir le cadre réglementaire et de l'alléger des contraintes inutiles, telles que les charges administratives et la paperasserie qui sont inutiles et illégitimes lorsqu'elles s'appliquent à des entités non marchandes. En Belgique, le coût d'inscription d'un opérateur de télécommunications à l'agence de régulation nationale est par exemple de 676€ à l'inscription, auxquels s'ajoutent les 575€ à verser chaque année (pour ceux dont le revenu est inférieur à un million d'euros, ce qui est le cas pour l'immense majorité des réseaux communautaires). Même de faibles coûts peuvent entraver le développement de petits réseaux qui connectent des dizaines de foyers. En France, en Espagne et en Allemagne, cela est gratuit, ce qui peut expliquer pourquoi les réseaux communautaires sont plus dynamiques dans ces pays. La proposition de code des communications électroniques vise à harmoniser le coût des procédures de déclaration (frais d'inscription) ainsi que les charges administratives (coûts annuels). Dans ce cadre, les législateurs européens doivent s'assurer que les coûts et charges imposés par les agences de régulation nationales sont nuls ou négligeables pour les fournisseurs d'accès Internet non marchands, et qu'elles sont raisonnables et proportionnés pour les micro et petites entreprises. Suivant la même logique, les taxes crées pour être appliquées à de grandes firmes du secteur des telecoms ne devraient pas trouver à s'appliquer aux plus petites entreprises et au secteur non marchand.
2. Abandonner la responsabilité du fait d'autrui lors du partage d'un accès Internet
Diverses lois cherchent à empêcher ou à décourager le partage d'une connexion Internet entre plusieurs utilisateurs en rendant les personnes responsables (et potentiellement juridiquement responsables) pour toutes les communications faites à travers leurs accès wifi, créant des risques juridiques pour les titulaires d'accès qui partagent leurs connexions. En Allemagne, les ayant-droits des industries culturelles ont ainsi utilisé une doctrine de « responsabilité subsidiaire » pour freiner la croissance du mouvement des réseaux communautaires. En France aussi, le loi HADOPI relative au doit d'auteur créent un important risque juridique pour les utilisateurs qui partagent leur accès au réseau à d'autres utilisateurs. Le « simple transport », principe inscrit dans le droit communautaire depuis 2000 dans la directive sur les services de la société de l'information, doit être garanti et étendu aux réseaux sans fil locaux (WLAN) offrant librement des points d'accès. De même, les clauses contractuelles des opérateurs cherchant à interdire à leurs abonnés de partager leurs connexions avec d'autres doivent être interdites. La promotion d'un droit de partager des connexions Internet est d'autant plus vitale compte tenu des crises économiques et écologiques, ainsi que de l'augmentation rapide des populations qui ne peuvent s'offrir d'accès à Internet. Dans ce contexte, le partage des connexions peut jouer un rôle essentiel en favorisant une utilisation plus équitable et durable des infrastructures de télécommunication.
3. Étendre les communs dans le spectre hertzien
Ce ne sont pas seulement les points d'accès Internet sans fil qui peuvent être partagés, mais aussi l'infrastructure immatérielle sur laquelle les signaux radios voyagent~: les fréquences hertziennes. Le Wi-Fi, en temps que portion du spectre non-soumis à licence et par conséquent géré comme un bien commun, est un atout clef pour les réseaux communautaires désirant installer des infrastructures dites de « boucle locale » abordables et flexibles. Toutefois, la quantité des bandes Wi-Fi est actuellement très limitée. Elles sont non seulement sujette à congestion dans les zones densément peuplées, mais également menacées par de nouveaux standards techniques qui utilisent la bande de fréquence dite ISM (comme le LTE-U) et nuisent à la fiabilité des communications Wi-Fi. Enfin et surtout, les bandes de fréquence existantes pour le Wi-Fi (5.6Ghz et 2.4Ghz) ont des contraintes physiques qui les empêchent d'être utilisées pour des liens radio longue distance. Face à de tels défis, une nouvelle approche des politiques des fréquences est nécessaire. Les responsables politiques devraient étendre les bandes Wi-Fi non soumises à licence. D'autres types de fréquences doivent également être rendues accessibles soit sans licence (scénario idéal) ou, si ce n'est pas possible, sur la base d'autorisation préalables abordables et flexibles. Les bandes de fréquence concernées incluent notamment les « espaces blancs » dans les fréquences basses (qui permettent des liens longue distance peu chers et résilients), tout comme les bandes 12Ghz et 60Ghz (pour lesquelles l'équipement radio est abordable et peut nous aider à mettre en place des liens radio point-à-point à bande passante élevée). Une fois rendues accessibles aux réseaux communautaires, ces fréquences faciliteront grandement le déploiement et l'expansion d'infrastructures sans fil peu chères et résistantes.
4. Mettre à jour les règles dites d'« open access » dans les infrastructures télécom
Les réseaux construits avec l'argent public doivent eux aussi être traités comme des biens communs et, de ce fait, échapper à la mainmise d'une seule entreprise. Aujourd'hui leur gestion et leur exploitation est souvent déléguée par les pouvoirs publics à des entreprises d'opérateurs réseaux. Ces délégataires adoptent le plus souvent des schémas tarifaires conçus pour les plus gros fournisseurs d'accès, et interdisent aux plus petits acteurs de s'y interconnecter pour fournir des accès aux populations qui y sont raccordées. L'accès à ces réseaux financés publiquement doit donc être garanti aux structures sans but lucratif comme les réseaux communautaires et aux petites entreprises, à un coût raisonnable et proportionnel. De même, les réseaux communautaires n'ont souvent pas accès aux infrastructures locales privées des gros opérateurs, en dépit du fait qu'elles sont souvent la seule solution pour connecter de nouveaux adhérents . En effet, dans plusieurs marchés européens, le déploiement des réseaux de fibre optique reproduit les conditions monopolistiques sur les boucles locales/circuits locaux avec des systèmes tarifaires qui empêchent les petits acteurs d'accéder à ces réseaux privés. Les responsables politiques et régulateurs doivent donc s'assurer que toutes les zones soient couvertes par au moins un opérateur télécom fournissant une offre "bitstream" accessible aux petits acteurs.
5. Protéger le logiciel libre et la liberté de l'utilisateur dans l'équipement radio.
En 2014, l'Union européenne a adopté la directive 2014/53 sur l'équipement radio. Même si la directive poursuit des buts louables, elle risque en réalité d'entraver le développement des réseaux communautaires. Les réseaux communautaires ont généralement besoin de remplacer le logiciel installé par le constructeur dans les équipements radio par du logiciel libre spécialement conçu pour répondre à leurs besoins, un processus collectif qui améliore la sécurité et encourage le recyclage du matériel, entre autres bénéfices. L'article 3.3(i) de la-dite directive crée une pression juridique sur les constructeurs d'équipements radio afin qu'ils s'assurent de la conformité du logiciel installé sur ces appareils avec le cadre réglementaire européen. Il en résulte un fort encouragement à ce que les constructeurs verrouillent leurs appareils et empêchent les modifications par des tiers sur leurs matériels. Nous demandons dès lors aux législateurs d'introduire une exception générale pour tout logiciel libre installé sur des appareils radio par les utilisateurs finaux et opérateurs (ces derniers étant responsables si leur logiciel en cas d'infraction au cadre réglementaire), afin que les droits des utilisateurs soient sauvegardés.
6. Abroger les obligations de conservation indiscriminée des données
Les réseaux communautaires s'efforcent de protéger les droits humains dans le cadre de l'exploitation des réseaux de communication, et en particulier le droit à la vie privée et la confidentialité de la communication. À ce titre, nous nous félicitons des récentes décisions de la Cour de justice de l'Union européenne selon lesquelles la conservation généralisée des données de connexion viole la Charte des droits fondamentaux. Toutefois, nous sommes très préoccupés par la volonté de plusieurs États membres de contourner ces décisions pour protéger les capacités de surveillance généralisée. Alors que les législateurs de l'Union européenne commencent à discuter de la refonte de la directive ePrivacy sur la protection de la vie privée, nous les invitons à s'opposer à toute obligation générale et indifférenciée de conservation des données, et à combler les lacunes du droit communautaire afin de s'assurer que seules des obligation de conservation limitées dans le temps et ciblant des personnes pour lesquelles existe un soupçon légitime de lien avec une infraction pénale grave, puissent être imposées aux hébergeurs et fournisseurs d'accès.
7. Apporter un soutien public direct et ciblé
D'innombrables autres politiques peuvent contribuer à soutenir le développement des réseaux communautaires et renforcer les bénéfices significatifs qu'induisent leur modèles. De telles politiques incluent notamment l'octroi de petites bourses, de financements participatifs ou de subventions pour aider nos groupes à acheter des serveurs et des équipements radio, à communiquer autour de leur initiative ; le fait de leur faciliter l'accès à des infrastructures publiques (par exemple, le toit d'un immeuble public pour installer une antenne) ; le soutien publiques à leurs recherches sur la transmission radio, les méthodes de routage, le logiciel ou le chiffrement. Comme de nombreuses collectivités locales ont pu le constater, le soutien aux réseaux communautaires est une bonne option. Alors que les législateurs de l'UE avancent sur le projet WiFi4EU, nous tenons à vous rappeler que nous avons été les pionniers de la fourniture de points d'accès publics gratuits. Nous pensons que les fonds publics investis dans cette initiative devraient avant tout s'adresser à des groupes qui poursuivent une logique vertueuse de création de groupes locaux, capables de favoriser l'autonomisation et la cohésion des communautés locales, encourager une plus grande diversité d'acteurs et donc la concurrence, et d'atteindre les mêmes objectifs politiques pour une fraction du coût facturé par les opérateurs de télécommunications traditionnels.
8. Ouvrir le processus d'élaboration des politiques publiques en matière télécom aux réseaux communautaires
Bien que nous ayons réussi à tisser des partenariats avec les municipalités et les autorités publiques locales, nous demandons aux régulateurs nationaux et européens d'accorder plus d'attention à nos activités lors de la rédaction de la réglementation. Les réseaux communautaires disposent à la fois de l'expertise et de la légitimité pour prendre pleinement part aux débats techniques et juridiques sur la politique de déploiements des réseaux télécoms, dans laquelle les FAI traditionnels et commerciaux sont surreprésentés. Les réseaux communautaires peuvent apporter une vision éclairée à ces débats, et permettre un processus d'élaboration des politiques publiques plus adaptées à l'intérêt général.
Vous remerciant pour votre attention, nous sommes impatient de pouvoir discuter plus avant avec vous des ces importants sujets.
Cette lettre a déjà été envoyée, mais si vous êtes voulez la soutenir et participer aux prochains points, vous pouvez envoyer votre signature à advocacy@netcommons.eu.
Paris, 16 mars 2017 — Aujourd'hui, plus de 25 réseaux communautaires et fournisseurs d'accès à Internet associatifs, soutenus par des organisations du monde entier, envoient une lettre aux législateurs européens. Alors que l'Union Européenne prépare une réforme majeure des législations sur les télécommunications, cette lettre formule plusieurs propositions afin de s'assurer de la pérennité du développement de ces initiatives citoyennes qui procurent une solution alternative, durable, démocratique à la gestion des infrastructures de télécommunications, pour parvenir aux objectifs des politiques publiques sur le haut débit.
Les réseaux communautaires sont des infrastructures construites dans une logique démocratique par des communautés et des organisations locales. Au vue des lacunes des politiques actuelles - comme l'échec répété des acteurs du marché à répondre aux besoins des populations défavorisées dans les zones rurales et urbaines - les réseaux communautaires sont de plus en plus considérés comme « l'autre » manière de fournir un accès à Internet abordable1.
Ils offrent actuellement bien plus qu'un accès à un Internet de haute qualité, en promouvant également l'engagement citoyen, la résilience, l’éducation, l'innovation et la base de notre souveraineté locale face aux grandes entreprises qui dominent l'économie numérique (les principes sous-tendants ces initiatives sont résumées dans la Déclaration de Guadalajara). Particulièrement en Europe, on constate une croissance continue des initiatives fédérées comme Guifi.net, Freifunk.net, FFDN et beaucoup d'autres.
Cependant, les réseaux communautaires sont systématiquement négligés par les législateurs, et leurs valeurs et modèles mis à mal par de nombreuses réglementations. Aujourd'hui, ces réseaux communautaires demandent un soutien minimum et bien mérité de la part des législateurs. Cette lettre ouverte est signée par 31 réseaux communautaires européens qui représentent plusieurs centaines de milliers de membres et connectant non seulement des citoyens, des TPE et PME, et nombre d'autres structures. Elle explique les différentes menaces auxquelles ces réseaux sont confrontés et formule des propositions pour encourager davantage de diversité dans le secteur des télécommunications.
Cette lettre va être envoyée à la Commission européenne, aux délégations des États-Membres ainsi qu'aux députés européens. Nous espérons que ces institutions se montreront ouvertes à la tenue d'un débat sur les différents sujets abordés dans cette lettre.
Pour des politiques publiques favorables aux réseaux communautaires et autres fournisseurs d'accès citoyens
Préambule
Nous représentons les réseaux communautaires européens, un mouvement d'organisations qui construisent et gèrent des infrastructures de communication, parfois fédérées au niveau régional ou national. Ces réseaux, dont la plupart offrent l'accès à l'Internet mondial, sont gérés comme des biens communs. Plutôt que la recherche du profit, notre priorité est d'assurer une gouvernance démocratique, l'inclusion sociale, l'éducation, et la protection des droits humains dans le cadre de l'usage des réseaux et des technologies de communication.
Nos organisations diffèrent grandement quant à leurs tailles, le type d'infrastructures réseaux et de cultures politiques. Pourtant, malgré cette diversité, nous partageons l'objectif de construire des réseaux qui répondent aux besoins de communication des femmes et des hommes (plutôt qu'à ceux des objets et des machines), à travers des réseaux construits et gérés par nos communautés, pour nos communautés, en donnant la priorité à la capacitation locale, à l'accessibilité et à la résilience.
Aujourd'hui, nous offrons l'accès au haut débit non seulement à des dizaines de milliers de citoyens et résidents européens en ville ou en zone rurale, mais également à des organisations, notamment des petites et moyennes entreprises, des écoles, des centres de soin, des projets sociaux et culturels, et bien d'autres structures. Dans de nombreux cas, nous avons surpassé les acteurs commerciaux, en fournissant des connexions Internet à la fois moins chères et plus rapides. Grâce à nos infrastructures et nos diverses activités, nous encourageons des expérimentations scientifiques et techniques, aidons des fournisseurs d'hébergement ou de services en ligne à mutualiser les investissements et les coûts, nous encourageons l'alphabétisation et la souveraineté numériques grâce à des ateliers et autres activités d'éducation populaire.
Pourtant, en dépit de nos réussites, les décideurs publics au niveaux nationaux et européen ont jusqu'à présent négligé notre existence et nos besoins en matière de régulation. Pire, la réglementation entrave le plus souvent nos initiatives, compliquant inutilement le travail de nos participants et bénévoles. C'est pourquoi, alors que vous entamez vos travaux sur un code européen des communications électroniques, nous avons décidé de vous écrire pour vous faire part de nos idées et de nos recommandations concernant le futur du cadre juridique et politique applicable à nos activités.
1. Alléger les contraintes administratives et financières
Tout d'abord, nous vous demandons de revoir le cadre réglementaire et de l'alléger des contraintes inutiles, telles que les charges administratives et la paperasserie qui sont inutiles et illégitimes lorsqu'elles s'appliquent à des entités non marchandes. En Belgique, le coût d'inscription d'un opérateur de télécommunications à l'agence de régulation nationale est par exemple de 676€ à l'inscription, auxquels s'ajoutent les 575€ à verser chaque année (pour ceux dont le revenu est inférieur à un million d'euros, ce qui est le cas pour l'immense majorité des réseaux communautaires). Même de faibles coûts peuvent entraver le développement de petits réseaux qui connectent des dizaines de foyers. En France, en Espagne et en Allemagne, cela est gratuit, ce qui peut expliquer pourquoi les réseaux communautaires sont plus dynamiques dans ces pays. La proposition de code des communications électroniques vise à harmoniser le coût des procédures de déclaration (frais d'inscription) ainsi que les charges administratives (coûts annuels). Dans ce cadre, les législateurs européens doivent s'assurer que les coûts et charges imposés par les agences de régulation nationales sont nuls ou négligeables pour les fournisseurs d'accès Internet non marchands, et qu'elles sont raisonnables et proportionnés pour les micro et petites entreprises. Suivant la même logique, les taxes crées pour être appliquées à de grandes firmes du secteur des telecoms ne devraient pas trouver à s'appliquer aux plus petites entreprises et au secteur non marchand.
2. Abandonner la responsabilité du fait d'autrui lors du partage d'un accès Internet
Diverses lois cherchent à empêcher ou à décourager le partage d'une connexion Internet entre plusieurs utilisateurs en rendant les personnes responsables (et potentiellement juridiquement responsables) pour toutes les communications faites à travers leurs accès wifi, créant des risques juridiques pour les titulaires d'accès qui partagent leurs connexions. En Allemagne, les ayant-droits des industries culturelles ont ainsi utilisé une doctrine de « responsabilité subsidiaire » pour freiner la croissance du mouvement des réseaux communautaires. En France aussi, le loi HADOPI relative au doit d'auteur créent un important risque juridique pour les utilisateurs qui partagent leur accès au réseau à d'autres utilisateurs. Le « simple transport », principe inscrit dans le droit communautaire depuis 2000 dans la directive sur les services de la société de l'information, doit être garanti et étendu aux réseaux sans fil locaux (WLAN) offrant librement des points d'accès. De même, les clauses contractuelles des opérateurs cherchant à interdire à leurs abonnés de partager leurs connexions avec d'autres doivent être interdites. La promotion d'un droit de partager des connexions Internet est d'autant plus vitale compte tenu des crises économiques et écologiques, ainsi que de l'augmentation rapide des populations qui ne peuvent s'offrir d'accès à Internet. Dans ce contexte, le partage des connexions peut jouer un rôle essentiel en favorisant une utilisation plus équitable et durable des infrastructures de télécommunication.
3. Étendre les communs dans le spectre hertzien
Ce ne sont pas seulement les points d'accès Internet sans fil qui peuvent être partagés, mais aussi l'infrastructure immatérielle sur laquelle les signaux radios voyagent~: les fréquences hertziennes. Le Wi-Fi, en temps que portion du spectre non-soumis à licence et par conséquent géré comme un bien commun, est un atout clef pour les réseaux communautaires désirant installer des infrastructures dites de « boucle locale » abordables et flexibles. Toutefois, la quantité des bandes Wi-Fi est actuellement très limitée. Elles sont non seulement sujette à congestion dans les zones densément peuplées, mais également menacées par de nouveaux standards techniques qui utilisent la bande de fréquence dite ISM (comme le LTE-U) et nuisent à la fiabilité des communications Wi-Fi. Enfin et surtout, les bandes de fréquence existantes pour le Wi-Fi (5.6Ghz et 2.4Ghz) ont des contraintes physiques qui les empêchent d'être utilisées pour des liens radio longue distance. Face à de tels défis, une nouvelle approche des politiques des fréquences est nécessaire. Les responsables politiques devraient étendre les bandes Wi-Fi non soumises à licence. D'autres types de fréquences doivent également être rendues accessibles soit sans licence (scénario idéal) ou, si ce n'est pas possible, sur la base d'autorisation préalables abordables et flexibles. Les bandes de fréquence concernées incluent notamment les « espaces blancs » dans les fréquences basses (qui permettent des liens longue distance peu chers et résilients), tout comme les bandes 12Ghz et 60Ghz (pour lesquelles l'équipement radio est abordable et peut nous aider à mettre en place des liens radio point-à-point à bande passante élevée). Une fois rendues accessibles aux réseaux communautaires, ces fréquences faciliteront grandement le déploiement et l'expansion d'infrastructures sans fil peu chères et résistantes.
4. Mettre à jour les règles dites d'« open access » dans les infrastructures télécom
Les réseaux construits avec l'argent public doivent eux aussi être traités comme des biens communs et, de ce fait, échapper à la mainmise d'une seule entreprise. Aujourd'hui leur gestion et leur exploitation est souvent déléguée par les pouvoirs publics à des entreprises d'opérateurs réseaux. Ces délégataires adoptent le plus souvent des schémas tarifaires conçus pour les plus gros fournisseurs d'accès, et interdisent aux plus petits acteurs de s'y interconnecter pour fournir des accès aux populations qui y sont raccordées. L'accès à ces réseaux financés publiquement doit donc être garanti aux structures sans but lucratif comme les réseaux communautaires et aux petites entreprises, à un coût raisonnable et proportionnel. De même, les réseaux communautaires n'ont souvent pas accès aux infrastructures locales privées des gros opérateurs, en dépit du fait qu'elles sont souvent la seule solution pour connecter de nouveaux adhérents . En effet, dans plusieurs marchés européens, le déploiement des réseaux de fibre optique reproduit les conditions monopolistiques sur les boucles locales/circuits locaux avec des systèmes tarifaires qui empêchent les petits acteurs d'accéder à ces réseaux privés. Les responsables politiques et régulateurs doivent donc s'assurer que toutes les zones soient couvertes par au moins un opérateur télécom fournissant une offre "bitstream" accessible aux petits acteurs.
5. Protéger le logiciel libre et la liberté de l'utilisateur dans l'équipement radio.
En 2014, l'Union européenne a adopté la directive 2014/53 sur l'équipement radio. Même si la directive poursuit des buts louables, elle risque en réalité d'entraver le développement des réseaux communautaires. Les réseaux communautaires ont généralement besoin de remplacer le logiciel installé par le constructeur dans les équipements radio par du logiciel libre spécialement conçu pour répondre à leurs besoins, un processus collectif qui améliore la sécurité et encourage le recyclage du matériel, entre autres bénéfices. L'article 3.3(i) de la-dite directive crée une pression juridique sur les constructeurs d'équipements radio afin qu'ils s'assurent de la conformité du logiciel installé sur ces appareils avec le cadre réglementaire européen. Il en résulte un fort encouragement à ce que les constructeurs verrouillent leurs appareils et empêchent les modifications par des tiers sur leurs matériels. Nous demandons dès lors aux législateurs d'introduire une exception générale pour tout logiciel libre installé sur des appareils radio par les utilisateurs finaux et opérateurs (ces derniers étant responsables si leur logiciel en cas d'infraction au cadre réglementaire), afin que les droits des utilisateurs soient sauvegardés.
6. Abroger les obligations de conservation indiscriminée des données
Les réseaux communautaires s'efforcent de protéger les droits humains dans le cadre de l'exploitation des réseaux de communication, et en particulier le droit à la vie privée et la confidentialité de la communication. À ce titre, nous nous félicitons des récentes décisions de la Cour de justice de l'Union européenne selon lesquelles la conservation généralisée des données de connexion viole la Charte des droits fondamentaux. Toutefois, nous sommes très préoccupés par la volonté de plusieurs États membres de contourner ces décisions pour protéger les capacités de surveillance généralisée. Alors que les législateurs de l'Union européenne commencent à discuter de la refonte de la directive ePrivacy sur la protection de la vie privée, nous les invitons à s'opposer à toute obligation générale et indifférenciée de conservation des données, et à combler les lacunes du droit communautaire afin de s'assurer que seules des obligation de conservation limitées dans le temps et ciblant des personnes pour lesquelles existe un soupçon légitime de lien avec une infraction pénale grave, puissent être imposées aux hébergeurs et fournisseurs d'accès.
7. Apporter un soutien public direct et ciblé
D'innombrables autres politiques peuvent contribuer à soutenir le développement des réseaux communautaires et renforcer les bénéfices significatifs qu'induisent leur modèles. De telles politiques incluent notamment l'octroi de petites bourses, de financements participatifs ou de subventions pour aider nos groupes à acheter des serveurs et des équipements radio, à communiquer autour de leur initiative ; le fait de leur faciliter l'accès à des infrastructures publiques (par exemple, le toit d'un immeuble public pour installer une antenne) ; le soutien publiques à leurs recherches sur la transmission radio, les méthodes de routage, le logiciel ou le chiffrement. Comme de nombreuses collectivités locales ont pu le constater, le soutien aux réseaux communautaires est une bonne option. Alors que les législateurs de l'UE avancent sur le projet WiFi4EU, nous tenons à vous rappeler que nous avons été les pionniers de la fourniture de points d'accès publics gratuits. Nous pensons que les fonds publics investis dans cette initiative devraient avant tout s'adresser à des groupes qui poursuivent une logique vertueuse de création de groupes locaux, capables de favoriser l'autonomisation et la cohésion des communautés locales, encourager une plus grande diversité d'acteurs et donc la concurrence, et d'atteindre les mêmes objectifs politiques pour une fraction du coût facturé par les opérateurs de télécommunications traditionnels.
8. Ouvrir le processus d'élaboration des politiques publiques en matière télécom aux réseaux communautaires
Bien que nous ayons réussi à tisser des partenariats avec les municipalités et les autorités publiques locales, nous demandons aux régulateurs nationaux et européens d'accorder plus d'attention à nos activités lors de la rédaction de la réglementation. Les réseaux communautaires disposent à la fois de l'expertise et de la légitimité pour prendre pleinement part aux débats techniques et juridiques sur la politique de déploiements des réseaux télécoms, dans laquelle les FAI traditionnels et commerciaux sont surreprésentés. Les réseaux communautaires peuvent apporter une vision éclairée à ces débats, et permettre un processus d'élaboration des politiques publiques plus adaptées à l'intérêt général.
Vous remerciant pour votre attention, nous sommes impatient de pouvoir discuter plus avant avec vous des ces importants sujets.
Cette lettre a déjà été envoyée, mais si vous êtes voulez la soutenir et participer aux prochains points, vous pouvez envoyer votre signature à advocacy@netcommons.eu.
";s:7:"dateiso";s:15:"20170316_100905";}s:15:"20170306_172053";a:7:{s:5:"title";s:91:"Filtrage automatisé des plateformes : La Quadrature envoie ses arguments aux eurodéputés";s:4:"link";s:69:"http://www.laquadrature.net/fr/argument-filtrage-automatis%C3%A9-MEPs";s:4:"guid";s:36:"10178 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Mar 2017 16:20:53 +0000";s:11:"description";s:16226:"
Paris, le 7 mars 2017 — Le projet de directive européenne sur la réforme du droit d'auteur a été présenté en septembre 2016. À cette heure, les travaux qui se déroulent au Parlement européen et les mobilisations d'acteurs concernés à l'extérieur se multiplient, faisant notamment une part importante aux deux articles que La Quadrature du Net a pointés dès septembre : l'article 11 sur la création d'un droit voisin pour les éditeurs de presse, et l'article 13 sur l'obligation de détection automatique de contenus illicites sur les plateformes de partage de contenus.
La Quadrature du Net publie des positions sur l'article 13 qui ont été nourries de discussions et d'ateliers menés avec des créateurs, des juristes et globalement avec des acteurs quotidiens des pratiques culturelles numériques. Elles sont aussi adressées aux eurodéputés afin de nourrir le travail effectué dans les diverses commissions. Les premiers travaux des commissions du Parlement européen montrent que, contrairement à ce que l'on aurait pu croire, rien n'est encore joué sur ce dossier du droit d'auteur. Les articles 11 et 13 font l'objet de nombreuses discussions et plusieurs propositions des eurodéputés montrent même une réelle prise en compte de l'évolution des usages.
L’article 13 porte sur l’utilisation de contenus protégés par des services Internet qui stockent et donnent accès à un grand nombre d’œuvres et d’autres objets protégés chargés par leurs utilisateurs. Il prévoit que les prestataires de services prennent des mesures pour faire respecter leurs accords avec les titulaires de droits,notamment « le recours à des techniques efficaces de reconnaissance des contenus ».
La Quadrature du Net, au terme d'une série d'ateliers et de rencontres, a choisi de développer son argumentaire d'opposition à l'article 13 en prenant plusieurs approches : une approche strictement orientée vers les questions de droit et libertés, une seconde approche visant à montrer que cet article sera contre-productif pour la création et les créateurs, une dernière mettant en évidence l'absence de résolution du transfert de valeur entre plateformes et créateurs, et l'incompatibilité avec le régime actuel des hébergeurs de contenu.
La détection automatique de contenus illicites, une lourde atteinte aux principes du droit
Inversion de la charge de la preuve
Dans un premier temps, cet article inverse la charge de la preuve : au lieu d’exiger de l'ayants-droit qu’il prouve qu'il y a eu utilisation illicite de son œuvre, il impose à l'internaute qui a mis en ligne un contenu de prouver, après suppression automatique, que son contenu ne violait pas les droits d'autrui. Ce mécanisme risque de porter gravement atteinte à la liberté d'expression et de création.
Le caractère automatique de la sanction décourage de tout recours et prive du droit au procès équitable qui sous-tend les principes du droit.
Rien n'est indiqué dans la directive pour obliger les plateformes à tenir compte des réclamations faites ou mettre en place des procédures d'appel (mise à part une vague obligation « d'adéquation et de proportionnalité » et la mention d’un dispositif de plainte sans garantie).
Rupture d’égalité
De même, cette mesure crée une rupture d'égalité forte devant la justice : alors que les ayants-droit n'ont pas à intenter d'action judiciaire pour faire supprimer des contenus, les éditeurs dont les contenus ont été abusivement supprimés doivent, eux, supporter la charge d'une action judiciaire pour faire valoir leurs droits à posteriori.
Autre rupture d'égalité, celle qui ne manquera de se construire entre les ayants-droit qui seront assez riches pour avoir marqué l'ensemble ou une grande part de leur catalogue de façon à ce que les robots puissent détecter les réutilisations, et ceux qui ne pourront le faire : si cette automatisation du retrait de contenu illicite devient la norme, alors seuls ceux capables de supporter le coût de cette automatisation pourront faire valoir leurs droits. Les plateformes n’ayant pas reçu d’empreintes des ayants-droit seront-elles tenues de mettre tout de même en place les outils de détection ? Est-ce que l’absence de ces outils entraînera une illégalité de fait de ces plateformes ?
Si la situation n’est pas claire, il y aura de lourdes entraves à la concurrence dans le sens où les ayants-droit pourraient se trouver en position de juges des plateformes qu'ils estiment légitimes et qui peuvent, ou non, exister.
Contrôle des outils de détection de contenus illicites
La question du contrôle des robots est également cruciale : qui contrôlera ces robots, vérifiera leurs paramétrages ? Qui pourra certifier que ces robots auront la finesse d'analyse nécessaire pour distinguer la reprise illicite d'une œuvre et son détournement en parodie ? Qui pourra valider qu'il n'y aura pas d'abus, pas d'excès, pas d'interprétation abusive du droit d'auteur ? Au vu du fonctionnement de ce type de robots pour des plateformes de vidéo (Youtube), il est d'ores et déjà prouvé que ces robots font de nombreuses erreurs.
Parmi ces erreurs, il a par exemple déjà été constaté que les ayants-droit qui posent des empreintes sur des œuvres peuvent se réapproprier eux-mêmes les oeuvres d'autres auteurs, et priver ceux-ci du libre choix de publication de leur création.
Au vu de ces nombreux points d'inquiétude, nous préconisons de refuser la systématisation de ce procédé de détection d’œuvres protégées sur les plateformes de contenu, sous peine d'alourdir considérablement le régime juridique de la publication sur Internet et de mettre en place une inflation des atteintes aux droits fondamentaux.
L'article 13 de la directive droit d'auteur : une menace pour la création
Une censure incapable de repérer les exceptions légitimes au droit d’auteur
Les outils de censure automatique sont, par nature, incapables de discerner lors de la réutilisation d'une œuvre, s'il s'agit d'une simple copie sans ajout, ou bien d'une parodie, d'une critique ou d'un remix (entre autres possibilités de reprise légitimes et légales d'un extrait d’œuvre protégée). Toute la culture qui repose sur l'utilisation d'autres œuvres pour alimenter la création est donc niée et fortement mise en danger par ce type de mesure.
Or, la culture transformative est extrêmement présente dans les nouveaux usages et services qui sont visés par cet article. Y porter atteinte de façon indifférenciée comme l'article 13 le demande, c'est donc mettre en péril une part très importante de la création audio et vidéo actuelle.
Cette création transformative ou qui utilise des extraits d'autres œuvres est une part de l'écosystème culturel global qui ne peut être supprimée sans conséquences. Par exemple, le rôle de vulgarisation scientifique et de partage de culture générale exercé par de nombreux créateurs de vidéos, qui rassemblent plusieurs centaines de milliers de visiteurs à chaque publication, participant ainsi à la vitalité de la création culturelle et éducative notamment auprès d'un public jeune qui s'informe et se cultive plus volontiers sur Youtube que via des relais traditionnels.
Des conflits prévisibles entre titulaires de droits, une négation du créateur amateur
Par ailleurs, cette disposition pourrait avoir des répercussions négatives pour les œuvres qui sont diffusées sous licence libre, ou qui sont entrées dans le domaine public. L'expérience du robot de détection d’œuvres protégées sur Youtube a fait apparaître de nombreux conflits entre titulaires de droits, qui promet un contentieux important, et par ricochet une modification des conditions de création, les créateurs ne pouvant être assurés de contrôler comme ils le souhaitent la diffusion de leurs œuvres. L'autopromotion d'artistes deviendra pratiquement impossible, puisqu'elle repose sur la diffusion d’œuvres contrôlée par l'artiste ou ses agents. Comment faire sortir une œuvre des empreintes de l'outil de détection, lorsqu'elle est volontairement diffusée ?
En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s'il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d’œuvres à « protéger » sur les plateformes de partage. Cette logique est contraire aux principes du droit d'auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.
Le projet de directive ne propose aucune garantie pour assurer une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n'est imposée par la directive. Il ne prend non plus en compte la territorialisation du droit, et les différences géographiques d'exercice du droit d'auteur, mettant les créateurs et utilisateurs dans une situation d'insécurité juridique permanente.
Cette disposition qui se veut protectrice pour les créateurs est en fait une voie de restriction des capacités de création et de diffusion, et n'apporte strictement aucun avantage aux créateurs eux-mêmes. Elle risque en outre de pousser à la création d'une culture hors-la-loi, qui se transfèrera vers des plateformes privées ou cachées, puisque les pratiques qui sont visées ne vont pas disparaître (elles sont trop massivement pratiquées par les internautes), mais seulement disparaître de la face visible d'Internet et décourager ainsi le renouvellement des générations de créateurs. Pour donner un exemple du transfert des pratiques, il suffit de regarder le résultat d'Hadopi en France, qui à sa création en 2008 ambitionnait de résoudre la question du partage d’œuvres illicite en ligne, et qui en 2015 ne concerne que 9% des téléchargements de musique.
Pour répondre réellement aux nouvelles pratiques culturelles, il faudrait plutôt intégrer dans la directive les propositions des commissions IMCO et CULT : une exception de citation élargie aux œuvres audiovisuelles (commission CULT) et une exception permettant les usages transformatifs (commission IMCO). Ce serait une avancée significative dans l'adaptation du droit d'auteur aux usages actuels.
L'article 13 entre en conflit avec le statut de l'hébergeur et ne règle pas la question du transfert de valeur
Incompatibilité avec la directive « Commerce électronique » et le statut de l'hébergeur
En demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, cet article porte lourdement atteinte aux principes du droit. Mais au-delà, cela pose de nombreux problèmes de compatibilité avec la directive sur le commerce électronique de 2000 qui régit la plus grande part des responsabilités respectives des acteurs de l'Internet, et met en péril de nombreux équilibres, sans apporter en lui-même de solution au problème du transfert de valeur.
La directive « commerce électronique » de 2000 n'impose aucune obligation de surveillance préalable des contenus pour les hébergeurs de services de partage de contenus en ligne. Il est impossible d'imaginer pouvoir concilier l'obligation générale d'installation d'outils de détection de contenus illicites avec cette absence de responsabilité a priori des hébergeurs sur le contenu, mise en place à l’époque pour permettre le développement de nouveaux services. C’est cet équilibre qui a permis, depuis 15 ans, de sécuriser juridiquement les hébergeurs de contenu. D’éventuelles corrections de ce statut ne peuvent se faire au détour d’une directive sur le droit d’auteur et sans consultation globale préalable.
Un dispositif qui ne résout pas le problème du transfert de valeur
En supprimant les contenus, la problématique du transfert de valeur n’est pas résolue puisque cela n’entraîne aucune rémunération du créateur. Pire, les créateurs sont privés de la visibilité qu'apporte l'exposition, y compris illégale, de leurs œuvres sur Internet. La capacité de rémunération disparaît en cas de suppression et le dispositif de contrôle des contenus illicites ne peut jouer de rôle de redistribution et donc répondre à son objectif initial.
Internet est devenu une ressource publicitaire majeure. Nous souhaiterions soutenir d’autres modèles économiques que celui des revenus publicitaires, mais il peut au moins servir de base au règlement du problème de transfert de valeur plus efficacement que la suppression des contenus. Des mesures fiscales plus globales pourraient être envisagées : harmonisation fiscale européenne ou règlement de la question de la territorialisation des impôts pour les entreprises étrangères exerçant en Europe, changement de taux de rémunération sur les publicités ou le revenu général des plateformes etc. La question du différentiel de revenus entre plateformes et créateurs ne peut être réglée qu'en traitant des problématiques de répartition, avec une vraie acceptation des nouvelles pratiques de partage par les sociétés de gestion collective de droits.
Inégalités économiques entre plateformes
L'obligation générale de mise en place d'outils de détection automatique de contenus illicites va générer une forte inégalité entre plateformes : le développement ou l'achat de ce type de solutions est extrêmement coûteux. Les quelques entreprises qui sont actuellement en mesure de développer des outils performants de détection de contenus illicites sont elles-mêmes actrices sur le marché des contenus numériques et vont prendre un ascendant et mettre sous dépendance forte les plus petits acteurs qui devront leur acheter ou louer les services de leurs outils.
L'inflation probable du contentieux liée aux erreurs inévitables des outils est également source de coûts supplémentaires. Ce sont les grosses plateformes déjà existantes, pour beaucoup extra-européennes, qui vont donc être en mesure de conserver une qualité de service acceptable et d'être en règle avec la détection automatique de contenus illicites, alors que les petites structures ou les nouveaux entrants vont avoir un coût à assumer bien plus important, voire totalement rédhibitoire.
Paradoxalement, cette mesure risque de favoriser le monopole des GAFA et de tuer l'émergence d'acteurs européens, en faisant monter de façon disproportionnée le coût d'accès au marché ou les risques financiers imprévisibles en cas de création d'un service de partage de contenu. Il s'agit vraiment de savoir quel modèle économique nous voulons favoriser au sein de l'Union européenne.
La Quadrature du Net engage les eurodéputés des différentes commissions impliquées au fond et pour avis dans le travail sur la directive à tenir compte des nombreux problèmes évoqués dans cette analyse, et à supprimer purement et simplement l'article 13. Des propositions émergent des commissions pour adapter intelligemment le droit d'auteur à l'ère numérique, il serait plus profitable de les soutenir et les améliorer afin que cette réforme du droit d'auteur puisse prendre toute l'ambition qu'elle mérite et engage créateurs et utilisateurs dans une nouvelle dynamique profitable à tous.
";s:7:"content";s:16226:"
Paris, le 7 mars 2017 — Le projet de directive européenne sur la réforme du droit d'auteur a été présenté en septembre 2016. À cette heure, les travaux qui se déroulent au Parlement européen et les mobilisations d'acteurs concernés à l'extérieur se multiplient, faisant notamment une part importante aux deux articles que La Quadrature du Net a pointés dès septembre : l'article 11 sur la création d'un droit voisin pour les éditeurs de presse, et l'article 13 sur l'obligation de détection automatique de contenus illicites sur les plateformes de partage de contenus.
La Quadrature du Net publie des positions sur l'article 13 qui ont été nourries de discussions et d'ateliers menés avec des créateurs, des juristes et globalement avec des acteurs quotidiens des pratiques culturelles numériques. Elles sont aussi adressées aux eurodéputés afin de nourrir le travail effectué dans les diverses commissions. Les premiers travaux des commissions du Parlement européen montrent que, contrairement à ce que l'on aurait pu croire, rien n'est encore joué sur ce dossier du droit d'auteur. Les articles 11 et 13 font l'objet de nombreuses discussions et plusieurs propositions des eurodéputés montrent même une réelle prise en compte de l'évolution des usages.
L’article 13 porte sur l’utilisation de contenus protégés par des services Internet qui stockent et donnent accès à un grand nombre d’œuvres et d’autres objets protégés chargés par leurs utilisateurs. Il prévoit que les prestataires de services prennent des mesures pour faire respecter leurs accords avec les titulaires de droits,notamment « le recours à des techniques efficaces de reconnaissance des contenus ».
La Quadrature du Net, au terme d'une série d'ateliers et de rencontres, a choisi de développer son argumentaire d'opposition à l'article 13 en prenant plusieurs approches : une approche strictement orientée vers les questions de droit et libertés, une seconde approche visant à montrer que cet article sera contre-productif pour la création et les créateurs, une dernière mettant en évidence l'absence de résolution du transfert de valeur entre plateformes et créateurs, et l'incompatibilité avec le régime actuel des hébergeurs de contenu.
La détection automatique de contenus illicites, une lourde atteinte aux principes du droit
Inversion de la charge de la preuve
Dans un premier temps, cet article inverse la charge de la preuve : au lieu d’exiger de l'ayants-droit qu’il prouve qu'il y a eu utilisation illicite de son œuvre, il impose à l'internaute qui a mis en ligne un contenu de prouver, après suppression automatique, que son contenu ne violait pas les droits d'autrui. Ce mécanisme risque de porter gravement atteinte à la liberté d'expression et de création.
Le caractère automatique de la sanction décourage de tout recours et prive du droit au procès équitable qui sous-tend les principes du droit.
Rien n'est indiqué dans la directive pour obliger les plateformes à tenir compte des réclamations faites ou mettre en place des procédures d'appel (mise à part une vague obligation « d'adéquation et de proportionnalité » et la mention d’un dispositif de plainte sans garantie).
Rupture d’égalité
De même, cette mesure crée une rupture d'égalité forte devant la justice : alors que les ayants-droit n'ont pas à intenter d'action judiciaire pour faire supprimer des contenus, les éditeurs dont les contenus ont été abusivement supprimés doivent, eux, supporter la charge d'une action judiciaire pour faire valoir leurs droits à posteriori.
Autre rupture d'égalité, celle qui ne manquera de se construire entre les ayants-droit qui seront assez riches pour avoir marqué l'ensemble ou une grande part de leur catalogue de façon à ce que les robots puissent détecter les réutilisations, et ceux qui ne pourront le faire : si cette automatisation du retrait de contenu illicite devient la norme, alors seuls ceux capables de supporter le coût de cette automatisation pourront faire valoir leurs droits. Les plateformes n’ayant pas reçu d’empreintes des ayants-droit seront-elles tenues de mettre tout de même en place les outils de détection ? Est-ce que l’absence de ces outils entraînera une illégalité de fait de ces plateformes ?
Si la situation n’est pas claire, il y aura de lourdes entraves à la concurrence dans le sens où les ayants-droit pourraient se trouver en position de juges des plateformes qu'ils estiment légitimes et qui peuvent, ou non, exister.
Contrôle des outils de détection de contenus illicites
La question du contrôle des robots est également cruciale : qui contrôlera ces robots, vérifiera leurs paramétrages ? Qui pourra certifier que ces robots auront la finesse d'analyse nécessaire pour distinguer la reprise illicite d'une œuvre et son détournement en parodie ? Qui pourra valider qu'il n'y aura pas d'abus, pas d'excès, pas d'interprétation abusive du droit d'auteur ? Au vu du fonctionnement de ce type de robots pour des plateformes de vidéo (Youtube), il est d'ores et déjà prouvé que ces robots font de nombreuses erreurs.
Parmi ces erreurs, il a par exemple déjà été constaté que les ayants-droit qui posent des empreintes sur des œuvres peuvent se réapproprier eux-mêmes les oeuvres d'autres auteurs, et priver ceux-ci du libre choix de publication de leur création.
Au vu de ces nombreux points d'inquiétude, nous préconisons de refuser la systématisation de ce procédé de détection d’œuvres protégées sur les plateformes de contenu, sous peine d'alourdir considérablement le régime juridique de la publication sur Internet et de mettre en place une inflation des atteintes aux droits fondamentaux.
L'article 13 de la directive droit d'auteur : une menace pour la création
Une censure incapable de repérer les exceptions légitimes au droit d’auteur
Les outils de censure automatique sont, par nature, incapables de discerner lors de la réutilisation d'une œuvre, s'il s'agit d'une simple copie sans ajout, ou bien d'une parodie, d'une critique ou d'un remix (entre autres possibilités de reprise légitimes et légales d'un extrait d’œuvre protégée). Toute la culture qui repose sur l'utilisation d'autres œuvres pour alimenter la création est donc niée et fortement mise en danger par ce type de mesure.
Or, la culture transformative est extrêmement présente dans les nouveaux usages et services qui sont visés par cet article. Y porter atteinte de façon indifférenciée comme l'article 13 le demande, c'est donc mettre en péril une part très importante de la création audio et vidéo actuelle.
Cette création transformative ou qui utilise des extraits d'autres œuvres est une part de l'écosystème culturel global qui ne peut être supprimée sans conséquences. Par exemple, le rôle de vulgarisation scientifique et de partage de culture générale exercé par de nombreux créateurs de vidéos, qui rassemblent plusieurs centaines de milliers de visiteurs à chaque publication, participant ainsi à la vitalité de la création culturelle et éducative notamment auprès d'un public jeune qui s'informe et se cultive plus volontiers sur Youtube que via des relais traditionnels.
Des conflits prévisibles entre titulaires de droits, une négation du créateur amateur
Par ailleurs, cette disposition pourrait avoir des répercussions négatives pour les œuvres qui sont diffusées sous licence libre, ou qui sont entrées dans le domaine public. L'expérience du robot de détection d’œuvres protégées sur Youtube a fait apparaître de nombreux conflits entre titulaires de droits, qui promet un contentieux important, et par ricochet une modification des conditions de création, les créateurs ne pouvant être assurés de contrôler comme ils le souhaitent la diffusion de leurs œuvres. L'autopromotion d'artistes deviendra pratiquement impossible, puisqu'elle repose sur la diffusion d’œuvres contrôlée par l'artiste ou ses agents. Comment faire sortir une œuvre des empreintes de l'outil de détection, lorsqu'elle est volontairement diffusée ?
En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s'il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d’œuvres à « protéger » sur les plateformes de partage. Cette logique est contraire aux principes du droit d'auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.
Le projet de directive ne propose aucune garantie pour assurer une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n'est imposée par la directive. Il ne prend non plus en compte la territorialisation du droit, et les différences géographiques d'exercice du droit d'auteur, mettant les créateurs et utilisateurs dans une situation d'insécurité juridique permanente.
Cette disposition qui se veut protectrice pour les créateurs est en fait une voie de restriction des capacités de création et de diffusion, et n'apporte strictement aucun avantage aux créateurs eux-mêmes. Elle risque en outre de pousser à la création d'une culture hors-la-loi, qui se transfèrera vers des plateformes privées ou cachées, puisque les pratiques qui sont visées ne vont pas disparaître (elles sont trop massivement pratiquées par les internautes), mais seulement disparaître de la face visible d'Internet et décourager ainsi le renouvellement des générations de créateurs. Pour donner un exemple du transfert des pratiques, il suffit de regarder le résultat d'Hadopi en France, qui à sa création en 2008 ambitionnait de résoudre la question du partage d’œuvres illicite en ligne, et qui en 2015 ne concerne que 9% des téléchargements de musique.
Pour répondre réellement aux nouvelles pratiques culturelles, il faudrait plutôt intégrer dans la directive les propositions des commissions IMCO et CULT : une exception de citation élargie aux œuvres audiovisuelles (commission CULT) et une exception permettant les usages transformatifs (commission IMCO). Ce serait une avancée significative dans l'adaptation du droit d'auteur aux usages actuels.
L'article 13 entre en conflit avec le statut de l'hébergeur et ne règle pas la question du transfert de valeur
Incompatibilité avec la directive « Commerce électronique » et le statut de l'hébergeur
En demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, cet article porte lourdement atteinte aux principes du droit. Mais au-delà, cela pose de nombreux problèmes de compatibilité avec la directive sur le commerce électronique de 2000 qui régit la plus grande part des responsabilités respectives des acteurs de l'Internet, et met en péril de nombreux équilibres, sans apporter en lui-même de solution au problème du transfert de valeur.
La directive « commerce électronique » de 2000 n'impose aucune obligation de surveillance préalable des contenus pour les hébergeurs de services de partage de contenus en ligne. Il est impossible d'imaginer pouvoir concilier l'obligation générale d'installation d'outils de détection de contenus illicites avec cette absence de responsabilité a priori des hébergeurs sur le contenu, mise en place à l’époque pour permettre le développement de nouveaux services. C’est cet équilibre qui a permis, depuis 15 ans, de sécuriser juridiquement les hébergeurs de contenu. D’éventuelles corrections de ce statut ne peuvent se faire au détour d’une directive sur le droit d’auteur et sans consultation globale préalable.
Un dispositif qui ne résout pas le problème du transfert de valeur
En supprimant les contenus, la problématique du transfert de valeur n’est pas résolue puisque cela n’entraîne aucune rémunération du créateur. Pire, les créateurs sont privés de la visibilité qu'apporte l'exposition, y compris illégale, de leurs œuvres sur Internet. La capacité de rémunération disparaît en cas de suppression et le dispositif de contrôle des contenus illicites ne peut jouer de rôle de redistribution et donc répondre à son objectif initial.
Internet est devenu une ressource publicitaire majeure. Nous souhaiterions soutenir d’autres modèles économiques que celui des revenus publicitaires, mais il peut au moins servir de base au règlement du problème de transfert de valeur plus efficacement que la suppression des contenus. Des mesures fiscales plus globales pourraient être envisagées : harmonisation fiscale européenne ou règlement de la question de la territorialisation des impôts pour les entreprises étrangères exerçant en Europe, changement de taux de rémunération sur les publicités ou le revenu général des plateformes etc. La question du différentiel de revenus entre plateformes et créateurs ne peut être réglée qu'en traitant des problématiques de répartition, avec une vraie acceptation des nouvelles pratiques de partage par les sociétés de gestion collective de droits.
Inégalités économiques entre plateformes
L'obligation générale de mise en place d'outils de détection automatique de contenus illicites va générer une forte inégalité entre plateformes : le développement ou l'achat de ce type de solutions est extrêmement coûteux. Les quelques entreprises qui sont actuellement en mesure de développer des outils performants de détection de contenus illicites sont elles-mêmes actrices sur le marché des contenus numériques et vont prendre un ascendant et mettre sous dépendance forte les plus petits acteurs qui devront leur acheter ou louer les services de leurs outils.
L'inflation probable du contentieux liée aux erreurs inévitables des outils est également source de coûts supplémentaires. Ce sont les grosses plateformes déjà existantes, pour beaucoup extra-européennes, qui vont donc être en mesure de conserver une qualité de service acceptable et d'être en règle avec la détection automatique de contenus illicites, alors que les petites structures ou les nouveaux entrants vont avoir un coût à assumer bien plus important, voire totalement rédhibitoire.
Paradoxalement, cette mesure risque de favoriser le monopole des GAFA et de tuer l'émergence d'acteurs européens, en faisant monter de façon disproportionnée le coût d'accès au marché ou les risques financiers imprévisibles en cas de création d'un service de partage de contenu. Il s'agit vraiment de savoir quel modèle économique nous voulons favoriser au sein de l'Union européenne.
La Quadrature du Net engage les eurodéputés des différentes commissions impliquées au fond et pour avis dans le travail sur la directive à tenir compte des nombreux problèmes évoqués dans cette analyse, et à supprimer purement et simplement l'article 13. Des propositions émergent des commissions pour adapter intelligemment le droit d'auteur à l'ère numérique, il serait plus profitable de les soutenir et les améliorer afin que cette réforme du droit d'auteur puisse prendre toute l'ambition qu'elle mérite et engage créateurs et utilisateurs dans une nouvelle dynamique profitable à tous.
";s:7:"dateiso";s:15:"20170306_172053";}s:15:"20170306_123800";a:7:{s:5:"title";s:73:"ePrivacy arrive au Parlement européen : La Quadrature publie son analyse";s:4:"link";s:60:"http://www.laquadrature.net/fr/ePrivacy_recommandations_LQDN";s:4:"guid";s:36:"10176 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Mar 2017 11:38:00 +0000";s:11:"description";s:5878:"
Paris, 6 mars 2017 — La nomination mardi dernier de Marju Lauristin, eurodéputée du groupe « Socialistes & Démocrates », au poste de rapporteure du règlement ePrivacy sur « le respect de la vie privée et de la protection des données personnelles dans les communications électroniques » donne le coup d'envoi des négociations au Parlement européen. C'est l'occasion pour La Quadrature du Net de publier son argumentaire et ses recommandations qu'elle portera haut et fort au cours des prochains mois auprès des eurodéputés de tous bords politiques.
Les cinq ans de négociations qui furent nécessaires à l'adoption du Règlement Général sur la Protection des Données (RGDP)1 reprennent de plus belle avec la proposition de règlement ePrivacy. Au vu des failles présentes dans le RGDP, le chemin est encore long pour qu'enfin la vie privée des Européens soient respectée et que la confiance entre fournisseurs de services et individus soit rétablie. Le vent tourne et les lobbys du numérique commencent à sentir qu'il ne leur est pas favorable : la Commission européenne n'a pas cédé face à leurs appels à la suppression du texte et les études sur la question se multiplient et montrent que les Européens se soucient de plus en plus de la protection de leur vie privée sur internet. Mais l'adaptation naturelle des fournisseurs de services aux évolutions de la société, si chère aux adeptes du laissez-faire, ne semble pas en marche. Au contraire de nouvelles techniques et outils de tracking ne cessent d'être développés et les fournisseurs de services de communications électroniques cherchent à collecter et à traiter davantage nos métadonnées et nos données de contenu.
Le futur règlement ePrivacy sur le respect de la vie privée et la protection des données personnelles dans les communications électroniques s'avère donc essentiel pour contrer ces évolutions néfastes et redonner du pouvoir aux utilisateurs.
Pourtant le combat est loin d'être gagné. Comme nous le disions début janvier, la proposition de la Commission se révèle être bien en deça des discours et les attaques de certains députés conservateurs contre l'utilité même du texte sont par ailleurs extrêmement inquiétantes.
L'argumentaire publié aujourd'hui est un condensé de nos recommandations et des points que La Quadrature du Net poussera dans les prochains mois auprès des eurodéputés et des États membres. La Quadrature recommande notamment aux eurodéputés :
de réduire les nouvelles possibilités laissées aux fournisseurs de services pour traiter des métadonnées de communications électroniques ;
d'obliger à traiter les données de façon anonymisée chaque fois que cela est possible ;
de bloquer par défaut dans les navigateurs des cookies-tiers (et tout autre accès à l'appareil par des tierces parties) ;
de revenir sur la proposition de la Commission qui autorise le pistage des appareils dans certains lieux physiques (qu'ils soient privés comme un magasin, ou public comme une place ou un parc) et de formellement interdire ces pratiques de tracking hautement intrusives ;
de limiter au maximum les dérogations laissées aux États membres pour des raisons de sécurité nationale. C'est sur la base de ces dérogations que les États membres ont pu par le passé instaurer des mesures de conservation des données ou pourraient à l'avenir instaurer des mesures affaiblissant les outils de chiffrement et la confidentialité des communications électroniques ;
de considérer la violation de la protection de l'appareil terminal (le fait d'accéder à un appareil ou de pister cet appareil de manière illégale) comme une violation très sérieuse et donc de la soumettre aux plus hautes sanctions prévues par le Règlement Général sur la Protection des Données
Ces recommandations - quelque peu techniques - seront complétées sous peu par des explications plus politiques, un calendrier et des argumentaires que chacun pourra s'approprier, afin qu'ensemble nous menions cette bataille pour la défense de notre vie privée et pour reprendre le contrôle de nos données.
Paris, 6 mars 2017 — La nomination mardi dernier de Marju Lauristin, eurodéputée du groupe « Socialistes & Démocrates », au poste de rapporteure du règlement ePrivacy sur « le respect de la vie privée et de la protection des données personnelles dans les communications électroniques » donne le coup d'envoi des négociations au Parlement européen. C'est l'occasion pour La Quadrature du Net de publier son argumentaire et ses recommandations qu'elle portera haut et fort au cours des prochains mois auprès des eurodéputés de tous bords politiques.
Les cinq ans de négociations qui furent nécessaires à l'adoption du Règlement Général sur la Protection des Données (RGDP)1 reprennent de plus belle avec la proposition de règlement ePrivacy. Au vu des failles présentes dans le RGDP, le chemin est encore long pour qu'enfin la vie privée des Européens soient respectée et que la confiance entre fournisseurs de services et individus soit rétablie. Le vent tourne et les lobbys du numérique commencent à sentir qu'il ne leur est pas favorable : la Commission européenne n'a pas cédé face à leurs appels à la suppression du texte et les études sur la question se multiplient et montrent que les Européens se soucient de plus en plus de la protection de leur vie privée sur internet. Mais l'adaptation naturelle des fournisseurs de services aux évolutions de la société, si chère aux adeptes du laissez-faire, ne semble pas en marche. Au contraire de nouvelles techniques et outils de tracking ne cessent d'être développés et les fournisseurs de services de communications électroniques cherchent à collecter et à traiter davantage nos métadonnées et nos données de contenu.
Le futur règlement ePrivacy sur le respect de la vie privée et la protection des données personnelles dans les communications électroniques s'avère donc essentiel pour contrer ces évolutions néfastes et redonner du pouvoir aux utilisateurs.
Pourtant le combat est loin d'être gagné. Comme nous le disions début janvier, la proposition de la Commission se révèle être bien en deça des discours et les attaques de certains députés conservateurs contre l'utilité même du texte sont par ailleurs extrêmement inquiétantes.
L'argumentaire publié aujourd'hui est un condensé de nos recommandations et des points que La Quadrature du Net poussera dans les prochains mois auprès des eurodéputés et des États membres. La Quadrature recommande notamment aux eurodéputés :
de réduire les nouvelles possibilités laissées aux fournisseurs de services pour traiter des métadonnées de communications électroniques ;
d'obliger à traiter les données de façon anonymisée chaque fois que cela est possible ;
de bloquer par défaut dans les navigateurs des cookies-tiers (et tout autre accès à l'appareil par des tierces parties) ;
de revenir sur la proposition de la Commission qui autorise le pistage des appareils dans certains lieux physiques (qu'ils soient privés comme un magasin, ou public comme une place ou un parc) et de formellement interdire ces pratiques de tracking hautement intrusives ;
de limiter au maximum les dérogations laissées aux États membres pour des raisons de sécurité nationale. C'est sur la base de ces dérogations que les États membres ont pu par le passé instaurer des mesures de conservation des données ou pourraient à l'avenir instaurer des mesures affaiblissant les outils de chiffrement et la confidentialité des communications électroniques ;
de considérer la violation de la protection de l'appareil terminal (le fait d'accéder à un appareil ou de pister cet appareil de manière illégale) comme une violation très sérieuse et donc de la soumettre aux plus hautes sanctions prévues par le Règlement Général sur la Protection des Données
Ces recommandations - quelque peu techniques - seront complétées sous peu par des explications plus politiques, un calendrier et des argumentaires que chacun pourra s'approprier, afin qu'ensemble nous menions cette bataille pour la défense de notre vie privée et pour reprendre le contrôle de nos données.
";s:7:"dateiso";s:15:"20170306_123800";}s:15:"20170303_155658";a:7:{s:5:"title";s:79:"Lettre ouverte internationale des ONG demandant la suspension du Privacy Shield";s:4:"link";s:62:"http://www.laquadrature.net/fr/appel_suspension_privacy_shield";s:4:"guid";s:36:"10172 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 03 Mar 2017 14:56:58 +0000";s:11:"description";s:9641:"
Paris, 3 mars 2017 — La Quadrature du Net se joint à une coalition d'associations européennes et internationales et signe une lettre demandant la suspension du « Privacy Shield », la décision permettant le transfert de données personnelles entre les États-Unis et l'Union européenne. Ces organisations considèrent que les États-Unis ne donnent pas assez de garanties à la protection des données personnelles des Européens. Cette décision du « Privacy Shield » est actuellement contestée devant la Cour de justice de l'Union européenne par Digital Rights Irelands et par les « Exégètes Amateurs »1.
Commissaire Věra Jourová
cc: Secrétaire du Commerce des États-Unis, Wilbur Ross
Madame Isabelle Falque-Pierrotin
Présidente du Groupe de travail de l'Article 29
Député européen Claude Moraes
Président de la commission des libertés civiles, de la justice et des affaires intérieures
Son Excellence Madame Marlene Bonnici
Ambassadeur extraordinaire et plénipotentiaire Représentante permanente de Malte auprès de l'Union européenne
28 février 2017
Une coalition d'organisations de libertés civiles demande aux législateurs européens de faire pression pour une réforme du renseignement américain afin d'assurer un cadre respectueux des droits des non-américains
Nous représentons une coalition d'organisations de défense des droits de l'Homme basées dans les États membres de l'Union européenne et ailleurs dans le monde. Nous vous exhortons à vous assurer que les États-Unis réforment cette année et de manière conséquente leurs lois sur le renseignement afin de protéger les droits des personnes non américaines, notamment des européens. Certaines organisations de cette coalition ont à plusieurs reprises pointé du doigt les défauts présents dans les mécanismes américains de recours et de supervision des violations de la vie privée, les insuffisances dans les limitations de la collecte, l'accès et l'utilisation des données personnelles, et les incertitudes des garanties écrites servant de base à l'accord « Privacy Shield » de transfert de données entre l'Union européenne et les États-Unis. Sans réelle réforme de la surveillance, nous pensons qu'il est de votre responsabilité, à défaut d'une meilleure option, de suspendre le Privacy Shield. Nous vous exhortons à clarifier ce positionnement pour vos homologues américains lors de votre prochaine visite.
À moins que le Congrès ne le prolonge, le titre VII du FISA Amendments Act (FAA) américain expirera le 31 décembre 2017. Il s'agit de la disposition de la loi américaine qui comprend l'organe communément connu sous le nom de « Section 702 ». La Section 702 est très large, autorisant les programmes de surveillance PRISM et UPSTREAM qui violent les normes internationales relatives aux droits de l'Homme2. Sans réforme significative, la section 702 continuera à menacer la libre circulation de l'information outre-Atlantique, et aura une incidence négative sur la protection des données et de la vie privée au niveau mondial.
La surveillance au titre de la section 702, y compris dans le cadre des programmes mentionnés ci-dessus, était au cœur de la décision de la Cour de justice de l'Union européenne rejetant l'accord de transfert de données, dit « Safe Harbor », entre les États-Unis et l'Union européenne 3.
Par conséquent, la réforme de la section 702 est un prérequis, même si insuffisante en elle-même, pour être en accord avec les principes de la Cour.
Le Safe Harbor a ensuite été remplacé par le Privacy Shield. Au moment de l'adoption de cet accord, plusieurs groupes ont souligné que la loi américaine était inadaptée pour protéger les données des européens et ne satisfaisait pas le critère d'« équivalence substantielle » imposé par la CJUE4. Depuis, plusieurs évènements ont sérieusement compromis l'engagement des États-Unis à protéger les droits des personnes non-américaines5.
Il existe plusieurs façons pour les États-Unis de réformer la section 702 du FAA afin de mieux protéger les droits de l'Homme, sans pour autant mettre en péril la sécurité de leurs citoyens et de ceux des autres pays du monde6. Malgré cela, la réforme principalement envisagée consiste à limiter les recherches d'antécédents sur les citoyens américains sans pour autant restreindre en aucune façon la surveillance ciblant des centaines de millions de personnes dans le reste du monde. Si aucune réforme - ou une réforme ne garantissant une meilleure protection qu'aux seuls citoyens américains - n'est entérinée cette année, nous considèrerons cela comme un message fort envoyé à l'Union européenne déclarant que nos droits sont sans importance. Nous vous demandons de défendre la vie privée et la protection des données des citoyens de l'UE et de déclarer que le bouclier de protection des données « Privacy Shied » sera suspendu faute de réforme significative.
1. Les Exégètes Amateurs rassemblent trois associations françaises : La Quadrature du Net, French Data Network et la Fédération FDN. Pour plus d'infos : voir leur site internet
Paris, 3 mars 2017 — La Quadrature du Net se joint à une coalition d'associations européennes et internationales et signe une lettre demandant la suspension du « Privacy Shield », la décision permettant le transfert de données personnelles entre les États-Unis et l'Union européenne. Ces organisations considèrent que les États-Unis ne donnent pas assez de garanties à la protection des données personnelles des Européens. Cette décision du « Privacy Shield » est actuellement contestée devant la Cour de justice de l'Union européenne par Digital Rights Irelands et par les « Exégètes Amateurs »1.
Commissaire Věra Jourová
cc: Secrétaire du Commerce des États-Unis, Wilbur Ross
Madame Isabelle Falque-Pierrotin
Présidente du Groupe de travail de l'Article 29
Député européen Claude Moraes
Président de la commission des libertés civiles, de la justice et des affaires intérieures
Son Excellence Madame Marlene Bonnici
Ambassadeur extraordinaire et plénipotentiaire Représentante permanente de Malte auprès de l'Union européenne
28 février 2017
Une coalition d'organisations de libertés civiles demande aux législateurs européens de faire pression pour une réforme du renseignement américain afin d'assurer un cadre respectueux des droits des non-américains
Nous représentons une coalition d'organisations de défense des droits de l'Homme basées dans les États membres de l'Union européenne et ailleurs dans le monde. Nous vous exhortons à vous assurer que les États-Unis réforment cette année et de manière conséquente leurs lois sur le renseignement afin de protéger les droits des personnes non américaines, notamment des européens. Certaines organisations de cette coalition ont à plusieurs reprises pointé du doigt les défauts présents dans les mécanismes américains de recours et de supervision des violations de la vie privée, les insuffisances dans les limitations de la collecte, l'accès et l'utilisation des données personnelles, et les incertitudes des garanties écrites servant de base à l'accord « Privacy Shield » de transfert de données entre l'Union européenne et les États-Unis. Sans réelle réforme de la surveillance, nous pensons qu'il est de votre responsabilité, à défaut d'une meilleure option, de suspendre le Privacy Shield. Nous vous exhortons à clarifier ce positionnement pour vos homologues américains lors de votre prochaine visite.
À moins que le Congrès ne le prolonge, le titre VII du FISA Amendments Act (FAA) américain expirera le 31 décembre 2017. Il s'agit de la disposition de la loi américaine qui comprend l'organe communément connu sous le nom de « Section 702 ». La Section 702 est très large, autorisant les programmes de surveillance PRISM et UPSTREAM qui violent les normes internationales relatives aux droits de l'Homme2. Sans réforme significative, la section 702 continuera à menacer la libre circulation de l'information outre-Atlantique, et aura une incidence négative sur la protection des données et de la vie privée au niveau mondial.
La surveillance au titre de la section 702, y compris dans le cadre des programmes mentionnés ci-dessus, était au cœur de la décision de la Cour de justice de l'Union européenne rejetant l'accord de transfert de données, dit « Safe Harbor », entre les États-Unis et l'Union européenne 3.
Par conséquent, la réforme de la section 702 est un prérequis, même si insuffisante en elle-même, pour être en accord avec les principes de la Cour.
Le Safe Harbor a ensuite été remplacé par le Privacy Shield. Au moment de l'adoption de cet accord, plusieurs groupes ont souligné que la loi américaine était inadaptée pour protéger les données des européens et ne satisfaisait pas le critère d'« équivalence substantielle » imposé par la CJUE4. Depuis, plusieurs évènements ont sérieusement compromis l'engagement des États-Unis à protéger les droits des personnes non-américaines5.
Il existe plusieurs façons pour les États-Unis de réformer la section 702 du FAA afin de mieux protéger les droits de l'Homme, sans pour autant mettre en péril la sécurité de leurs citoyens et de ceux des autres pays du monde6. Malgré cela, la réforme principalement envisagée consiste à limiter les recherches d'antécédents sur les citoyens américains sans pour autant restreindre en aucune façon la surveillance ciblant des centaines de millions de personnes dans le reste du monde. Si aucune réforme - ou une réforme ne garantissant une meilleure protection qu'aux seuls citoyens américains - n'est entérinée cette année, nous considèrerons cela comme un message fort envoyé à l'Union européenne déclarant que nos droits sont sans importance. Nous vous demandons de défendre la vie privée et la protection des données des citoyens de l'UE et de déclarer que le bouclier de protection des données « Privacy Shied » sera suspendu faute de réforme significative.
1. Les Exégètes Amateurs rassemblent trois associations françaises : La Quadrature du Net, French Data Network et la Fédération FDN. Pour plus d'infos : voir leur site internet
";s:7:"dateiso";s:15:"20170303_155658";}s:15:"20170213_095335";a:7:{s:5:"title";s:72:"Lettre ouverte aux eurodéputés : pas de marchandage sur la vie privée";s:4:"link";s:76:"http://www.laquadrature.net/fr/lettre-ouverte-eurodeput%C3%A9s-libe-ePrivacy";s:4:"guid";s:36:"10159 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 13 Feb 2017 08:53:35 +0000";s:11:"description";s:10349:"
Paris, 13 février 2017 — Ce soir les eurodéputés de la Commission des libertés civiles, de la justice et des affaires intérieures (ci-après LIBE) du Parlement européen devront s'accorder pour décider quel groupe politique sera en charge de faire un projet de rapport et donc de mener les négociations sur le futur règlement ePrivacy concernant la vie privée et la protection des données personnelles dans les communications électroniques. Le choix du groupe politique et donc du ou de la rapporteur est souvent négligé dans le suivi d'un dossier législatif et pourtant il peut signifier beaucoup pour la suite des négociations car cette personne fixera l'orientation générale et aura un poids prépondérant lors des futures discussions.
La Quadrature du Net souhaite rappeler aux eurodéputés, membres de la Commission LIBE, que le ou la rapporteur du règlement ePrivacy devra être conscient de l'importance de ce texte afin de répondre aux attentes de millions d'européens.
Mesdames et Messieurs les eurodéputés, membres de la Commission LIBE,
Le concept de « confidentialité des communications électroniques » peut paraître abstrait et pourtant il est crucial pour chacun d'entre nous puisqu'il garantit le fait que les parties engagées dans la communication sont les seules à connaître le contenu de la communication et les informations relatives à cette communication, que ce soit un appel, un sms, un e-mail, un message par messagerie instantanée ou via un réseau social. Le règlement ePrivacy cherche à garantir que tous ces messages que nous envoyons et recevons ne pourront être interceptés, écoutés, surveillés, mémorisés.
Dans un contexte de surveillance de masse - nationale et internationale - généralisée et de pistage des individus par les entreprises, ce futur règlement est de la plus grande importance. Les nombreuses révélations sur la surveillance des États depuis l'épisode Snowden en 2013 ont fortement marqué les européens et ont permis une prise de conscience générale. L'Eurobaromètre sur ePrivacy publié par la Commission européenne en décembre 2016 relève que : « Plus de 9 personnes interrogées sur 10 estiment qu'il est important que leurs informations personnelles (telles que leurs photos, répertoires etc.) sur leurs ordinateurs, smartphones ou tablettes, ne puissent être accessibles qu'avec leur permission, et qu'il est important que la confidentialité de leurs emails et de leurs messageries instantanées en ligne soit garantie.»1 Il en va de même pour la surveillance et le pistage par les entreprises privées qui sont de moins en moins acceptés par les internautes européens. Selon ce même Eurobaromètre : « Une large majorité des personnes interrogées trouve inacceptable que leurs activitées en ligne soient surveillées, que des entreprises partagent des informations sur eux ou de devoir payer afin de ne pas être surveillé ».2
L'utilisation d'outils permettant d'assurer une certaine confidentialité à nos communication et/ou un certain anonymat en ligne s'est multipliée et ces outils sont aujourd'hui utilisés par le plus grand nombre. Il est temps que les décideurs politiques européens prennent acte de cette évolution et adaptent en conséquence la législation. Si les acteurs privés du secteur ne se rendent pas compte de l'opportunité qu'il y a à suivre les orientations sociétales, alors cette nouvelle législation les forcera à ouvrir les yeux.
Les organisations de la société civile ont aujourd'hui les yeux tournés vers le Parlement européen et plus précisément vers vous, membres de la Commission LIBE. Le choix du groupe politique en charge de l'écriture du rapport, duquel découlera le choix du ou de la rapporteur sera crucial pour l'avenir du texte et vous ne pouvez pas prendre cela à la légère. L'attribution du règlement ePrivacy ne devrait pas être marchandée de manière irraisonnée, elle devrait au contraire être réfléchie et se fonder sur un certain nombre de critères afin d'assurer des négociations équilibrées.
La Quadrature du Net vous appelle donc à choisir un ou une rapporteur :
ayant une solide connaissance du sujet ainsi que des enjeux politiques, sociétaux et techniques ;
reconnaissant la tendance actuelle au sein de la population européenne aspirant à une plus grande confidentialité lors de ses échanges électroniques et protection de sa vie privée ;
reconnaissant que le secteur des communications électroniques requiert un régime spécial de protection tant leur contenu peut révéler des informations hautement sensibles et personnelles et tant la fréquence de leur utilisation est en constante augmentation ;
convaincu que le règlement européen sur la protection des données personnelles adopté en avril dernier et le futur règlement ePrivacy peuvent représenter des avantages compétitifs pour les entreprises européennes.
reconnaissant les décisions de justice européennes en matière de métadonnées3et s'accordant sur leur caractère personnel et donc leur besoin spécifique de protection ».
Ces exigences ne sont pas idéologiques, elles ne sont que le minimum requis afin de partir sur des bases cohérentes avec le règlement général sur la protection des données que vous avez adopté à une très large majorité l'année passée. Elles sont également les conditions nécessaires pour ne pas entrer directement et frontalement en conflit avec les intérêts et les attentes de millions d'Européens.
Peu importe le bord politique du ou de la futur rapporteur car le droit au respect de sa vie privée et de ses communications n'a pas de couleur politique. Néanmoins il ne serait ni raisonnable, ni acceptable de confier la responsabilité de ce texte à une personne qui estime que ces principes sont secondaires ou déjà bien assez encadrés.
La Quadrature du Net reste attentive au processus de négociations qui aboutira au choix du ou de la rapporteur du futur règlement ePrivacy et vous appelle à prendre en compte ces quelques critères de base lors de vos discussions.
1. En anglais dans le texte : "More than nine in ten respondents say it is important that personal information (such as their pictures, contact lists, etc.) on their computer, smartphone or tablet can only be accessed with their permission, and that it is important that the confidentiality of their e-mails and online instant messaging is guaranteed (both 92%)."
2. "A large majority of respondents find it unacceptable to have their online activities monitored, to have companies share information about them or to have to pay not to be monitored."
3. Point 99 de la décision du 21 décembre 2016 de la CJUE : « Prises dans leur ensemble, ces données sont susceptibles de permettre de tirer des conclusions très précises concernant la vie privée des personnes dont les données ont été conservées, telles que les habitudes de la vie quotidienne, les lieux de séjour permanents ou décembre temporaires, les déplacements journaliers ou autres, les activités exercées, les relations sociales de ces personnes et les milieux sociaux fréquentés par celles-ci (voir, par analogie, en ce qui concerne la directive 2006/24, arrêt Digital Rights, point 27). En particulier, ces données fournissent les moyens d’établir, ainsi que l’a relevé M. l’avocat général aux points 253, 254 et 257 à 259 de ses conclusions, le profil des personnes concernées, information tout aussi sensible, au regard du droit au respect de la vie privée, que le contenu même des communications.
";s:7:"content";s:10352:"
Paris, 13 février 2017 — Ce soir les eurodéputés de la Commission des libertés civiles, de la justice et des affaires intérieures (ci-après LIBE) du Parlement européen devront s'accorder pour décider quel groupe politique sera en charge de faire un projet de rapport et donc de mener les négociations sur le futur règlement ePrivacy concernant la vie privée et la protection des données personnelles dans les communications électroniques. Le choix du groupe politique et donc du ou de la rapporteur est souvent négligé dans le suivi d'un dossier législatif et pourtant il peut signifier beaucoup pour la suite des négociations car cette personne fixera l'orientation générale et aura un poids prépondérant lors des futures discussions.
La Quadrature du Net souhaite rappeler aux eurodéputés, membres de la Commission LIBE, que le ou la rapporteur du règlement ePrivacy devra être conscient de l'importance de ce texte afin de répondre aux attentes de millions d'européens.
Mesdames et Messieurs les eurodéputés, membres de la Commission LIBE,
Le concept de « confidentialité des communications électroniques » peut paraître abstrait et pourtant il est crucial pour chacun d'entre nous puisqu'il garantit le fait que les parties engagées dans la communication sont les seules à connaître le contenu de la communication et les informations relatives à cette communication, que ce soit un appel, un sms, un e-mail, un message par messagerie instantanée ou via un réseau social. Le règlement ePrivacy cherche à garantir que tous ces messages que nous envoyons et recevons ne pourront être interceptés, écoutés, surveillés, mémorisés.
Dans un contexte de surveillance de masse - nationale et internationale - généralisée et de pistage des individus par les entreprises, ce futur règlement est de la plus grande importance. Les nombreuses révélations sur la surveillance des États depuis l'épisode Snowden en 2013 ont fortement marqué les européens et ont permis une prise de conscience générale. L'Eurobaromètre sur ePrivacy publié par la Commission européenne en décembre 2016 relève que : « Plus de 9 personnes interrogées sur 10 estiment qu'il est important que leurs informations personnelles (telles que leurs photos, répertoires etc.) sur leurs ordinateurs, smartphones ou tablettes, ne puissent être accessibles qu'avec leur permission, et qu'il est important que la confidentialité de leurs emails et de leurs messageries instantanées en ligne soit garantie.»1 Il en va de même pour la surveillance et le pistage par les entreprises privées qui sont de moins en moins acceptés par les internautes européens. Selon ce même Eurobaromètre : « Une large majorité des personnes interrogées trouve inacceptable que leurs activitées en ligne soient surveillées, que des entreprises partagent des informations sur eux ou de devoir payer afin de ne pas être surveillé ».2
L'utilisation d'outils permettant d'assurer une certaine confidentialité à nos communication et/ou un certain anonymat en ligne s'est multipliée et ces outils sont aujourd'hui utilisés par le plus grand nombre. Il est temps que les décideurs politiques européens prennent acte de cette évolution et adaptent en conséquence la législation. Si les acteurs privés du secteur ne se rendent pas compte de l'opportunité qu'il y a à suivre les orientations sociétales, alors cette nouvelle législation les forcera à ouvrir les yeux.
Les organisations de la société civile ont aujourd'hui les yeux tournés vers le Parlement européen et plus précisément vers vous, membres de la Commission LIBE. Le choix du groupe politique en charge de l'écriture du rapport, duquel découlera le choix du ou de la rapporteur sera crucial pour l'avenir du texte et vous ne pouvez pas prendre cela à la légère. L'attribution du règlement ePrivacy ne devrait pas être marchandée de manière irraisonnée, elle devrait au contraire être réfléchie et se fonder sur un certain nombre de critères afin d'assurer des négociations équilibrées.
La Quadrature du Net vous appelle donc à choisir un ou une rapporteur :
ayant une solide connaissance du sujet ainsi que des enjeux politiques, sociétaux et techniques ;
reconnaissant la tendance actuelle au sein de la population européenne aspirant à une plus grande confidentialité lors de ses échanges électroniques et protection de sa vie privée ;
reconnaissant que le secteur des communications électroniques requiert un régime spécial de protection tant leur contenu peut révéler des informations hautement sensibles et personnelles et tant la fréquence de leur utilisation est en constante augmentation ;
convaincu que le règlement européen sur la protection des données personnelles adopté en avril dernier et le futur règlement ePrivacy peuvent représenter des avantages compétitifs pour les entreprises européennes.
reconnaissant les décisions de justice européennes en matière de métadonnées3et s'accordant sur leur caractère personnel et donc leur besoin spécifique de protection ».
Ces exigences ne sont pas idéologiques, elles ne sont que le minimum requis afin de partir sur des bases cohérentes avec le règlement général sur la protection des données que vous avez adopté à une très large majorité l'année passée. Elles sont également les conditions nécessaires pour ne pas entrer directement et frontalement en conflit avec les intérêts et les attentes de millions d'Européens.
Peu importe le bord politique du ou de la futur rapporteur car le droit au respect de sa vie privée et de ses communications n'a pas de couleur politique. Néanmoins il ne serait ni raisonnable, ni acceptable de confier la responsabilité de ce texte à une personne qui estime que ces principes sont secondaires ou déjà bien assez encadrés.
La Quadrature du Net reste attentive au processus de négociations qui aboutira au choix du ou de la rapporteur du futur règlement ePrivacy et vous appelle à prendre en compte ces quelques critères de base lors de vos discussions.
1. En anglais dans le texte : "More than nine in ten respondents say it is important that personal information (such as their pictures, contact lists, etc.) on their computer, smartphone or tablet can only be accessed with their permission, and that it is important that the confidentiality of their e-mails and online instant messaging is guaranteed (both 92%)."
2. "A large majority of respondents find it unacceptable to have their online activities monitored, to have companies share information about them or to have to pay not to be monitored."
3. Point 99 de la décision du 21 décembre 2016 de la CJUE : « Prises dans leur ensemble, ces données sont susceptibles de permettre de tirer des conclusions très précises concernant la vie privée des personnes dont les données ont été conservées, telles que les habitudes de la vie quotidienne, les lieux de séjour permanents ou décembre temporaires, les déplacements journaliers ou autres, les activités exercées, les relations sociales de ces personnes et les milieux sociaux fréquentés par celles-ci (voir, par analogie, en ce qui concerne la directive 2006/24, arrêt Digital Rights, point 27). En particulier, ces données fournissent les moyens d’établir, ainsi que l’a relevé M. l’avocat général aux points 253, 254 et 257 à 259 de ses conclusions, le profil des personnes concernées, information tout aussi sensible, au regard du droit au respect de la vie privée, que le contenu même des communications.
";s:7:"dateiso";s:15:"20170213_095335";}s:15:"20170210_120523";a:7:{s:5:"title";s:98:"Censure du délit de consultation de sites terroristes : victoire pour la liberté d'information !";s:4:"link";s:67:"http://www.laquadrature.net/fr/censure-d%C3%A9lit-sites-terroristes";s:4:"guid";s:36:"10158 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 10 Feb 2017 11:05:23 +0000";s:11:"description";s:3165:"
Paris, le 10 février 2017 — La Quadrature du Net se réjouit de la censure prononcée par le Conseil constitutionnel à propos du délit de consultation habituelle de sites Internet terroristes. Opposée depuis 2012 à ce délit dangereux pour le respect des droits fondamentaux, notamment la liberté d'information, La Quadrature du Net avait appelé en 2014 et 2016 au rejet de l'inscription de cette disposition dans les nombreuses lois antiterroristes. C'est aujourd'hui un soulagement de voir le Conseil constitutionnel prendre la seule décision possible pour le respect des droits fondamentaux, et une preuve supplémentaire du danger des législations antiterroristes minimisant l'atteinte aux droits fondamentaux au nom de la sécurité : la protection de la société face au terrorisme ne peut, en aucune manière, se faire au détriment des principes fondamentaux du droit.
La décision du Conseil Constitutionnel du 10 février 2017 à propos de la Question prioritaire de constitutionnalité portée notamment par la Ligue des Droits de l'Homme est très claire :
la législation antiterroriste est déjà très fournie et la consultation de sites faisant l'apologie du terrorisme est déjà un élément permettant de constituer le délit d'entreprise individuelle terroriste inscrit dans la loi antiterroriste de 2014 ;
les magistrats et enquêteurs, ainsi que les services de renseignement, ont depuis les lois sur le renseignement de 2015 et antiterroristes de 2014 et 2016 un arsenal de surveillance suffisamment fourni à leur disposition ;
l'intention de mener des actes terroristes ne peut être présumée à partir de la simple consultation de sites terroriste.
C'est donc une fin de non-recevoir qui est appliquée ici : le Conseil constitutionnel fixe des bornes et refuse que nos droits fondamentaux, déjà fortement attaqués par les nombreuses lois antiterroristes et de surveillance votées ces dernières années, soient encore plus mis en danger par le délit de consultation de sites. Le Conseil a rappelé à cette occasion son attachement à la liberté d'usage de l'Internet pour rechercher des informations.
La Quadrature du Net salue la sagesse du Conseil constitutionnel et invite fermement le législateur à ne pas chercher à revenir sur ce délit, ainsi qu'à prendre garde à l'avenir à l'impact de la législation sur le fragile socle des droits fondamentaux. La lutte antiterroriste ne portera jamais de fruits bénéfiques à long terme si elle sape au passage les principes du droit et le respect des libertés.
";s:7:"content";s:3168:"
Paris, le 10 février 2017 — La Quadrature du Net se réjouit de la censure prononcée par le Conseil constitutionnel à propos du délit de consultation habituelle de sites Internet terroristes. Opposée depuis 2012 à ce délit dangereux pour le respect des droits fondamentaux, notamment la liberté d'information, La Quadrature du Net avait appelé en 2014 et 2016 au rejet de l'inscription de cette disposition dans les nombreuses lois antiterroristes. C'est aujourd'hui un soulagement de voir le Conseil constitutionnel prendre la seule décision possible pour le respect des droits fondamentaux, et une preuve supplémentaire du danger des législations antiterroristes minimisant l'atteinte aux droits fondamentaux au nom de la sécurité : la protection de la société face au terrorisme ne peut, en aucune manière, se faire au détriment des principes fondamentaux du droit.
La décision du Conseil Constitutionnel du 10 février 2017 à propos de la Question prioritaire de constitutionnalité portée notamment par la Ligue des Droits de l'Homme est très claire :
la législation antiterroriste est déjà très fournie et la consultation de sites faisant l'apologie du terrorisme est déjà un élément permettant de constituer le délit d'entreprise individuelle terroriste inscrit dans la loi antiterroriste de 2014 ;
les magistrats et enquêteurs, ainsi que les services de renseignement, ont depuis les lois sur le renseignement de 2015 et antiterroristes de 2014 et 2016 un arsenal de surveillance suffisamment fourni à leur disposition ;
l'intention de mener des actes terroristes ne peut être présumée à partir de la simple consultation de sites terroriste.
C'est donc une fin de non-recevoir qui est appliquée ici : le Conseil constitutionnel fixe des bornes et refuse que nos droits fondamentaux, déjà fortement attaqués par les nombreuses lois antiterroristes et de surveillance votées ces dernières années, soient encore plus mis en danger par le délit de consultation de sites. Le Conseil a rappelé à cette occasion son attachement à la liberté d'usage de l'Internet pour rechercher des informations.
La Quadrature du Net salue la sagesse du Conseil constitutionnel et invite fermement le législateur à ne pas chercher à revenir sur ce délit, ainsi qu'à prendre garde à l'avenir à l'impact de la législation sur le fragile socle des droits fondamentaux. La lutte antiterroriste ne portera jamais de fruits bénéfiques à long terme si elle sape au passage les principes du droit et le respect des libertés.
";s:7:"dateiso";s:15:"20170210_120523";}s:15:"20170210_114318";a:7:{s:5:"title";s:40:"Finissons-en définitivement avec CETA !";s:4:"link";s:68:"http://www.laquadrature.net/fr/finissons-en-definitivement-avec-CETA";s:4:"guid";s:36:"10156 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 10 Feb 2017 10:43:18 +0000";s:11:"description";s:10106:"
Mise à jour, 15 février 2017 — Le Parlement européen a adopté par 408 voix contre 254 (et 33 abstentions) l'accord de libre échange CETA. Les parties du texte considérées comme « non-mixtes » pourront donc entrer en application provisoire dès le mois d'avril, en attendant que les parlements régionaux et/ou nationaux des États membres ne soient consultés.
☙❦❧
Paris, 10 février 2017 — Le 15 février, le Parlement européen se prononcera au sujet de la ratification de CETA1, l'accord de libre échange entre l'Union européenne et le Canada. En choisissant d'approuver cet accord, les membres du Parlement européen permettraient son entrée en application partielle et ouvriraient la porte à la suite du processus législatif pouvant conduire à son application complète et définitive. Au contraire, le rejet de l'accord lui porterait un coup fatal, à l'image de celui d'ACTA en juillet 2012. Au-delà de son processus d'élaboration inacceptable, CETA menace gravement nos libertés et droits fondamentaux. Ainsi, La Quadrature du Net appelle les membres du Parlement à s'y opposer fermement.
Négocié à huis-clos par des fonctionnaires du Canada et de l'Union européenne entre 2009 et 2013, l'accord commercial CETA est apparu dans le débat public en juillet 2012, à l'occasion de la fuite d'une version de travail reprenant des passages entiers de l'accord ACTA, tout juste rejeté par le Parlement européen. Depuis lors, des mobilisations s'organisent dans toute l'Union européenne et au Canada contre cet accord, et, plus généralement, dans le monde entier contre les accords commerciaux, notamment TAFTA, TISA ou TPP.
De part leur processus d'élaboration même, ces accords posent un grave problème : plutôt que d'être discutés par des représentant·e·s élu·e·s – avec les limites inhérentes à la démocratie représentative –, ils sont préparés dans l'opacité et en association avec des groupes de pression de puissantes multinationales. Ces négociations sont d'autant plus inacceptables que ces accords comportent des dispositions concernant les droits fondamentaux et qu'ils ont vocation à s'imposer aux législations nationales dans la hiérarchie des normes juridiques. Ce n'est qu'une fois finalisés que ces accords sont soumis aux Parlements, sans possibilité d'amendement et avec de fortes pressions pour l'adoption, comme l'illustre les conditions du vote du Parlement de Wallonie.
Pire, adopté par le Parlement européen, la quasi-totalité de CETA entrerait provisoirement en application avant les consultations des institutions de chaque État membre, qui pourraient s'étendre sur des années. En effet, les dispositions de l'accord considérées comme « non mixtes » – c'est-à-dire concernant uniquement des aspects commerciaux – relèvent de la seule compétence européenne : cette partie entrerait en application sans attendre les éventuelles approbations des Parlements nationaux et/ou régionaux, quand bien même certains réclament d'être consultés.
Indépendamment de son processus d'élaboration, le contenu de l'accord met en danger nos libertés et droits fondamentaux, comme le montrent – entre autres – les analyses d'EDRi ou de la FFII. Pour le seul domaine du numérique, en matière de :
Données personnelles et vie privée : une fois les transferts de données personnelles entre l'Union européenne et le Canada encadrés par CETA, il deviendrait en pratique impossible de les limiter ensuite au nom des normes européennes présentes ou à venir, par exemple dans le cas d'une atteinte aux droits identique à celle ayant entraîné l'annulation du « Safe Harbor » par la Cour de justice de l'Union européenne. Alors que le Canada est membre de l'alliance des Five Eyes2, dont les révélations d'Edward Snowden et d'autres lanceur·se·s d'alerte ont largement démontré qu'elle participe à la surveillance massive et illégale des populations, ce point est particulièrement inquiétant.
Droits d'auteur et des brevets : si les mesures répressives issues de l'accord ACTA ont disparu de la version finale de CETA, l'accord contient tout de même des dispositions dangereuses dans ces domaines et imposerait un durcissement du droit canadien, notamment pour la protection des brevets. Surtout, il inscrirait les dispositions juridiques actuelles dans un texte situé à un niveau supérieur dans la hiérarchie des normes et limiterait grandement toute possibilité de modification future, par exemple pour favoriser l'accès au savoir ou le partage et le remix de la culture.
Système juridique parallèle : adopté, CETA permettrait aux multinationales d'attaquer devant un tribunal d'arbitrage ad hoc les États dont elles estimeraient qu'ils portent atteinte à leurs intérêts ou pour ce qu'elles considéreraient comme une « expropriation indirecte » ou un « traitement » non « juste et équitable ». Les nombreux exemples de recours abusifs permis par des mécanismes similaires dans d'autres accords laissent craindre qu'un tel dispositif empêcherait les États membres d'adopter des lois progressives, par exemple en faveur de la protection de la neutralité du Net, de la priorisation du logiciel libre, de la protection des données personnelles ou du partage en ligne.
Au-delà des enjeux numériques, l'accord entraînerait un net recul dans de nombreux autres domaines, notamment en matière d'environnement, de droit du travail ou de protection de la santé. Pour toutes ces raisons, La Quadrature du Net appelle les membres du Parlement européen à rejeter fermement et définitivement CETA lors du vote en session plénière prévu le 15 février.
Dans la foulée de l'élection houleuse d'Antonio Tajani à la tête du Parlement européen et à l'approche d'élections majeures aux Pays-Bas, en Allemagne et en France, les rapports de force et les positions des groupes politiques de l'institution se transforment et rendent difficilement prévisible l'issue du vote. Sans surprise, la plupart des conservateur·rice·s (PPE et CRE) et des centristes (ADLE) semblent acquis·es à CETA, tandis que les groupes des écologistes (Verts/ALE), de la gauche unitaire (GUE/NGL) et des nationalistes (ENL) s'y opposent. Le groupe décisif qui pourra faire basculer le vote sera donc celui des sociaux-démocrates (S&D), divisé sur la question : alors que les élu·e·s allemand·e·s du groupes sont favorables à CETA, les élu·e·s français·es affichent leur opposition – pendant que leurs collègues de l'Assemblée nationale affinent leurs convictions. Le site CETA Check recense et centralise les promesses de vote et permet d'entrevoir l'équilibre actuel des positions.
Afin de permettre à toutes et à tous de contacter – gratuitement et simplement – les membres du Parlement européen et tenter de les convaincre de s'opposer à CETA, La Quadrature du Net démarre une campagne PiPhone et invite tout un chacun à agir et participer aux différentes mobilisations en cours. Sans attendre et jusqu'au vote du 15, informons-nous d'avantage sur les conséquences de l'accord, partageons ces informations autour de nous et faisons entendre nos voix afin d'enfin arriver au rejet de CETA !
1.Canada-EU Trade Agreement ou Accord Économique et Commercial Global en français. La version finale du texte est en ligne ici.
2.Five Eyes désigne l'alliance des services de renseignement de l'Australie, du Canada, des États-Unis, de la Nouvelle-Zélande et du Royaume-Uni.
";s:7:"content";s:10106:"
Mise à jour, 15 février 2017 — Le Parlement européen a adopté par 408 voix contre 254 (et 33 abstentions) l'accord de libre échange CETA. Les parties du texte considérées comme « non-mixtes » pourront donc entrer en application provisoire dès le mois d'avril, en attendant que les parlements régionaux et/ou nationaux des États membres ne soient consultés.
☙❦❧
Paris, 10 février 2017 — Le 15 février, le Parlement européen se prononcera au sujet de la ratification de CETA1, l'accord de libre échange entre l'Union européenne et le Canada. En choisissant d'approuver cet accord, les membres du Parlement européen permettraient son entrée en application partielle et ouvriraient la porte à la suite du processus législatif pouvant conduire à son application complète et définitive. Au contraire, le rejet de l'accord lui porterait un coup fatal, à l'image de celui d'ACTA en juillet 2012. Au-delà de son processus d'élaboration inacceptable, CETA menace gravement nos libertés et droits fondamentaux. Ainsi, La Quadrature du Net appelle les membres du Parlement à s'y opposer fermement.
Négocié à huis-clos par des fonctionnaires du Canada et de l'Union européenne entre 2009 et 2013, l'accord commercial CETA est apparu dans le débat public en juillet 2012, à l'occasion de la fuite d'une version de travail reprenant des passages entiers de l'accord ACTA, tout juste rejeté par le Parlement européen. Depuis lors, des mobilisations s'organisent dans toute l'Union européenne et au Canada contre cet accord, et, plus généralement, dans le monde entier contre les accords commerciaux, notamment TAFTA, TISA ou TPP.
De part leur processus d'élaboration même, ces accords posent un grave problème : plutôt que d'être discutés par des représentant·e·s élu·e·s – avec les limites inhérentes à la démocratie représentative –, ils sont préparés dans l'opacité et en association avec des groupes de pression de puissantes multinationales. Ces négociations sont d'autant plus inacceptables que ces accords comportent des dispositions concernant les droits fondamentaux et qu'ils ont vocation à s'imposer aux législations nationales dans la hiérarchie des normes juridiques. Ce n'est qu'une fois finalisés que ces accords sont soumis aux Parlements, sans possibilité d'amendement et avec de fortes pressions pour l'adoption, comme l'illustre les conditions du vote du Parlement de Wallonie.
Pire, adopté par le Parlement européen, la quasi-totalité de CETA entrerait provisoirement en application avant les consultations des institutions de chaque État membre, qui pourraient s'étendre sur des années. En effet, les dispositions de l'accord considérées comme « non mixtes » – c'est-à-dire concernant uniquement des aspects commerciaux – relèvent de la seule compétence européenne : cette partie entrerait en application sans attendre les éventuelles approbations des Parlements nationaux et/ou régionaux, quand bien même certains réclament d'être consultés.
Indépendamment de son processus d'élaboration, le contenu de l'accord met en danger nos libertés et droits fondamentaux, comme le montrent – entre autres – les analyses d'EDRi ou de la FFII. Pour le seul domaine du numérique, en matière de :
Données personnelles et vie privée : une fois les transferts de données personnelles entre l'Union européenne et le Canada encadrés par CETA, il deviendrait en pratique impossible de les limiter ensuite au nom des normes européennes présentes ou à venir, par exemple dans le cas d'une atteinte aux droits identique à celle ayant entraîné l'annulation du « Safe Harbor » par la Cour de justice de l'Union européenne. Alors que le Canada est membre de l'alliance des Five Eyes2, dont les révélations d'Edward Snowden et d'autres lanceur·se·s d'alerte ont largement démontré qu'elle participe à la surveillance massive et illégale des populations, ce point est particulièrement inquiétant.
Droits d'auteur et des brevets : si les mesures répressives issues de l'accord ACTA ont disparu de la version finale de CETA, l'accord contient tout de même des dispositions dangereuses dans ces domaines et imposerait un durcissement du droit canadien, notamment pour la protection des brevets. Surtout, il inscrirait les dispositions juridiques actuelles dans un texte situé à un niveau supérieur dans la hiérarchie des normes et limiterait grandement toute possibilité de modification future, par exemple pour favoriser l'accès au savoir ou le partage et le remix de la culture.
Système juridique parallèle : adopté, CETA permettrait aux multinationales d'attaquer devant un tribunal d'arbitrage ad hoc les États dont elles estimeraient qu'ils portent atteinte à leurs intérêts ou pour ce qu'elles considéreraient comme une « expropriation indirecte » ou un « traitement » non « juste et équitable ». Les nombreux exemples de recours abusifs permis par des mécanismes similaires dans d'autres accords laissent craindre qu'un tel dispositif empêcherait les États membres d'adopter des lois progressives, par exemple en faveur de la protection de la neutralité du Net, de la priorisation du logiciel libre, de la protection des données personnelles ou du partage en ligne.
Au-delà des enjeux numériques, l'accord entraînerait un net recul dans de nombreux autres domaines, notamment en matière d'environnement, de droit du travail ou de protection de la santé. Pour toutes ces raisons, La Quadrature du Net appelle les membres du Parlement européen à rejeter fermement et définitivement CETA lors du vote en session plénière prévu le 15 février.
Dans la foulée de l'élection houleuse d'Antonio Tajani à la tête du Parlement européen et à l'approche d'élections majeures aux Pays-Bas, en Allemagne et en France, les rapports de force et les positions des groupes politiques de l'institution se transforment et rendent difficilement prévisible l'issue du vote. Sans surprise, la plupart des conservateur·rice·s (PPE et CRE) et des centristes (ADLE) semblent acquis·es à CETA, tandis que les groupes des écologistes (Verts/ALE), de la gauche unitaire (GUE/NGL) et des nationalistes (ENL) s'y opposent. Le groupe décisif qui pourra faire basculer le vote sera donc celui des sociaux-démocrates (S&D), divisé sur la question : alors que les élu·e·s allemand·e·s du groupes sont favorables à CETA, les élu·e·s français·es affichent leur opposition – pendant que leurs collègues de l'Assemblée nationale affinent leurs convictions. Le site CETA Check recense et centralise les promesses de vote et permet d'entrevoir l'équilibre actuel des positions.
Afin de permettre à toutes et à tous de contacter – gratuitement et simplement – les membres du Parlement européen et tenter de les convaincre de s'opposer à CETA, La Quadrature du Net démarre une campagne PiPhone et invite tout un chacun à agir et participer aux différentes mobilisations en cours. Sans attendre et jusqu'au vote du 15, informons-nous d'avantage sur les conséquences de l'accord, partageons ces informations autour de nous et faisons entendre nos voix afin d'enfin arriver au rejet de CETA !
1.Canada-EU Trade Agreement ou Accord Économique et Commercial Global en français. La version finale du texte est en ligne ici.
2.Five Eyes désigne l'alliance des services de renseignement de l'Australie, du Canada, des États-Unis, de la Nouvelle-Zélande et du Royaume-Uni.
";s:7:"dateiso";s:15:"20170210_114318";}s:15:"20160122_152850";a:7:{s:5:"title";s:82:"Pour une sortie urgente de l'état d'urgence : appel à une mobilisation massive !";s:4:"link";s:56:"http://www.laquadrature.net/fr/appel-action-etat-urgence";s:4:"guid";s:35:"9767 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 22 Jan 2016 14:28:50 +0000";s:11:"description";s:3974:"
Paris, le 22 janvier 2016 — Le 5 février prochain, l'Assemblée nationale va examiner la loi sur la constitutionnalisation de l'état d'urgence. D'ores et déjà, Manuel Valls a annoncé qu'il voulait une prolongation « Jusqu'à ce qu'on puisse se débarrasser de Daech », autant dire pour des mois ou des années. La Quadrature du Net appelle avec de multiples organisations à refuser cette banalisation de l'état d'exception et à se mobiliser massivement contre la violation de nos libertés et de l'état de droit, notamment en manifestant le 30 janvier et en interpellant les députés.
Deux mois après le début de l'état d'urgence, et avant qu'il ne soit renouvelé ou inscrit dans la Constitution française, puis décliné dans les lois de réforme pénale, de plus en plus d'associations, de collectifs, de syndicats et de personnes ouvrent les yeux sur le danger que fait peser l'état d'urgence sur les fondements de nos institutions et sur nos libertés.
Pour stopper le gouvernement de Manuel Valls dans sa surenchère sécuritaire, qui détruit jour après jour les fondements de nos institutions et banalise les atteintes aux droits fondamentaux, il est urgent de manifester clairement et massivement notre refus de cette politique délétère.
La Quadrature du Net a mis à disposition des citoyens refusant l'état d'urgence des outils pour interpeller les députés et les convaincre de stopper le gouvernement, afin qu'ils jouent ainsi leur rôle de contrôle de l'exécutif.
De même, les différentes organisations opposées à l'état d'urgence appellent à des manifestations dans toute la France le 30 janvier, afin de marquer dans la rue notre refus de l'état d'exception.
Le site etatdurgence.fr regroupe l'ensemble des informations nécessaires pour passer à l'action.
La Quadrature du Net engage chacun à participer à ces actions et à reprendre ainsi la main, là où il le peut, sur les enjeux politiques fondamentaux que la France doit trancher en ces temps difficiles.
Chacun est concerné, chacun a le pouvoir de montrer au gouvernement qu'il fait fausse route et qu'il se grandira bien plus en se remettant en question et en choisissant de combattre avec les armes du droit et des libertés ceux qui menacent la France.
Là où le gouvernement cherche à éteindre tout questionnement et toute explication, tout recul et toute réflexion, à nous de montrer que nous tenons à nos libertés et à un État attaché à sa justice, à son socle de droits et à ses valeurs !
« L'état d'urgence permanent ne peut en aucun cas devenir la norme en France, il viole nombre de droits fondamentaux et fait peser un grave danger sur les fondements de la démocratie. La Quadrature du Net s'y est opposé dès son vote au mois de novembre. Aujourd'hui, nous comptons sur les français pour être plus sages que le gouvernement et dire massivement et clairement, par leurs mails, leurs appels aux députés, et dans les nombreux rassemblements du 30 janvier, que ce n'est pas cette fuite en avant sécuritaire et autoritaire que nous voulons pour la France » déclare Adrienne Charmet, coordinatrice des campagnes de La Quadrature du Net.
";s:7:"content";s:3977:"
Paris, le 22 janvier 2016 — Le 5 février prochain, l'Assemblée nationale va examiner la loi sur la constitutionnalisation de l'état d'urgence. D'ores et déjà, Manuel Valls a annoncé qu'il voulait une prolongation « Jusqu'à ce qu'on puisse se débarrasser de Daech », autant dire pour des mois ou des années. La Quadrature du Net appelle avec de multiples organisations à refuser cette banalisation de l'état d'exception et à se mobiliser massivement contre la violation de nos libertés et de l'état de droit, notamment en manifestant le 30 janvier et en interpellant les députés.
Deux mois après le début de l'état d'urgence, et avant qu'il ne soit renouvelé ou inscrit dans la Constitution française, puis décliné dans les lois de réforme pénale, de plus en plus d'associations, de collectifs, de syndicats et de personnes ouvrent les yeux sur le danger que fait peser l'état d'urgence sur les fondements de nos institutions et sur nos libertés.
Pour stopper le gouvernement de Manuel Valls dans sa surenchère sécuritaire, qui détruit jour après jour les fondements de nos institutions et banalise les atteintes aux droits fondamentaux, il est urgent de manifester clairement et massivement notre refus de cette politique délétère.
La Quadrature du Net a mis à disposition des citoyens refusant l'état d'urgence des outils pour interpeller les députés et les convaincre de stopper le gouvernement, afin qu'ils jouent ainsi leur rôle de contrôle de l'exécutif.
De même, les différentes organisations opposées à l'état d'urgence appellent à des manifestations dans toute la France le 30 janvier, afin de marquer dans la rue notre refus de l'état d'exception.
Le site etatdurgence.fr regroupe l'ensemble des informations nécessaires pour passer à l'action.
La Quadrature du Net engage chacun à participer à ces actions et à reprendre ainsi la main, là où il le peut, sur les enjeux politiques fondamentaux que la France doit trancher en ces temps difficiles.
Chacun est concerné, chacun a le pouvoir de montrer au gouvernement qu'il fait fausse route et qu'il se grandira bien plus en se remettant en question et en choisissant de combattre avec les armes du droit et des libertés ceux qui menacent la France.
Là où le gouvernement cherche à éteindre tout questionnement et toute explication, tout recul et toute réflexion, à nous de montrer que nous tenons à nos libertés et à un État attaché à sa justice, à son socle de droits et à ses valeurs !
« L'état d'urgence permanent ne peut en aucun cas devenir la norme en France, il viole nombre de droits fondamentaux et fait peser un grave danger sur les fondements de la démocratie. La Quadrature du Net s'y est opposé dès son vote au mois de novembre. Aujourd'hui, nous comptons sur les français pour être plus sages que le gouvernement et dire massivement et clairement, par leurs mails, leurs appels aux députés, et dans les nombreux rassemblements du 30 janvier, que ce n'est pas cette fuite en avant sécuritaire et autoritaire que nous voulons pour la France » déclare Adrienne Charmet, coordinatrice des campagnes de La Quadrature du Net.
";s:7:"dateiso";s:15:"20160122_152850";}s:15:"20160121_183016";a:7:{s:5:"title";s:18:"Neutralité du Net";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9762";s:4:"guid";s:35:"9762 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 21 Jan 2016 17:30:16 +0000";s:11:"description";s:6294:"
Pourquoi définir et protéger la neutralité des réseaux ?
Internet et ses bénéfices socio-économiques sont fondés sur des principes techniques simples qu'il importe de protéger. Le plus important d'entre eux est sans doute le caractère décentralisé du réseau, qui maximise la liberté de communication, et donc la libre expression et l'innovation en ligne.
Deux cas doivent dès lors être distingués pour protéger le principe de neutralité :
d'une part l'Internet dit best-effort, fondé sur un traitement absolument neutre des flux, contenus, services et applications.
d'autre part les services spécialisés, c'est-à-dire des offres d'accès reposant sur une qualité de service optimisée pour une application donnée (la VOIP, la vidéo, les jeux en ligne par exemple). Ces derniers peuvent être autorisés à condition que ces modes d'accès avec qualité de service optimisée s'applique de manière non-discriminatoire à tous les applications ou services fonctionnellement équivalents disponibles sur Internet, comme l'y invite le Parlement européen dans son vote d'avril 2014.
Pourquoi est-ce important ?
Le développement d'Internet et du web a conduit, en France et dans le monde, à faciliter la participation démocratique du plus grand nombre, en permettant à tous d'avoir un accès égal aux réseaux de communication. Ces avancées sont incompatibles avec un Internet « à deux vitesses », réservant aux plus offrants certains privilèges dans l'acheminement du trafic Internet. En parallèle de la lutte contre la fracture numérique, la protection de la neutralité du Net est la clé de la promotion d'un accès universel à Internet.
La neutralité du Net est considérée comme un vecteur d'innovation car elle permet à de nouveaux entrants d'innover et de faire concurrence aux acteurs les mieux établis. Cet écosystème ouvert d'innovation est une véritable source de PIB et d'emplois : en 2011, on estimait que 25% des emplois nets créés en France étaient dus à Internet, directement ou indirectement.
Si, demain, les opérateurs pouvaient donner une priorité aux flux des entreprises les plus offrantes, ce moteur de l'économie numérique serait mis en pièce. Les PME innovantes ont besoin de voir garanti un accès neutre et inconditionnel, non seulement à l'Internet « best-effort » mais également aux offres d'accès fondées sur une qualité de service optimisée. C'est là la condition de leur développement, de leur croissance et donc de l'innovation et la liberté de choix des consommateurs dans l'économie numérique.
La neutralité permet alors d'éviter les risques anticoncurrentiels liés aux rapprochements entre les grands acteurs américains de l'économie numérique et certains opérateurs télécoms, ou face aux stratégies d'intégration verticale des opérateurs qui investissent dans le marché des contenus et des services en ligne. En outre, dans un contexte de concentration croissante du secteur télécoms, par ailleurs largement défendue et encouragée par le gouvernement français, la neutralité des réseaux est une garantie essentielle face au risque d'abus de position dominante.
Comment protéger dans la loi la neutralité du Net ?
Il faut inscrire dans la loi une définition d'Internet assise sur le principe de neutralité (sur le modèle du best-effort, les paquets de données étant gérés indistinctement), afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les mode d'accès à Internet (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées au niveau réglementaire.
Si les opérateurs télécoms sont autorisés à proposer à leurs abonnés des « services spécialisés » — c'est-à-dire des modes d'accès offrant une qualité de service optimisée (non best-effort) pour telle ou telle application (comme la VoIP, les flux vidéos, ou les jeux en ligne) —, alors les abonnés ayant souscrit à ces offres doivent cependant rester libres d'utiliser ces modes d'accès à qualité de service optimisée pour accéder à et utiliser n'importe quel service disponible sur Internet fonctionnellement équivalent à l'application en question.
Sur les réseaux, les conditions d'équilibre entre les « services spécialisés » et Internet best-effort sur les réseaux de communication doivent être pérennes, afin de préserver l'accès universel à Internet.
Les atteintes à ces principes par les opérateurs doivent faire l'objet de sanctions dissuasives, et n'importe quel citoyen s'estimant lésé par les pratiques d'un opérateur doit pouvoir en référer au régulateur.
Il est nécessaire d'encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
Pour aller plus loin : voir le rapport parlementaire sur la neutralité du Net d'avril 2011, notre réponse à la consultation européenne sur le sujet ou notre rapport. À lire également notre tribune parue dans les cahiers de l'Arcep.
Pourquoi définir et protéger la neutralité des réseaux ?
Internet et ses bénéfices socio-économiques sont fondés sur des principes techniques simples qu'il importe de protéger. Le plus important d'entre eux est sans doute le caractère décentralisé du réseau, qui maximise la liberté de communication, et donc la libre expression et l'innovation en ligne.
Deux cas doivent dès lors être distingués pour protéger le principe de neutralité :
d'une part l'Internet dit best-effort, fondé sur un traitement absolument neutre des flux, contenus, services et applications.
d'autre part les services spécialisés, c'est-à-dire des offres d'accès reposant sur une qualité de service optimisée pour une application donnée (la VOIP, la vidéo, les jeux en ligne par exemple). Ces derniers peuvent être autorisés à condition que ces modes d'accès avec qualité de service optimisée s'applique de manière non-discriminatoire à tous les applications ou services fonctionnellement équivalents disponibles sur Internet, comme l'y invite le Parlement européen dans son vote d'avril 2014.
Pourquoi est-ce important ?
Le développement d'Internet et du web a conduit, en France et dans le monde, à faciliter la participation démocratique du plus grand nombre, en permettant à tous d'avoir un accès égal aux réseaux de communication. Ces avancées sont incompatibles avec un Internet « à deux vitesses », réservant aux plus offrants certains privilèges dans l'acheminement du trafic Internet. En parallèle de la lutte contre la fracture numérique, la protection de la neutralité du Net est la clé de la promotion d'un accès universel à Internet.
La neutralité du Net est considérée comme un vecteur d'innovation car elle permet à de nouveaux entrants d'innover et de faire concurrence aux acteurs les mieux établis. Cet écosystème ouvert d'innovation est une véritable source de PIB et d'emplois : en 2011, on estimait que 25% des emplois nets créés en France étaient dus à Internet, directement ou indirectement.
Si, demain, les opérateurs pouvaient donner une priorité aux flux des entreprises les plus offrantes, ce moteur de l'économie numérique serait mis en pièce. Les PME innovantes ont besoin de voir garanti un accès neutre et inconditionnel, non seulement à l'Internet « best-effort » mais également aux offres d'accès fondées sur une qualité de service optimisée. C'est là la condition de leur développement, de leur croissance et donc de l'innovation et la liberté de choix des consommateurs dans l'économie numérique.
La neutralité permet alors d'éviter les risques anticoncurrentiels liés aux rapprochements entre les grands acteurs américains de l'économie numérique et certains opérateurs télécoms, ou face aux stratégies d'intégration verticale des opérateurs qui investissent dans le marché des contenus et des services en ligne. En outre, dans un contexte de concentration croissante du secteur télécoms, par ailleurs largement défendue et encouragée par le gouvernement français, la neutralité des réseaux est une garantie essentielle face au risque d'abus de position dominante.
Comment protéger dans la loi la neutralité du Net ?
Il faut inscrire dans la loi une définition d'Internet assise sur le principe de neutralité (sur le modèle du best-effort, les paquets de données étant gérés indistinctement), afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les mode d'accès à Internet (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées au niveau réglementaire.
Si les opérateurs télécoms sont autorisés à proposer à leurs abonnés des « services spécialisés » — c'est-à-dire des modes d'accès offrant une qualité de service optimisée (non best-effort) pour telle ou telle application (comme la VoIP, les flux vidéos, ou les jeux en ligne) —, alors les abonnés ayant souscrit à ces offres doivent cependant rester libres d'utiliser ces modes d'accès à qualité de service optimisée pour accéder à et utiliser n'importe quel service disponible sur Internet fonctionnellement équivalent à l'application en question.
Sur les réseaux, les conditions d'équilibre entre les « services spécialisés » et Internet best-effort sur les réseaux de communication doivent être pérennes, afin de préserver l'accès universel à Internet.
Les atteintes à ces principes par les opérateurs doivent faire l'objet de sanctions dissuasives, et n'importe quel citoyen s'estimant lésé par les pratiques d'un opérateur doit pouvoir en référer au régulateur.
Il est nécessaire d'encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
Pour aller plus loin : voir le rapport parlementaire sur la neutralité du Net d'avril 2011, notre réponse à la consultation européenne sur le sujet ou notre rapport. À lire également notre tribune parue dans les cahiers de l'Arcep.
";s:7:"dateiso";s:15:"20160121_183016";}s:15:"20160121_115052";a:7:{s:5:"title";s:25:"Gouvernance de l'Internet";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9760";s:4:"guid";s:35:"9760 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 21 Jan 2016 10:50:52 +0000";s:11:"description";s:3723:"
Depuis environ 15 ans, les rencontres pour la « Gouvernance de l'internet » ont attiré l'attention et conduit notre imaginaire à croire que des règles consensuelles pour l'Internet peuvent émerger de discussions « multi-acteurs » (multi-stakeholder) dans des processus top-down (« descendants »). Cependant, les derniers sommets (NETmundial, IGF Istanbul etc.) montrent que rien n'est sorti de ces 15 années de réunions multipartites, alors que dans le même temps de nombreuses décisions politiques, économiques ou technologiques sont prises dans le but de mettre à mal les droits fondamentaux dans l'espace numérique. De multiples révélations montrent notamment que la technologie est trop souvent retournée contre ses utilisateurs, transformée en un outil de surveillance, de contrôle et d'oppression.
Les problèmes posés par la surveillance de masse, la protection des libertés numériques, la neutralité du Net ou l'accès universel à un internet libre ne peuvent être réglés dans des discussions multipartites stériles où la liste des participants et des sujets est définie en amont par des organisateurs dévoués aux États ou aux entreprises des télécoms ou des services en ligne.
Ces acteurs, États, entreprises ou services de renseignement, n'ont pas attendu les rencontres sur la gouvernance pour modifier la structure et le fonctionnement d'Internet vers plus de surveillance et de distorsion de l'accès libre et universel au réseau.
Cette « gouvernance mondiale multi-acteurs » cache la réalité d'une perte de contrôle du politique, sous l'influence et au bénéfice de grands groupes industriels. Dans une approche bottom-up (venant de « la base »), en sens inverse, les citoyens et les parlements nationaux feraient pression sur les États et les acteurs industriels pour forcer des décisions protégeant les libertés, afin de tenter de les propager de proche en proche dans les espaces politiques voisins. La seule chose que nous pouvons attendre des États, c'est qu'ils considèrent et sécurisent l'Internet comme un bien commun appartenant collectivement à tous ses usagers. Au même titre que l'eau, l'air ou les réserves naturelles, ou même la santé, les États doivent sans délai protéger l'Internet sans compromis, en sécurisant ses fondements : neutralité, non-surveillance, décentralisation.
À partir de là, collectivement les citoyens pourront ensuite s'engager dans un débat approfondi sur la nature de la confiance qui peut être placée dans les acteurs publics ou privés qui vont gérer cette ressource commune. Quelles conditions de transparence et de responsabilité (comme l'utilisation de logiciels libres et la capacité pour le public de le vérifier) demander, dans une société démocratique, à ceux qui sont responsables de la protection de nos libertés fondamentales, du fait de leur contrôle sur une partie de notre infrastructure commune ?
Sans garanties internationales fortes sur la protection d'Internet comme bien commun, et l'implication réelle des citoyens, toutes les actions de « gouvernance » ne seront vouées qu'à être perverties par les intérêts des États et des entreprises privées.
Depuis environ 15 ans, les rencontres pour la « Gouvernance de l'internet » ont attiré l'attention et conduit notre imaginaire à croire que des règles consensuelles pour l'Internet peuvent émerger de discussions « multi-acteurs » (multi-stakeholder) dans des processus top-down (« descendants »). Cependant, les derniers sommets (NETmundial, IGF Istanbul etc.) montrent que rien n'est sorti de ces 15 années de réunions multipartites, alors que dans le même temps de nombreuses décisions politiques, économiques ou technologiques sont prises dans le but de mettre à mal les droits fondamentaux dans l'espace numérique. De multiples révélations montrent notamment que la technologie est trop souvent retournée contre ses utilisateurs, transformée en un outil de surveillance, de contrôle et d'oppression.
Les problèmes posés par la surveillance de masse, la protection des libertés numériques, la neutralité du Net ou l'accès universel à un internet libre ne peuvent être réglés dans des discussions multipartites stériles où la liste des participants et des sujets est définie en amont par des organisateurs dévoués aux États ou aux entreprises des télécoms ou des services en ligne.
Ces acteurs, États, entreprises ou services de renseignement, n'ont pas attendu les rencontres sur la gouvernance pour modifier la structure et le fonctionnement d'Internet vers plus de surveillance et de distorsion de l'accès libre et universel au réseau.
Cette « gouvernance mondiale multi-acteurs » cache la réalité d'une perte de contrôle du politique, sous l'influence et au bénéfice de grands groupes industriels. Dans une approche bottom-up (venant de « la base »), en sens inverse, les citoyens et les parlements nationaux feraient pression sur les États et les acteurs industriels pour forcer des décisions protégeant les libertés, afin de tenter de les propager de proche en proche dans les espaces politiques voisins. La seule chose que nous pouvons attendre des États, c'est qu'ils considèrent et sécurisent l'Internet comme un bien commun appartenant collectivement à tous ses usagers. Au même titre que l'eau, l'air ou les réserves naturelles, ou même la santé, les États doivent sans délai protéger l'Internet sans compromis, en sécurisant ses fondements : neutralité, non-surveillance, décentralisation.
À partir de là, collectivement les citoyens pourront ensuite s'engager dans un débat approfondi sur la nature de la confiance qui peut être placée dans les acteurs publics ou privés qui vont gérer cette ressource commune. Quelles conditions de transparence et de responsabilité (comme l'utilisation de logiciels libres et la capacité pour le public de le vérifier) demander, dans une société démocratique, à ceux qui sont responsables de la protection de nos libertés fondamentales, du fait de leur contrôle sur une partie de notre infrastructure commune ?
Sans garanties internationales fortes sur la protection d'Internet comme bien commun, et l'implication réelle des citoyens, toutes les actions de « gouvernance » ne seront vouées qu'à être perverties par les intérêts des États et des entreprises privées.
";s:7:"dateiso";s:15:"20160121_115052";}s:15:"20160119_143759";a:7:{s:5:"title";s:101:"Conférence : La protection des données, une nécessité pour le respect des libertés fondamentales";s:4:"link";s:70:"http://www.laquadrature.net/fr/conference-protection-donnees-necessite";s:4:"guid";s:35:"9758 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 19 Jan 2016 13:37:59 +0000";s:11:"description";s:3314:"
Paris, le 19 janvier 2016 — La Quadrature du Net publie ici l'invitation à la conférence qu'organise l'Observatoire des Libertés et du Numérique 1 dans le cadre de la journée internationale de la protection des données.
Communiqué de l’Observatoire des Libertés et du Numérique
Dans le cadre de la journée internationale de la protection des données, l'Observatoire des Libertés et du Numérique vous invite à une conférence qui aura lieu le :
Jeudi 28 janvier de 17h à 20h Au sein de l’IUT d’Orsay de l’Université Paris Sud - Amphithéâtre Essonne
Avec :
Philippe Aigrain, co-fondateur de La Quadrature du Net
L'évolution contemporaine des éléments d'information « collectables » et l'impact des mécanismes de surveillance sur les comportements
Jeanne Bossi-Malafosse, avocate, experte auprès du Conseil de l'Europe
Les données de santé : un enjeu fondamental de notre société
Laurence Blisson, secrétaire générale du Syndicat de la magistrature
Le fichage institutionnel : le fichage pour tou·te·s
Nicolas Krameyer, programme Liberté d’expression, Amnesty International
Surveillance numérique des sociétés civiles et impact sur leurs capacités à se faire entendre
Eric Charikane, CECIL et Maryse Artiguelong, Ligue des droits de l’Homme
Point d'étape des dispositifs législatifs européens sur la protection des données, révision de la Directive 95 et modernisation de la Convention 108 : état des lieux, état des luttes
Paris, le 19 janvier 2016 — La Quadrature du Net publie ici l'invitation à la conférence qu'organise l'Observatoire des Libertés et du Numérique 1 dans le cadre de la journée internationale de la protection des données.
Communiqué de l’Observatoire des Libertés et du Numérique
Dans le cadre de la journée internationale de la protection des données, l'Observatoire des Libertés et du Numérique vous invite à une conférence qui aura lieu le :
Jeudi 28 janvier de 17h à 20h Au sein de l’IUT d’Orsay de l’Université Paris Sud - Amphithéâtre Essonne
Avec :
Philippe Aigrain, co-fondateur de La Quadrature du Net
L'évolution contemporaine des éléments d'information « collectables » et l'impact des mécanismes de surveillance sur les comportements
Jeanne Bossi-Malafosse, avocate, experte auprès du Conseil de l'Europe
Les données de santé : un enjeu fondamental de notre société
Laurence Blisson, secrétaire générale du Syndicat de la magistrature
Le fichage institutionnel : le fichage pour tou·te·s
Nicolas Krameyer, programme Liberté d’expression, Amnesty International
Surveillance numérique des sociétés civiles et impact sur leurs capacités à se faire entendre
Eric Charikane, CECIL et Maryse Artiguelong, Ligue des droits de l’Homme
Point d'étape des dispositifs législatifs européens sur la protection des données, révision de la Directive 95 et modernisation de la Convention 108 : état des lieux, état des luttes
";s:7:"dateiso";s:15:"20160119_143759";}s:15:"20160119_121835";a:7:{s:5:"title";s:82:"Contribution à l'étude de la mauvaise foi gouvernementale en matière de Communs";s:4:"link";s:64:"http://www.laquadrature.net/fr/argumentaire-communs-gouvernement";s:4:"guid";s:35:"9757 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 19 Jan 2016 11:18:35 +0000";s:11:"description";s:7323:"
Paris, le 19 janvier 2016 — Le Ministère de la Culture n'aime pas les Communs, et refuse que ceux-ci soient reconnus par la loi lors de l'examen du Projet de loi pour une République numérique, n° 3318. Pour cela il n'hésite pas à utiliser les arguments les plus fallacieux, bas de gamme voire totalement mensongers. Cet argumentaire ayant été généreusement distribué aux députés français juste avant l'examen du projet de loi, nous estimons qu'il est de notre devoir d'en faire profiter l'ensemble des citoyens afin que chacun puisse avoir en tête le souci constant des biens communs dont fait preuve le gouvernement français, visiblement inspiré par les plus rétrogrades lobbys des ayants-droit1.
Bonjour,
Le gouvernement est totalement défavorable au "domaine commun".
Je vous envoie ci-dessous un argumentaire justifiant et expliquant cette position.
Je me tiens naturellement à votre disposition pour en discuter.
Nicolas Vignolles
Conseiller parlementaire de Mme Fleur Pellerin
Ministre de la Culture et de la Communication
Création d’un domaine commun informationnel :
La création envisagée d'un domaine commun informationnel est à la fois inutile, dangereuse, et inopportune :
1/ Inutile : Cette disposition est inutile: l'affirmation d'un développement croissant des pratiques de "copyfraud" n'a en aucune façon été démontrée, notamment lors de l'étude d'impact du projet de loi.
Le droit d’auteur est un droit reconnu internationalement dans une série de traités et de directives, mais il est limité dans le temps et nul ne peut proroger sa protection au-delà des durées inscrites dans ces textes. Les exemples fournis par les défenseurs de ce textes sont souvent issus d’exemples américains (Image de Mickey Mouse ou de Superman) et sont au surplus datés car se sont posés à une époque où le copyrignht pouvait être prorogé, ce qui n’est plus le cas.
2/ Dangereuse : Ce renversement de la perspective qui a toujours prévalu en matière de propriété intellectuelle entre le principe et l'exception soulève de nombreux problèmes, identifiés par un rapport récent du conseil supérieur de la propriété littéraire et artistique (CSPLA). Il est évident qu'il sera source d'une insécurité juridique majeure, au préjudice de tous.
L'approche envisagée est notamment entachée de nombreuses imprécisions et omissions, s'agissant de son articulation avec le régime des droits voisins, du droit des bases de données, du droit des marques et du droit de la propriété industrielle. Son articulation avec le régime des lois de police applicables aux choses communes n'est en aucune manière précisée.
Le fait de citer les inventions, découvertes ou idées dans l’amendement, menace grandement tous les investissements de recherche et développement réalisés par nos industriels et nos start up dont la valorisation repose en majeur partie sur les incorporels ! Un pays qui ne protège plus la R&D et la propriété intellectuelle pousse les entreprises à se délocaliser ou à délocaliser leurs efforts de recherche, ce qui va à l’inverse de notre politique de soutien à la recherche (cf CIR ou crédit d’impôt innovation).
Plus fondamentalement encore, son articulation avec la propriété corporelle des oeuvres soulève une difficulté majeure : faudra-il incriminer le propriétaire d'un tableau ou d'un manuscrit tombé dans le domaine public dans la mesure où il ne donnerait pas à tout un chacun accès à cette oeuvre?
3/ Inopportune : Du point de vue de la défense de la création et des bénéfices économiques attendus, cette mesure aboutit à des effets exactement contraires à la finalité recherchée. Les interdictions posées en matière de constitution de droit exclusif, le risque contentieux, la pénalisation introduite par ces dispositions : tout concourt à entraver la création, en particulier en matière de droits voisins (interprétation artistique) ou d'oeuvres transformatives, lorsque celle-ci est construite à partir d'oeuvres tombées dans le domaine public comme cela est très fréquent.
Par exemple, l’enregistrement d’un morceau de musique ou d’une chanson qui n’est plus couvert par le droit d’auteur, ne pourra donner lieu à la commercialisation d’un CD.
Enfin, cette atteinte au fondement du droit d'auteur est extrêmement préjudiciable au moment même où la France est engagée dans une négociation européenne cruciale pour l'avenir du droit d'auteur et la défense de la création.
Domaine commun consenti
Le dispositif créant le « domaine commun informationnel consenti » est encore plus déstabilisant puisqu’il permet à un auteur de renoncer à ses droits de façon irrévocable.
Aujourd’hui, un auteur peut décider de mettre à disposition ses œuvres à titre gratuit mais ce n’est jamais irrévocable. La disposition de l’avant-projet de loi permettrait une expropriation définitive des créateurs (dans le monde artistique mais aussi industriel puisque la disposition toucherait les logiciels et brevets). Au vu des rapports de force économiques sur Internet, il sera facile à un intermédiaire technique placé en position dominante (tels le magasin d’application Apple ou Youtube par exemple) de conditionner l’accès à leurs services à un abandon unilatéral et irrévocable des droits d’auteur.
Au-delà du risque politique que nous prendrions à affaiblir nos créateurs et nos industriels, nous violerions plusieurs textes internationaux qui nous lient, tels que la Convention de Berne, l’accord ADPIC (OMC), la directive relative à la durée de protection du droit d’auteur 2006/116/CE, ou encore la directive logiciel de 1991 pour ne citer que quelques exemples.
Enfin, je vous rappelle que le Code de la propriété intellectuelle reconnaît d’ores et déjà aux auteurs la possibilité, dans des conditions précisément encadrée, de mettre leurs œuvres gratuitement à la disposition du public. L’article L. 122-7-1 précise en effet que : « L’auteur est libre de mettre ses œuvres gratuitement à la disposition du public, sous réserve des droits des éventuels coauteurs et de ceux des tiers ainsi que dans le respect des conventions qu'il a conclues. »
Contactez vos députés pour les appeler à défendre les Communs de la connaissance dans le projet de loi numérique !
1. Les fautes d'orthographe contenues dans le texte sont d'origine
";s:7:"content";s:7323:"
Paris, le 19 janvier 2016 — Le Ministère de la Culture n'aime pas les Communs, et refuse que ceux-ci soient reconnus par la loi lors de l'examen du Projet de loi pour une République numérique, n° 3318. Pour cela il n'hésite pas à utiliser les arguments les plus fallacieux, bas de gamme voire totalement mensongers. Cet argumentaire ayant été généreusement distribué aux députés français juste avant l'examen du projet de loi, nous estimons qu'il est de notre devoir d'en faire profiter l'ensemble des citoyens afin que chacun puisse avoir en tête le souci constant des biens communs dont fait preuve le gouvernement français, visiblement inspiré par les plus rétrogrades lobbys des ayants-droit1.
Bonjour,
Le gouvernement est totalement défavorable au "domaine commun".
Je vous envoie ci-dessous un argumentaire justifiant et expliquant cette position.
Je me tiens naturellement à votre disposition pour en discuter.
Nicolas Vignolles
Conseiller parlementaire de Mme Fleur Pellerin
Ministre de la Culture et de la Communication
Création d’un domaine commun informationnel :
La création envisagée d'un domaine commun informationnel est à la fois inutile, dangereuse, et inopportune :
1/ Inutile : Cette disposition est inutile: l'affirmation d'un développement croissant des pratiques de "copyfraud" n'a en aucune façon été démontrée, notamment lors de l'étude d'impact du projet de loi.
Le droit d’auteur est un droit reconnu internationalement dans une série de traités et de directives, mais il est limité dans le temps et nul ne peut proroger sa protection au-delà des durées inscrites dans ces textes. Les exemples fournis par les défenseurs de ce textes sont souvent issus d’exemples américains (Image de Mickey Mouse ou de Superman) et sont au surplus datés car se sont posés à une époque où le copyrignht pouvait être prorogé, ce qui n’est plus le cas.
2/ Dangereuse : Ce renversement de la perspective qui a toujours prévalu en matière de propriété intellectuelle entre le principe et l'exception soulève de nombreux problèmes, identifiés par un rapport récent du conseil supérieur de la propriété littéraire et artistique (CSPLA). Il est évident qu'il sera source d'une insécurité juridique majeure, au préjudice de tous.
L'approche envisagée est notamment entachée de nombreuses imprécisions et omissions, s'agissant de son articulation avec le régime des droits voisins, du droit des bases de données, du droit des marques et du droit de la propriété industrielle. Son articulation avec le régime des lois de police applicables aux choses communes n'est en aucune manière précisée.
Le fait de citer les inventions, découvertes ou idées dans l’amendement, menace grandement tous les investissements de recherche et développement réalisés par nos industriels et nos start up dont la valorisation repose en majeur partie sur les incorporels ! Un pays qui ne protège plus la R&D et la propriété intellectuelle pousse les entreprises à se délocaliser ou à délocaliser leurs efforts de recherche, ce qui va à l’inverse de notre politique de soutien à la recherche (cf CIR ou crédit d’impôt innovation).
Plus fondamentalement encore, son articulation avec la propriété corporelle des oeuvres soulève une difficulté majeure : faudra-il incriminer le propriétaire d'un tableau ou d'un manuscrit tombé dans le domaine public dans la mesure où il ne donnerait pas à tout un chacun accès à cette oeuvre?
3/ Inopportune : Du point de vue de la défense de la création et des bénéfices économiques attendus, cette mesure aboutit à des effets exactement contraires à la finalité recherchée. Les interdictions posées en matière de constitution de droit exclusif, le risque contentieux, la pénalisation introduite par ces dispositions : tout concourt à entraver la création, en particulier en matière de droits voisins (interprétation artistique) ou d'oeuvres transformatives, lorsque celle-ci est construite à partir d'oeuvres tombées dans le domaine public comme cela est très fréquent.
Par exemple, l’enregistrement d’un morceau de musique ou d’une chanson qui n’est plus couvert par le droit d’auteur, ne pourra donner lieu à la commercialisation d’un CD.
Enfin, cette atteinte au fondement du droit d'auteur est extrêmement préjudiciable au moment même où la France est engagée dans une négociation européenne cruciale pour l'avenir du droit d'auteur et la défense de la création.
Domaine commun consenti
Le dispositif créant le « domaine commun informationnel consenti » est encore plus déstabilisant puisqu’il permet à un auteur de renoncer à ses droits de façon irrévocable.
Aujourd’hui, un auteur peut décider de mettre à disposition ses œuvres à titre gratuit mais ce n’est jamais irrévocable. La disposition de l’avant-projet de loi permettrait une expropriation définitive des créateurs (dans le monde artistique mais aussi industriel puisque la disposition toucherait les logiciels et brevets). Au vu des rapports de force économiques sur Internet, il sera facile à un intermédiaire technique placé en position dominante (tels le magasin d’application Apple ou Youtube par exemple) de conditionner l’accès à leurs services à un abandon unilatéral et irrévocable des droits d’auteur.
Au-delà du risque politique que nous prendrions à affaiblir nos créateurs et nos industriels, nous violerions plusieurs textes internationaux qui nous lient, tels que la Convention de Berne, l’accord ADPIC (OMC), la directive relative à la durée de protection du droit d’auteur 2006/116/CE, ou encore la directive logiciel de 1991 pour ne citer que quelques exemples.
Enfin, je vous rappelle que le Code de la propriété intellectuelle reconnaît d’ores et déjà aux auteurs la possibilité, dans des conditions précisément encadrée, de mettre leurs œuvres gratuitement à la disposition du public. L’article L. 122-7-1 précise en effet que : « L’auteur est libre de mettre ses œuvres gratuitement à la disposition du public, sous réserve des droits des éventuels coauteurs et de ceux des tiers ainsi que dans le respect des conventions qu'il a conclues. »
Contactez vos députés pour les appeler à défendre les Communs de la connaissance dans le projet de loi numérique !
1. Les fautes d'orthographe contenues dans le texte sont d'origine
";s:7:"dateiso";s:15:"20160119_121835";}s:15:"20160113_132854";a:7:{s:5:"title";s:61:"[NextINpact] Loi Numérique : les amendements « à suivre »";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9748";s:4:"guid";s:35:"9748 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 13 Jan 2016 12:28:54 +0000";s:11:"description";s:1574:"
Les députés membres de la commission des lois de l'Assemblée nationale viennent de déposer les premiers amendements au projet de loi numérique d'Axelle Lemaire. Tour d'horizon des principales propositions des parlementaires, dont l'examen débutera mercredi matin. [...]
Plus de 500 amendements ont été déposés au fil des derniers jours par les membres de la commission des lois de l'Assemblée nationale. Un grand nombre d'entre eux vise à rectifier des aspects purement rédactionnels. D'autres tendent en revanche à remodeler en profondeur le projet de loi d'Axelle Lemaire, quand il ne s'agit pas d'introduire de nouvelles mesures en lien avec le numérique. Next INpact vous propose une sélection des amendements pouvant être considérés comme « à suivre ». Celle-ci sera progressivement mise à jour si de nouveaux amendements venaient à être mis en ligne sur le site de l'Assemblée nationale.[...]
Précisions sur la définition de la neutralité du Net. Plusieurs amendements ont été déposés afin de revoir le périmètre de la neutralité du Net, telle qu'elle devra être respectée par les opérateurs français (416, 243, 409, 410) [...]
Les députés membres de la commission des lois de l'Assemblée nationale viennent de déposer les premiers amendements au projet de loi numérique d'Axelle Lemaire. Tour d'horizon des principales propositions des parlementaires, dont l'examen débutera mercredi matin. [...]
Plus de 500 amendements ont été déposés au fil des derniers jours par les membres de la commission des lois de l'Assemblée nationale. Un grand nombre d'entre eux vise à rectifier des aspects purement rédactionnels. D'autres tendent en revanche à remodeler en profondeur le projet de loi d'Axelle Lemaire, quand il ne s'agit pas d'introduire de nouvelles mesures en lien avec le numérique. Next INpact vous propose une sélection des amendements pouvant être considérés comme « à suivre ». Celle-ci sera progressivement mise à jour si de nouveaux amendements venaient à être mis en ligne sur le site de l'Assemblée nationale.[...]
Précisions sur la définition de la neutralité du Net. Plusieurs amendements ont été déposés afin de revoir le périmètre de la neutralité du Net, telle qu'elle devra être respectée par les opérateurs français (416, 243, 409, 410) [...]
";s:7:"dateiso";s:15:"20160113_132854";}s:15:"20160106_141810";a:7:{s:5:"title";s:87:"Promouvoir les communs – pour une société de la connaissance partagée et inclusive";s:4:"link";s:56:"http://www.laquadrature.net/fr/%20Promouvoir-les-communs";s:4:"guid";s:35:"9736 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 06 Jan 2016 13:18:10 +0000";s:11:"description";s:17433:"
Les biens communs – ou communs – nourrissent depuis toujours les pratiques d’échange et de partage qui structurent la production scientifique et la création culturelle. Mais ils s’inscrivent aussi dans une perspective plus large de défense d’un mode de propriété partagée et de gestion collective des ressources, sur le modèle des“communaux”, ces ressources naturelles gérées par tous les individus d’une communauté. L’irruption massive du numérique dans la plupart des champs de l’activité humaine a permis de faciliter l’émergence de larges communautés distribuées, capables de se mobiliser pour créer et partager les savoirs. Ces communs de la connaissance sont autant de gisements d’initiatives, de créativité et de mobilisation des individus dans un but collectif.
Il n’existe aucun statut juridique – et donc aucune protection associée – pour le domaine commun dans le code de la propriété intellectuelle. En France, aucune « liberté de panorama » ne vient faire rempart à la privatisation de l’espace public, et l’absence d’une exception pour la fouille de textes et de données fait peser la menace de la création d’un nouveau droit d’accès aux informations, dont les chercheurs devraient s’acquitter auprès des éditeurs afin de pouvoir traiter de manière automatisée les données dont ils sont pourtant souvent les auteurs.
À l’occasion de la future loi sur le numérique, la libre diffusion des savoirs et de la culture pourrait à la fois être protégée et promue par un nouveau cadre juridique, adapté aux potentialités nouvelles offertes à notre société par l’arrivée d’Internet, afin d’en faire une société plus solidaire, plus équitable et plus émancipatrice.
À ce titre, l’avant-projet de loi présenté par le Gouvernement contient d’ores et déjà plusieurs avancées notables, il faut s’en féliciter. L’ouverture des données publiques y est largement soutenue, et l’accès ouvert aux publications scientifiques financées par l’argent public semble enfin à portée de vue, par la reconnaissance d’un droit d’exploitation secondaire pour les chercheurs. D’autres éléments du texte favorisent une diffusion plus large des informations et de la connaissance. L’inscription du droit à la portabilité des données, qui permet à l’utilisateur de ne pas se retrouver enfermé dans un écosystème captif et de faire lui-même usage de ses données, ou encore le maintien de la connexion Internet pour les personnes en incapacité de paiement en sont des exemples. Ils constituent autant de nouveaux chemins pour une politique d’inclusion qui vise à développer l’accès partagé aux connaissances et le pouvoir d’agir de tous.
Toutefois, l’opportunité de légiférer sur les grands principes qui fonderont notre « République numérique » nous appelle à être plus audacieux, afin de ménager une place plus grande pour les communs de la connaissance, qui doivent être protégés des tentatives d’exclusivités abusives. Plus généralement , c’est leur développement global qui doit être favorisé, afin d’en faire la matrice d’un changement général, redéfinissant les modes de production, de distribution des richesses et de rapport à la valeur. Cinq mesures en particulier, largement soutenues au cours de la consultation citoyenne menée par le Gouvernement sur l’avant-projet de loi, nous semblent mériter d’être réintroduites dans le projet de loi au cours du débat parlementaire :
La définition positive et la protection des communs de la connaissance
L’inscription de contenus librement accessibles dans le régime de l’article 714 du Code civil revêt un double intérêt : tout d’abord permettre une protection large du domaine commun informationnel, qui n’est ni inscrit dans la loi ni codifié aujourd’hui,ensuite réactiver la notion de chose commune au creuset des nouveaux enjeux de la société de l’information. La valeur économique d’une promotion du domaine commun,et plus particulièrement ses effets bénéfiques sur l’innovation et la croissance – notamment pour les plus petits acteurs – ont été démontrés empiriquement . Or le péril aujourd’hui est la fermeture et la création d’exclusivités abusives sur ce qui appartient à tous, alors même que c’est la circulation des connaissances, des informations, des données, mais aussi des œuvres qui a permis l’essor de l’économie numérique et l’apparition de formes nouvelles, voire alternatives, de création et de production au cœur de la diversité culturelle. On observe en effet un risque de développement des pratiques d’appropriation qui, sans cause légitime, compliquent ou interdisent de fait l’accès à des choses communes, notamment à travers ce que l’on appelle le “copyfraud” (la revendication illégitime de droits exclusifs sur une œuvre). Les exemples sont nombreux : il est ainsi fréquent que la numérisation d’une œuvre du domaine public, ou même le simple fait de la photographier, serve de justification pour revendiquer un droit d’auteur sur cette œuvre ! N’est-il pas étonnant – et c’est un euphémisme – que le département de la Dordogne ait pu revendiquer un droit d’auteur sur les reproductions de la grotte de Lascaux, 17 000 ans après la mort de ses créateurs ? Parce qu’il limite la diffusion et la réutilisation des œuvres qui composent le domaine public, le copyfraud constitue une atteinte aux droits de la collectivité toute entière.
La création d’un domaine commun volontaire
Un domaine commun informationnel ne pourrait toutefois être complet sans prise en compte de l’apport des nombreux développeurs qui contribuent aux logiciels libres ou des millions d’auteurs qui ont recours aux différentes solutions contractuelles de type Creative Commons aujourd’hui. Cette forme de gratuité coopérative basée sur la contribution et le partage rassemble de nombreuses communautés d’échange et crée une nouvelle forme de richesse, aussi bien économique que sociale. C’est elle qui donne au domaine commun informationnel son caractère vivant et dynamique. La création d’un domaine commun volontaire garantirait une protection effective contre les réappropriations. Ainsi, à l’instar du droit d’exploitation secondaire accordé aux chercheurs, le domaine commun volontaire serait un nouveau droit pour les auteurs, et plus largement, une nouvelle arme de défense face aux pressions qui peuvent résulter de la possibilité d’acquérir une exclusivité commerciale sur une œuvre.
La priorité aux logiciels libres et aux formats ouverts dans le service public national et local
Le recours aux logiciels libres et formats ouvert représente des avantages majeurs pour l’Etat, mais aussi pour les collectivités territoriales. L’auditabilité du code, la liberté d’étudier le fonctionnement du programme, la libre exécution du logiciel pour tous les usages, la possibilité de l’adapter et de l’enrichir, l’interopérabilité, l’évolutivité ou les capacités de mutualisation du code, sont autant de caractéristiques propres au logiciel libre qui garantissent une véritable souveraineté, une meilleure sécurité, mais aussi un plus grande flexibilité aux systèmes d’informations gérés publiquement. De plus, selon une récente étude, réalisée pour le compte du Conseil National du Logiciel Libre et du Syntec Numérique, le marché du logiciel libre représenterait en France plus de 50 000 emplois, pour une valeur estimée à 4,1 milliards d’euros en 2015.
La création d’une liberté de panorama
La liberté de panorama est une exception au droit d’auteur par laquelle il est permis de reproduire et de diffuser l’image d’une œuvre protégée se trouvant dans l’espace public, notamment les œuvres d’architecture et de sculpture. C’est l’une des exceptions optionnelles prévues par la directive européenne 2001/29/CE relative au droit d’auteur. Nombreux sont les pays, parmi nos voisins européens, qui ont fait le choix d’appliquer cette exception. Certains pays tels que le Royaume-Uni, l’Inde ou l’Australie disposent même d’une liberté de panorama qui s’étend jusqu’à l’intérieur des bâtiments publics. L’absence de liberté de panorama pose nécessairement la question de la privatisation de l’espace commun. Les Français n’auraient -ils pas un certain droit sur le patrimoine architectural national? D’autant plus lorsque la construction a engagé des fonds publics et que les artistes ont sciemment consenti à exposer leurs œuvres dans l’espace public. Un juste équilibre entre droit d’auteur et biens communs semble également souhaitable afin de favoriser le rayonnement culturel français sur Internet. En développant un meilleur accès à la connaissance, la liberté de panorama permettrait de mettre en valeur le travail des artistes, mais aussi de permettre des retombées économiques consécutives à ce supplément de visibilité que ce soit pour le tourisme en France ou pour les artistes eux-mêmes à travers l’obtention de nouvelles commandes.
L’autorisation de la fouille de textes et de données pour la recherche
L’exception pour la fouille automatique de données de texte (text et data mining) consiste à autoriser la recherche automatisée parmi un volume très important de textes ou de données : il est possible d’accéder à des résultats qui n’auraient pas pu être découverts par une autre méthode. Cela donnerait une force nouvelle à l’entrée de la recherche française à l’heure des mégadonnées (big data) et de réaliser des gains de productivité très importants, alors même que d’autres pays, comme le Royaume-Uni, le Japon et les Etats-Unis, ont pris une avance considérable dans ce domaine. La fouille automatisée de textes et de données, en tant qu’activité de lecture et d’extraction d’informations, est une pratique qui ne se distingue pas fondamentalement du relevé manuel des informations qui a toujours été effectué par la recherche. Pourtant, les grands éditeurs qui détiennent la majeure partie des publications scientifiques, peuvent aujourd’hui proscrire, par des solutions contractuelles, la fouille de textes et de données – notamment la copie provisoire, techniquement nécessaire afin de la réaliser – aux chercheurs, même lorsque ces derniers disposent d’un accès légal à l’ensemble des publications scientifiques comprises dans les bases de données fouillées.
PROJET DE LOI
Pour une République numérique.
(procédure accélérée)
AMENDEMENTS COMMUNS
A/ Définition positive et protection des communs de la connaissance
I. Relèvent du domaine commun informationnel :
1° Les informations, faits, idées, principes, méthodes, découvertes, dès lors qu’ils ont fait l’objet d’une divulgation publique licite, notamment dans le respect du secret industriel et commercial et du droit à la protection de la vie privée ;
2° Les oeuvres, dessins, modèles, inventions, bases de données, protégés par le code de la propriété intellectuelle, dont la durée de protection légale, à l’exception du droit moral des auteurs, a expiré ;
3° Les informations issues des documents administratifs diffusés publiquement par les personnes mentionnées à l’article 1 de la loi n°78-753 du 17 juillet 1978 et dans les conditions précisées à l’article 7 de la même loi, sans préjudice des dispositions des articles 9, 10, 14 et 15 de ladite loi.
Les choses qui composent le domaine commun informationnel sont des choses communes au sens de l’article 714 du Code civil. Elles ne peuvent, en tant que tels, faire l’objet d’une exclusivité, ni d’une restriction de l’usage commun à tous, autre que l’exercice du droit moral. Les associations agréées ayant pour objet la diffusion des savoirs ou la défense des choses communes ont qualité pour agir aux fins de faire cesser toute atteinte au domaine commun informationnel. Cet agrément est attribué dans des conditions définies par un décret en Conseil d’Etat. Il est valable pour une durée limitée, et peut être abrogé lorsque l’association ne satisfait plus aux conditions qui ont conduit à le délivrer.
II. Au troisième alinéa de l’article L.411-1 du code de la propriété intellectuelle, après les mots « protection des innovations, », il est inséré les mots : « pour la promotion de l’innovation collaborative et du domaine commun informationnel ».
B/ Le domaine commun volontaire
Le titulaire d’un droit de propriété intellectuelle, de quelque nature que ce soit, peut autoriser l’usage commun d’un objet auquel ce droit est rattaché par le biais d’une manifestation de volonté à portée générale, à condition que celle-ci soit expresse, non équivoque et publique. Cette manifestation de volonté peut notamment prendre la forme d’une licence libre ou de libre diffusion. Elle ne peut être valablement insérée dans un contrat d’édition tel que défini à l’article L. 132-1.
Le titulaire de droits est libre de délimiter l’étendue de cette autorisation d’usage commun pour la faire porter uniquement sur certaines des prérogatives attachées à son droit de propriété intellectuelle. L’objet de cette manifestation de volonté fait alors partie du domaine commun informationnel tel que défini à l’article 8, dans la mesure déterminée par le titulaire de droit.
Cette faculté s’exerce sans préjudice des dispositions de l’article L. 121-1 du Code de propriété intellectuelle relatives à l’inaliénabilité du droit moral.
C/ La priorité aux logiciels libres et aux formats ouverts dans le service public national et local
Les services de l’État, administrations, établissements publics et entreprises du secteur public, les collectivités territoriales et leurs établissements publics donnent la priorité aux logiciels libres et aux formats ouverts lors du développement, de l’achat ou de l’utilisation d’un système informatique.
D/ La liberté de panorama
L’article L.122-5 du Code de la propriété intellectuelle est complété par un alinéa ainsi rédigé :
10°) Les reproductions et représentations des œuvres architecturales et des sculptures, réalisées pour être placées en permanence dans des extérieurs publics.
E/ Autoriser la fouille de textes et de données pour la recherche (text and data mining)
I. – L’article L. 122-5 du code de la propriété intellectuelle est ainsi modifié :
Après le neuvième alinéa, il est inséré un alinéa ainsi rédigé :
« 10° Les copies ou reproductions numériques réalisées à partir d’une source licite, en vue de l‘exploration de textes et de données pour les besoins de la recherche publique, à l’exclusion de toute finalité commerciale. Un décret fixe les conditions dans lesquelles l’exploration des textes et des données est mise en œuvre, ainsi que les modalités de conservation et communication des fichiers produits au terme des activités de recherche pour lesquelles elles ont été produites »
II. – Après le cinquième alinéa de l’article L. 342-3 du même code, il est inséré un alinéa ainsi rédigé :
« 5° Les copies ou reproductions numériques de la base réalisées par une personne qui y a licitement accès, en vue de fouilles de textes et de données dans un cadre de recherche, à l’exclusion de toute finalité commerciale. La conservation et la communication des copies techniques issues des traitements, au terme des activités de recherche pour lesquelles elles ont été produites, sont assurées par des organismes désignés par décret. Les autres copies ou reproductions sont détruites. »
Les biens communs – ou communs – nourrissent depuis toujours les pratiques d’échange et de partage qui structurent la production scientifique et la création culturelle. Mais ils s’inscrivent aussi dans une perspective plus large de défense d’un mode de propriété partagée et de gestion collective des ressources, sur le modèle des“communaux”, ces ressources naturelles gérées par tous les individus d’une communauté. L’irruption massive du numérique dans la plupart des champs de l’activité humaine a permis de faciliter l’émergence de larges communautés distribuées, capables de se mobiliser pour créer et partager les savoirs. Ces communs de la connaissance sont autant de gisements d’initiatives, de créativité et de mobilisation des individus dans un but collectif.
Il n’existe aucun statut juridique – et donc aucune protection associée – pour le domaine commun dans le code de la propriété intellectuelle. En France, aucune « liberté de panorama » ne vient faire rempart à la privatisation de l’espace public, et l’absence d’une exception pour la fouille de textes et de données fait peser la menace de la création d’un nouveau droit d’accès aux informations, dont les chercheurs devraient s’acquitter auprès des éditeurs afin de pouvoir traiter de manière automatisée les données dont ils sont pourtant souvent les auteurs.
À l’occasion de la future loi sur le numérique, la libre diffusion des savoirs et de la culture pourrait à la fois être protégée et promue par un nouveau cadre juridique, adapté aux potentialités nouvelles offertes à notre société par l’arrivée d’Internet, afin d’en faire une société plus solidaire, plus équitable et plus émancipatrice.
À ce titre, l’avant-projet de loi présenté par le Gouvernement contient d’ores et déjà plusieurs avancées notables, il faut s’en féliciter. L’ouverture des données publiques y est largement soutenue, et l’accès ouvert aux publications scientifiques financées par l’argent public semble enfin à portée de vue, par la reconnaissance d’un droit d’exploitation secondaire pour les chercheurs. D’autres éléments du texte favorisent une diffusion plus large des informations et de la connaissance. L’inscription du droit à la portabilité des données, qui permet à l’utilisateur de ne pas se retrouver enfermé dans un écosystème captif et de faire lui-même usage de ses données, ou encore le maintien de la connexion Internet pour les personnes en incapacité de paiement en sont des exemples. Ils constituent autant de nouveaux chemins pour une politique d’inclusion qui vise à développer l’accès partagé aux connaissances et le pouvoir d’agir de tous.
Toutefois, l’opportunité de légiférer sur les grands principes qui fonderont notre « République numérique » nous appelle à être plus audacieux, afin de ménager une place plus grande pour les communs de la connaissance, qui doivent être protégés des tentatives d’exclusivités abusives. Plus généralement , c’est leur développement global qui doit être favorisé, afin d’en faire la matrice d’un changement général, redéfinissant les modes de production, de distribution des richesses et de rapport à la valeur. Cinq mesures en particulier, largement soutenues au cours de la consultation citoyenne menée par le Gouvernement sur l’avant-projet de loi, nous semblent mériter d’être réintroduites dans le projet de loi au cours du débat parlementaire :
La définition positive et la protection des communs de la connaissance
L’inscription de contenus librement accessibles dans le régime de l’article 714 du Code civil revêt un double intérêt : tout d’abord permettre une protection large du domaine commun informationnel, qui n’est ni inscrit dans la loi ni codifié aujourd’hui,ensuite réactiver la notion de chose commune au creuset des nouveaux enjeux de la société de l’information. La valeur économique d’une promotion du domaine commun,et plus particulièrement ses effets bénéfiques sur l’innovation et la croissance – notamment pour les plus petits acteurs – ont été démontrés empiriquement . Or le péril aujourd’hui est la fermeture et la création d’exclusivités abusives sur ce qui appartient à tous, alors même que c’est la circulation des connaissances, des informations, des données, mais aussi des œuvres qui a permis l’essor de l’économie numérique et l’apparition de formes nouvelles, voire alternatives, de création et de production au cœur de la diversité culturelle. On observe en effet un risque de développement des pratiques d’appropriation qui, sans cause légitime, compliquent ou interdisent de fait l’accès à des choses communes, notamment à travers ce que l’on appelle le “copyfraud” (la revendication illégitime de droits exclusifs sur une œuvre). Les exemples sont nombreux : il est ainsi fréquent que la numérisation d’une œuvre du domaine public, ou même le simple fait de la photographier, serve de justification pour revendiquer un droit d’auteur sur cette œuvre ! N’est-il pas étonnant – et c’est un euphémisme – que le département de la Dordogne ait pu revendiquer un droit d’auteur sur les reproductions de la grotte de Lascaux, 17 000 ans après la mort de ses créateurs ? Parce qu’il limite la diffusion et la réutilisation des œuvres qui composent le domaine public, le copyfraud constitue une atteinte aux droits de la collectivité toute entière.
La création d’un domaine commun volontaire
Un domaine commun informationnel ne pourrait toutefois être complet sans prise en compte de l’apport des nombreux développeurs qui contribuent aux logiciels libres ou des millions d’auteurs qui ont recours aux différentes solutions contractuelles de type Creative Commons aujourd’hui. Cette forme de gratuité coopérative basée sur la contribution et le partage rassemble de nombreuses communautés d’échange et crée une nouvelle forme de richesse, aussi bien économique que sociale. C’est elle qui donne au domaine commun informationnel son caractère vivant et dynamique. La création d’un domaine commun volontaire garantirait une protection effective contre les réappropriations. Ainsi, à l’instar du droit d’exploitation secondaire accordé aux chercheurs, le domaine commun volontaire serait un nouveau droit pour les auteurs, et plus largement, une nouvelle arme de défense face aux pressions qui peuvent résulter de la possibilité d’acquérir une exclusivité commerciale sur une œuvre.
La priorité aux logiciels libres et aux formats ouverts dans le service public national et local
Le recours aux logiciels libres et formats ouvert représente des avantages majeurs pour l’Etat, mais aussi pour les collectivités territoriales. L’auditabilité du code, la liberté d’étudier le fonctionnement du programme, la libre exécution du logiciel pour tous les usages, la possibilité de l’adapter et de l’enrichir, l’interopérabilité, l’évolutivité ou les capacités de mutualisation du code, sont autant de caractéristiques propres au logiciel libre qui garantissent une véritable souveraineté, une meilleure sécurité, mais aussi un plus grande flexibilité aux systèmes d’informations gérés publiquement. De plus, selon une récente étude, réalisée pour le compte du Conseil National du Logiciel Libre et du Syntec Numérique, le marché du logiciel libre représenterait en France plus de 50 000 emplois, pour une valeur estimée à 4,1 milliards d’euros en 2015.
La création d’une liberté de panorama
La liberté de panorama est une exception au droit d’auteur par laquelle il est permis de reproduire et de diffuser l’image d’une œuvre protégée se trouvant dans l’espace public, notamment les œuvres d’architecture et de sculpture. C’est l’une des exceptions optionnelles prévues par la directive européenne 2001/29/CE relative au droit d’auteur. Nombreux sont les pays, parmi nos voisins européens, qui ont fait le choix d’appliquer cette exception. Certains pays tels que le Royaume-Uni, l’Inde ou l’Australie disposent même d’une liberté de panorama qui s’étend jusqu’à l’intérieur des bâtiments publics. L’absence de liberté de panorama pose nécessairement la question de la privatisation de l’espace commun. Les Français n’auraient -ils pas un certain droit sur le patrimoine architectural national? D’autant plus lorsque la construction a engagé des fonds publics et que les artistes ont sciemment consenti à exposer leurs œuvres dans l’espace public. Un juste équilibre entre droit d’auteur et biens communs semble également souhaitable afin de favoriser le rayonnement culturel français sur Internet. En développant un meilleur accès à la connaissance, la liberté de panorama permettrait de mettre en valeur le travail des artistes, mais aussi de permettre des retombées économiques consécutives à ce supplément de visibilité que ce soit pour le tourisme en France ou pour les artistes eux-mêmes à travers l’obtention de nouvelles commandes.
L’autorisation de la fouille de textes et de données pour la recherche
L’exception pour la fouille automatique de données de texte (text et data mining) consiste à autoriser la recherche automatisée parmi un volume très important de textes ou de données : il est possible d’accéder à des résultats qui n’auraient pas pu être découverts par une autre méthode. Cela donnerait une force nouvelle à l’entrée de la recherche française à l’heure des mégadonnées (big data) et de réaliser des gains de productivité très importants, alors même que d’autres pays, comme le Royaume-Uni, le Japon et les Etats-Unis, ont pris une avance considérable dans ce domaine. La fouille automatisée de textes et de données, en tant qu’activité de lecture et d’extraction d’informations, est une pratique qui ne se distingue pas fondamentalement du relevé manuel des informations qui a toujours été effectué par la recherche. Pourtant, les grands éditeurs qui détiennent la majeure partie des publications scientifiques, peuvent aujourd’hui proscrire, par des solutions contractuelles, la fouille de textes et de données – notamment la copie provisoire, techniquement nécessaire afin de la réaliser – aux chercheurs, même lorsque ces derniers disposent d’un accès légal à l’ensemble des publications scientifiques comprises dans les bases de données fouillées.
PROJET DE LOI
Pour une République numérique.
(procédure accélérée)
AMENDEMENTS COMMUNS
A/ Définition positive et protection des communs de la connaissance
I. Relèvent du domaine commun informationnel :
1° Les informations, faits, idées, principes, méthodes, découvertes, dès lors qu’ils ont fait l’objet d’une divulgation publique licite, notamment dans le respect du secret industriel et commercial et du droit à la protection de la vie privée ;
2° Les oeuvres, dessins, modèles, inventions, bases de données, protégés par le code de la propriété intellectuelle, dont la durée de protection légale, à l’exception du droit moral des auteurs, a expiré ;
3° Les informations issues des documents administratifs diffusés publiquement par les personnes mentionnées à l’article 1 de la loi n°78-753 du 17 juillet 1978 et dans les conditions précisées à l’article 7 de la même loi, sans préjudice des dispositions des articles 9, 10, 14 et 15 de ladite loi.
Les choses qui composent le domaine commun informationnel sont des choses communes au sens de l’article 714 du Code civil. Elles ne peuvent, en tant que tels, faire l’objet d’une exclusivité, ni d’une restriction de l’usage commun à tous, autre que l’exercice du droit moral. Les associations agréées ayant pour objet la diffusion des savoirs ou la défense des choses communes ont qualité pour agir aux fins de faire cesser toute atteinte au domaine commun informationnel. Cet agrément est attribué dans des conditions définies par un décret en Conseil d’Etat. Il est valable pour une durée limitée, et peut être abrogé lorsque l’association ne satisfait plus aux conditions qui ont conduit à le délivrer.
II. Au troisième alinéa de l’article L.411-1 du code de la propriété intellectuelle, après les mots « protection des innovations, », il est inséré les mots : « pour la promotion de l’innovation collaborative et du domaine commun informationnel ».
B/ Le domaine commun volontaire
Le titulaire d’un droit de propriété intellectuelle, de quelque nature que ce soit, peut autoriser l’usage commun d’un objet auquel ce droit est rattaché par le biais d’une manifestation de volonté à portée générale, à condition que celle-ci soit expresse, non équivoque et publique. Cette manifestation de volonté peut notamment prendre la forme d’une licence libre ou de libre diffusion. Elle ne peut être valablement insérée dans un contrat d’édition tel que défini à l’article L. 132-1.
Le titulaire de droits est libre de délimiter l’étendue de cette autorisation d’usage commun pour la faire porter uniquement sur certaines des prérogatives attachées à son droit de propriété intellectuelle. L’objet de cette manifestation de volonté fait alors partie du domaine commun informationnel tel que défini à l’article 8, dans la mesure déterminée par le titulaire de droit.
Cette faculté s’exerce sans préjudice des dispositions de l’article L. 121-1 du Code de propriété intellectuelle relatives à l’inaliénabilité du droit moral.
C/ La priorité aux logiciels libres et aux formats ouverts dans le service public national et local
Les services de l’État, administrations, établissements publics et entreprises du secteur public, les collectivités territoriales et leurs établissements publics donnent la priorité aux logiciels libres et aux formats ouverts lors du développement, de l’achat ou de l’utilisation d’un système informatique.
D/ La liberté de panorama
L’article L.122-5 du Code de la propriété intellectuelle est complété par un alinéa ainsi rédigé :
10°) Les reproductions et représentations des œuvres architecturales et des sculptures, réalisées pour être placées en permanence dans des extérieurs publics.
E/ Autoriser la fouille de textes et de données pour la recherche (text and data mining)
I. – L’article L. 122-5 du code de la propriété intellectuelle est ainsi modifié :
Après le neuvième alinéa, il est inséré un alinéa ainsi rédigé :
« 10° Les copies ou reproductions numériques réalisées à partir d’une source licite, en vue de l‘exploration de textes et de données pour les besoins de la recherche publique, à l’exclusion de toute finalité commerciale. Un décret fixe les conditions dans lesquelles l’exploration des textes et des données est mise en œuvre, ainsi que les modalités de conservation et communication des fichiers produits au terme des activités de recherche pour lesquelles elles ont été produites »
II. – Après le cinquième alinéa de l’article L. 342-3 du même code, il est inséré un alinéa ainsi rédigé :
« 5° Les copies ou reproductions numériques de la base réalisées par une personne qui y a licitement accès, en vue de fouilles de textes et de données dans un cadre de recherche, à l’exclusion de toute finalité commerciale. La conservation et la communication des copies techniques issues des traitements, au terme des activités de recherche pour lesquelles elles ont été produites, sont assurées par des organismes désignés par décret. Les autres copies ou reproductions sont détruites. »
";s:7:"dateiso";s:15:"20160106_141810";}s:15:"20160105_143335";a:7:{s:5:"title";s:83:"État d'urgence : l'infamie ne doit pas cacher la mise en place d'un état policier";s:4:"link";s:66:"http://www.laquadrature.net/fr/etat-d-urgence-infamie-constitution";s:4:"guid";s:35:"9735 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 05 Jan 2016 13:33:35 +0000";s:11:"description";s:7308:"
Paris, le 7 janvier 2016 — Philippe Aigrain, cofondateur de La Quadrature du Net, a publié le 27 décembre dernier un texte personnel sur l'état d'urgence et la révision constitutionnelle proposée par le gouvernement. Nous le republions, pour prendre conscience, derrière les débats enflammés et souvent indécents sur la déchéance de nationalité, de la réalité et des risques de l'inscription dans la Constitution française de l'état d'urgence. Nous renvoyons également à l'excellente analyse publiée sur le sujet par le juriste Cédric Mas.
Dans son blog du Monde, Thomas Piketty a caractérisé comme infamie le projet de déchéance de la nationalité pour les bi-nationaux même nés Français, projet dont il apparaît de plus en plus qu’il est poursuivi avec acharnement par François Hollande, y compris dans l’éventualité d’une opposition parlementaire. Thomas Piketty le décrit comme créant :
une inégalité insupportable et stigmatisante – en plus d’être totalement inutile et inefficace dans la lutte contre le terrorisme – pour des millions de Français nés en France1, dont le seul tort est d’avoir acquis au cours de leur vie une seconde nationalité pour des raisons familiales.
On pourrait ajouter qu’il représente aussi une dénégation majeure et porteuse des pires dérives et retours du refoulé : ce projet veut nier que ce sont bien des Français, ayant grandi dans l’état réel de nos sociétés qui commettent les crimes qui lui servent de prétexte. Tout comme ce sont des Français qui se servent de ces crimes pour déverser leur propre haine contre des populations entières.
Infamie il y a donc bien. Mais c’est sur autre chose que je veux insister ici. À considérer ce seul aspect de la révision constitutionnelle dont le projet a été adopté en Conseil des ministres le 23 décembre 2015, on risque de considérer le reste du projet comme anodin, alors qu’en réalité, si on le situe dans son contexte, il s’agit bel et bien d’une dérive gravissime vers la mise en place d’un état policier autoritaire.
De ce point, je suis surpris et choqué de lire sous la plume de nombreux juristes que l’inscription constitutionnelle de l’état d’urgence ne serait en elle-même pas choquante. Cela me paraît relever d’une incompréhension fondamentale de la situation des droits fondamentaux en France. La Constitution de 1958 ne comporte dans son texte proprement dit qu’un article établissant clairement un droit fondamental : l’article 66 qui affirme
Nul ne peut être arbitrairement détenu.
L’autorité judiciaire, gardienne de la liberté individuelle, assure le respect de ce principe dans les conditions prévues par la loi.
Une interprétation ouverte de cet article a longtemps servi à la reconnaissance d’autres droits fondamentaux avant que le Conseil constitutionnel ne limite cet usage en affirmant par une série de décisions à partir de 1999 qu’il est d’interprétation stricte. Notons cependant au passage que ce n’est pas par hasard que les rédacteurs de la Constitution ont affirmé que seul le juge judiciaire est gardien de la liberté individuelle. La Déclaration des droits de l’Homme et du citoyen de 1789, partie intégrante du socle de constitutionnalité, affirme d’autres droits fondamentaux, y compris le premier d’entre eux : « Les hommes naissent et demeurent libres et égaux en droits » que l’infamie piétine allègrement. Mais ces droits (par exemple la liberté d’expression définie à l’article XI) ne sont que faiblement défendus, que ce soit contre les abus de la loi (exemple des nombreux articles instituant une censure administrative de sites internet) ou contre les actes de police administrative ou les décisions du pouvoir politique. Ce malgré quelques sursauts comme la décision du Conseil constitutionnel du 10 juin 2009 sur la loi HADOPI.
Dans ce contexte de faiblesse structurelle de la défense constitutionnelle des droits fondamentaux, l’inclusion dans la Constitution de dispositions sur l’état d’urgence, loin de constituer un rempart contre des abus de l’état d’urgence ouvre la porte à une extension des atteintes aux droits qui lui sont associées à travers des lois de police. L’exposé des motifs de la révision constitutionnelle le reconnaît d’ailleurs :
Mais les mesures que cette loi [de 1955 sur l’état d’urgence], même modifiée, permet de prendre pour faire face à des circonstances exceptionnelles sont limitées par l’absence de fondement constitutionnel de l’état d’urgence.
Par ailleurs, le seul recours contre des abus sera le juge administratif. À répétition Bernard Cazeneuve et Jean-Jacques Urvoas prétendent que le juge administratif serait aussi ou plus défenseur des libertés que le juge judiciaire. Il s’agit d’une novlangue particulièrement scandaleuse. Dès qu’il y a invocation de la raison d’État et de l’ordre public, c’est tout le contraire.
Il faut crier haut et fort notre rejet absolu des menaces que font peser cette perspective sur nos libertés (menaces avérées dans la loi sur l’état d’urgence du 20 novembre 2015 et les abus innombrables relevés depuis le 14 novembre 2015, menaces prévisibles au vu des diverses lois de police annoncées). Il faut crier non moins fort notre indignation qu’on débatte à partir du 3 février de la constitutionnalisation de l’état d’urgence en situation d’état d’urgence, c’est-à-dire avec une possibilité discrétionnaire pour le pouvoir politique d’interdire les manifestations de défense des libertés. L’état policier n’est pas une perspective lointaine. Il est là si nous ne lui fermons pas la porte.
1. Il vaudrait mieux dire ici nés Français, car le projet s’applique également aux Français nés à l’étranger dont l’un des parents est français.
";s:7:"content";s:7311:"
Paris, le 7 janvier 2016 — Philippe Aigrain, cofondateur de La Quadrature du Net, a publié le 27 décembre dernier un texte personnel sur l'état d'urgence et la révision constitutionnelle proposée par le gouvernement. Nous le republions, pour prendre conscience, derrière les débats enflammés et souvent indécents sur la déchéance de nationalité, de la réalité et des risques de l'inscription dans la Constitution française de l'état d'urgence. Nous renvoyons également à l'excellente analyse publiée sur le sujet par le juriste Cédric Mas.
Dans son blog du Monde, Thomas Piketty a caractérisé comme infamie le projet de déchéance de la nationalité pour les bi-nationaux même nés Français, projet dont il apparaît de plus en plus qu’il est poursuivi avec acharnement par François Hollande, y compris dans l’éventualité d’une opposition parlementaire. Thomas Piketty le décrit comme créant :
une inégalité insupportable et stigmatisante – en plus d’être totalement inutile et inefficace dans la lutte contre le terrorisme – pour des millions de Français nés en France1, dont le seul tort est d’avoir acquis au cours de leur vie une seconde nationalité pour des raisons familiales.
On pourrait ajouter qu’il représente aussi une dénégation majeure et porteuse des pires dérives et retours du refoulé : ce projet veut nier que ce sont bien des Français, ayant grandi dans l’état réel de nos sociétés qui commettent les crimes qui lui servent de prétexte. Tout comme ce sont des Français qui se servent de ces crimes pour déverser leur propre haine contre des populations entières.
Infamie il y a donc bien. Mais c’est sur autre chose que je veux insister ici. À considérer ce seul aspect de la révision constitutionnelle dont le projet a été adopté en Conseil des ministres le 23 décembre 2015, on risque de considérer le reste du projet comme anodin, alors qu’en réalité, si on le situe dans son contexte, il s’agit bel et bien d’une dérive gravissime vers la mise en place d’un état policier autoritaire.
De ce point, je suis surpris et choqué de lire sous la plume de nombreux juristes que l’inscription constitutionnelle de l’état d’urgence ne serait en elle-même pas choquante. Cela me paraît relever d’une incompréhension fondamentale de la situation des droits fondamentaux en France. La Constitution de 1958 ne comporte dans son texte proprement dit qu’un article établissant clairement un droit fondamental : l’article 66 qui affirme
Nul ne peut être arbitrairement détenu.
L’autorité judiciaire, gardienne de la liberté individuelle, assure le respect de ce principe dans les conditions prévues par la loi.
Une interprétation ouverte de cet article a longtemps servi à la reconnaissance d’autres droits fondamentaux avant que le Conseil constitutionnel ne limite cet usage en affirmant par une série de décisions à partir de 1999 qu’il est d’interprétation stricte. Notons cependant au passage que ce n’est pas par hasard que les rédacteurs de la Constitution ont affirmé que seul le juge judiciaire est gardien de la liberté individuelle. La Déclaration des droits de l’Homme et du citoyen de 1789, partie intégrante du socle de constitutionnalité, affirme d’autres droits fondamentaux, y compris le premier d’entre eux : « Les hommes naissent et demeurent libres et égaux en droits » que l’infamie piétine allègrement. Mais ces droits (par exemple la liberté d’expression définie à l’article XI) ne sont que faiblement défendus, que ce soit contre les abus de la loi (exemple des nombreux articles instituant une censure administrative de sites internet) ou contre les actes de police administrative ou les décisions du pouvoir politique. Ce malgré quelques sursauts comme la décision du Conseil constitutionnel du 10 juin 2009 sur la loi HADOPI.
Dans ce contexte de faiblesse structurelle de la défense constitutionnelle des droits fondamentaux, l’inclusion dans la Constitution de dispositions sur l’état d’urgence, loin de constituer un rempart contre des abus de l’état d’urgence ouvre la porte à une extension des atteintes aux droits qui lui sont associées à travers des lois de police. L’exposé des motifs de la révision constitutionnelle le reconnaît d’ailleurs :
Mais les mesures que cette loi [de 1955 sur l’état d’urgence], même modifiée, permet de prendre pour faire face à des circonstances exceptionnelles sont limitées par l’absence de fondement constitutionnel de l’état d’urgence.
Par ailleurs, le seul recours contre des abus sera le juge administratif. À répétition Bernard Cazeneuve et Jean-Jacques Urvoas prétendent que le juge administratif serait aussi ou plus défenseur des libertés que le juge judiciaire. Il s’agit d’une novlangue particulièrement scandaleuse. Dès qu’il y a invocation de la raison d’État et de l’ordre public, c’est tout le contraire.
Il faut crier haut et fort notre rejet absolu des menaces que font peser cette perspective sur nos libertés (menaces avérées dans la loi sur l’état d’urgence du 20 novembre 2015 et les abus innombrables relevés depuis le 14 novembre 2015, menaces prévisibles au vu des diverses lois de police annoncées). Il faut crier non moins fort notre indignation qu’on débatte à partir du 3 février de la constitutionnalisation de l’état d’urgence en situation d’état d’urgence, c’est-à-dire avec une possibilité discrétionnaire pour le pouvoir politique d’interdire les manifestations de défense des libertés. L’état policier n’est pas une perspective lointaine. Il est là si nous ne lui fermons pas la porte.
1. Il vaudrait mieux dire ici nés Français, car le projet s’applique également aux Français nés à l’étranger dont l’un des parents est français.
";s:7:"dateiso";s:15:"20160105_143335";}s:15:"20160104_161737";a:7:{s:5:"title";s:72:"Lettre ouverte aux gouvernements du monde : protégeons le chiffrement !";s:4:"link";s:72:"http://www.laquadrature.net/fr/lettre-ouverte-monde-proteger-chiffrement";s:4:"guid";s:35:"9732 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 04 Jan 2016 15:17:37 +0000";s:11:"description";s:6098:"
Paris, le 4 janvier 2016 — La Quadrature du Net s'est associée a des organisations et personnalités du monde entier en signant cette lettre ouverte aux gouvernements, pour les encourager et les inciter à promouvoir les techniques de chiffrement des communications et des systèmes informatiques. Le texte original et la liste des signataires peuvent être consultés sur le site « SecureTheInternet.org ».
Nous vous exhortons à protéger la sécurité de vos citoyens, de votre économie et de votre gouvernement, en soutenant le développement et l'usage d'outils et de technologies de communication sûrs, et en refusant toute mesure susceptible d'empêcher ou d'affaiblir l'utilisation d'un chiffrement fort, ainsi qu'en incitant les autres chefs de gouvernement à faire de même.
Les outils, technologies et services de chiffrement sont essentiels pour protéger notre infrastructure numérique et nos communications personnelles des intrusions indésirables. Le développement et l'utilisation libres du chiffrement sont aujourd'hui devenus la pierre angulaire de l'économie mondiale. A l'ère numérique, la croissance économique repose sur la capacité à faire confiance et à authentifier nos interactions, et à nous livrer à des activités commerciales en toute sécurité, à l'échelle nationale comme transnationale.
Certains des plus éminents experts et techniciens du chiffrement ont récemment expliqué que les lois ou politiques affaiblissant le chiffrement vont « forcer l'abandon des bonnes pratiques déjà en vigueur aujourd'hui et qui rendent Internet plus sûr », « augmenter significativement la complexité » des systèmes et les coûts associés, et « créer des cibles concentrées qui attireront les acteurs malveillants ». L'absence de chiffrement facilite l'accès à des données personnelles sensibles, notamment les informations d'identité et les données financières, par des criminels et autres acteurs malintentionnés. Une fois obtenues, les données sensibles peuvent être revendues, rendues publiques, ou utilisées à des fins de chantage ou de manipulation. De plus, des appareils ou du matériel insuffisamment chiffrés sont des cibles de choix pour les criminels.
Le Rapporteur spécial des Nations Unies pour la liberté d'expression a relevé : « le chiffrement et l'anonymat, et les concepts protecteurs qui en découlent, fournissent la confidentialité et la sécurité nécessaires pour l'exercice du droit à la liberté d'opinion et d'expression à l'ère numérique. » Alors que nous nous dirigeons vers la connexion du prochain milliard d'utilisateurs, des restrictions sur le chiffrement dans tout pays auraient probablement un impact global. Le chiffrement et autres technologies d'anonymisation permettent aux avocats, journalistes, lanceurs d'alerte, et organisateurs de communiquer librement au-delà des frontières et de consolider leurs communautés. Ils assurent également aux utilisateurs l'intégrité de leurs données et authentifient les individus auprès des entreprises, des gouvernements, et de leurs concitoyens.
Nous vous encourageons donc à soutenir la sûreté et la sécurité des utilisateurs en renforçant l'intégrité des communications et des systèmes informatiques. Tous les gouvernements devraient donc refuser les lois, mesures, mandats ou autres pratiques, y compris les accords secrets avec des entreprises, qui limitent ou affaiblissent l'accès au chiffrement ainsi qu'aux autres outils et technologies de communication sécurisés. Les utilisateurs devraient avoir le choix d'utiliser, et les entreprises de proposer, les méthodes de chiffrement les plus efficaces actuellement disponibles, y compris le chiffrement de bout en bout, sans craindre de voir les gouvernements les contraindre à fournir un accès au contenu, aux métadonnées ou aux clés de chiffrements, si ce n'est dans le respect à la fois de la procédure judiciaire et des droits de l'Homme.
C'est pourquoi :
Les gouvernements ne devraient pas interdire ou limiter de quelque façon que ce soit l'accès au chiffrement, ni interdire la mise en oeuvre ou l'utilisation du chiffrement en fonction de son standard ou de son type ;
Les gouvernements ne devraient pas imposer la création ou la mise en service de « backdoors » (portes dérobées) ou de failles dans les outils, les technologies ou les services ;
Les gouvernements ne devraient pas imposer que les outils, les technologies et les services soient conçus ou développés de façon à permettre à des tiers d'accéder aux données non chiffrées ou aux clés de chiffrement ;
Les gouvernements ne devraient pas chercher à affaiblir ou à dégrader les standards de chiffrement, ni à influencer intentionnellement l'établissement de standards de chiffrement, hormis dans le sens d'une amélioration de la sécurité de l'information. Nul gouvernement ne devrait imposer des algorithmes, standards, outils ou technologies de chiffrement insuffisamment sûrs ; et
Les gouvernements ne devraient pas, par des accords publics ou privés, forcer ou pousser une entité à des activités qui violeraient les principes ci-dessus.
Un chiffrement robuste et le déploiement d'outils et de systèmes sûrs qui reposent sur le chiffrement sont cruciaux pour améliorer la sécurité sur Internet, renforcer l'économie numérique, et protéger les utilisateurs. Pour continuer à tirer parti d'Internet comme moteur de croissance et de prospérité mondiales, et comme outil d'émancipation et d'activisme, il est nécessaire de pouvoir communiquer de manière confidentielle et sécurisée sur des réseaux de confiance.
En espérant travailler ensemble vers un avenir plus sûr.
Cordialement,
";s:7:"content";s:6098:"
Paris, le 4 janvier 2016 — La Quadrature du Net s'est associée a des organisations et personnalités du monde entier en signant cette lettre ouverte aux gouvernements, pour les encourager et les inciter à promouvoir les techniques de chiffrement des communications et des systèmes informatiques. Le texte original et la liste des signataires peuvent être consultés sur le site « SecureTheInternet.org ».
Nous vous exhortons à protéger la sécurité de vos citoyens, de votre économie et de votre gouvernement, en soutenant le développement et l'usage d'outils et de technologies de communication sûrs, et en refusant toute mesure susceptible d'empêcher ou d'affaiblir l'utilisation d'un chiffrement fort, ainsi qu'en incitant les autres chefs de gouvernement à faire de même.
Les outils, technologies et services de chiffrement sont essentiels pour protéger notre infrastructure numérique et nos communications personnelles des intrusions indésirables. Le développement et l'utilisation libres du chiffrement sont aujourd'hui devenus la pierre angulaire de l'économie mondiale. A l'ère numérique, la croissance économique repose sur la capacité à faire confiance et à authentifier nos interactions, et à nous livrer à des activités commerciales en toute sécurité, à l'échelle nationale comme transnationale.
Certains des plus éminents experts et techniciens du chiffrement ont récemment expliqué que les lois ou politiques affaiblissant le chiffrement vont « forcer l'abandon des bonnes pratiques déjà en vigueur aujourd'hui et qui rendent Internet plus sûr », « augmenter significativement la complexité » des systèmes et les coûts associés, et « créer des cibles concentrées qui attireront les acteurs malveillants ». L'absence de chiffrement facilite l'accès à des données personnelles sensibles, notamment les informations d'identité et les données financières, par des criminels et autres acteurs malintentionnés. Une fois obtenues, les données sensibles peuvent être revendues, rendues publiques, ou utilisées à des fins de chantage ou de manipulation. De plus, des appareils ou du matériel insuffisamment chiffrés sont des cibles de choix pour les criminels.
Le Rapporteur spécial des Nations Unies pour la liberté d'expression a relevé : « le chiffrement et l'anonymat, et les concepts protecteurs qui en découlent, fournissent la confidentialité et la sécurité nécessaires pour l'exercice du droit à la liberté d'opinion et d'expression à l'ère numérique. » Alors que nous nous dirigeons vers la connexion du prochain milliard d'utilisateurs, des restrictions sur le chiffrement dans tout pays auraient probablement un impact global. Le chiffrement et autres technologies d'anonymisation permettent aux avocats, journalistes, lanceurs d'alerte, et organisateurs de communiquer librement au-delà des frontières et de consolider leurs communautés. Ils assurent également aux utilisateurs l'intégrité de leurs données et authentifient les individus auprès des entreprises, des gouvernements, et de leurs concitoyens.
Nous vous encourageons donc à soutenir la sûreté et la sécurité des utilisateurs en renforçant l'intégrité des communications et des systèmes informatiques. Tous les gouvernements devraient donc refuser les lois, mesures, mandats ou autres pratiques, y compris les accords secrets avec des entreprises, qui limitent ou affaiblissent l'accès au chiffrement ainsi qu'aux autres outils et technologies de communication sécurisés. Les utilisateurs devraient avoir le choix d'utiliser, et les entreprises de proposer, les méthodes de chiffrement les plus efficaces actuellement disponibles, y compris le chiffrement de bout en bout, sans craindre de voir les gouvernements les contraindre à fournir un accès au contenu, aux métadonnées ou aux clés de chiffrements, si ce n'est dans le respect à la fois de la procédure judiciaire et des droits de l'Homme.
C'est pourquoi :
Les gouvernements ne devraient pas interdire ou limiter de quelque façon que ce soit l'accès au chiffrement, ni interdire la mise en oeuvre ou l'utilisation du chiffrement en fonction de son standard ou de son type ;
Les gouvernements ne devraient pas imposer la création ou la mise en service de « backdoors » (portes dérobées) ou de failles dans les outils, les technologies ou les services ;
Les gouvernements ne devraient pas imposer que les outils, les technologies et les services soient conçus ou développés de façon à permettre à des tiers d'accéder aux données non chiffrées ou aux clés de chiffrement ;
Les gouvernements ne devraient pas chercher à affaiblir ou à dégrader les standards de chiffrement, ni à influencer intentionnellement l'établissement de standards de chiffrement, hormis dans le sens d'une amélioration de la sécurité de l'information. Nul gouvernement ne devrait imposer des algorithmes, standards, outils ou technologies de chiffrement insuffisamment sûrs ; et
Les gouvernements ne devraient pas, par des accords publics ou privés, forcer ou pousser une entité à des activités qui violeraient les principes ci-dessus.
Un chiffrement robuste et le déploiement d'outils et de systèmes sûrs qui reposent sur le chiffrement sont cruciaux pour améliorer la sécurité sur Internet, renforcer l'économie numérique, et protéger les utilisateurs. Pour continuer à tirer parti d'Internet comme moteur de croissance et de prospérité mondiales, et comme outil d'émancipation et d'activisme, il est nécessaire de pouvoir communiquer de manière confidentielle et sécurisée sur des réseaux de confiance.
En espérant travailler ensemble vers un avenir plus sûr.
Cordialement,
";s:7:"dateiso";s:15:"20160104_161737";}s:15:"20151222_182819";a:7:{s:5:"title";s:64:"Campagne de dons 2015 : mille mercis et rendez-vous en 2016 ! <3";s:4:"link";s:50:"http://www.laquadrature.net/fr/merci-campagne-dons";s:4:"guid";s:35:"9729 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 22 Dec 2015 17:28:19 +0000";s:11:"description";s:3648:"
Paris, le 22 décembre 2015 — La campagne de dons 2015 de La Quadrature s'achève sur une grande satisfaction : notre budget pour l'an prochain est assuré, et nous pouvons meme espérer pouvoir renforcer nos actions !
La Quadrature du Net remercie très chaleureusement ses donateur-trices du soutien apporté et s'engage à poursuivre avec ardeur et intransigeance ses combats pour la défense des droits fondamentaux.
Cher-e-s donateurs-trices,
Lorsque nous avons lancé le 4 novembre dernier notre campagne annuelle de dons, nous espérions que vous seriez nombreux à répondre à notre appel, afin de nous permettre de continuer l'an prochain le travail indispensable de défense des libertés dans l'espace numérique que nous menons depuis 2008.
En effet, la campagne 2014 avait été difficile et ce n'est que grace à un sursaut inespéré de très nombreux donateur-trices (fin décembre) que nous avons pu poursuivre nos actions. Cette année, après de très dures campagnes politiques contre les lois de surveillance, nous avons à nouveau appelé à nous soutenir en espérant que réunir notre budget serait chose moins ardue.
Nous ne pouvions évidemment imaginer quelle serait la situation dix jours plus tard après le 13 novembre et à quel point nos combats s'intensifieraient encore, en pleine période d'état d'urgence. Nous avons choisi de mettre la priorité sur une dénonciation claire de cet état d'urgence et des restrictions de libertés, ainsi que des dérives institutionnelles qu'il entraine, au péril de notre financement.
Et vous avez pris magnifiquement le relais, prenant en charge notre campagne de dons et la faisant circuler, vous engageant jour après jour plus nombreux-ses pour nous permettre de continuer, faisant vôtres nos besoins et nos actions.
Nous sommes infiniment touchés par votre engagement, qui est notamment passé par un très grand nombre de nouveaux donateurs-ices récurrents !
Aujourd'hui nous pouvons débuter 2016 avec l'assurance de poursuivre nos actions, et peut-etre même de les amplifier en renforçant notre équipe, prioritairement sur nos campagnes internationales comme nous l'avions annoncé.
Un immense merci à tous ! Votre soutien est pour nous une forme d'approbation de nos actions, et un encouragement à les poursuivre avec toujours plus de force et de rigueur.
Nous espérons continuer à répondre à vos attentes en 2016, et nous vous assurons de toute notre reconnaissance et de notre enthousiasme pour nos futures campagnes.
Datalove ! <3
Le conseil d'orientation stratégique :
Philippe Aigrain, Benjamin Bayart, Laurent Chemla, Lionel Maurel, Yoann Spicher, Benjamin Sonntag, Félix Tréger, Laurence Vandewalle et Jérémie Zimmermann.
Et l'équipe opérationnelle de La Quadrature du Net :
Adrienne Charmet, Agnès de Cornulier, Baptiste Dagneaux, Mathieu Labonde, Okhin, Lori Roussey et Christopher Talib.
PS : si vous souhaitez poursuivre vos dons, nous vous invitons à soutenir d'autres associations défendant les libertés dans l'espace numérique, et particulièrement nos amis de l'APRIL, de Framasoft et de Nos Oignons ou d'autres !
";s:7:"content";s:3651:"
Paris, le 22 décembre 2015 — La campagne de dons 2015 de La Quadrature s'achève sur une grande satisfaction : notre budget pour l'an prochain est assuré, et nous pouvons meme espérer pouvoir renforcer nos actions !
La Quadrature du Net remercie très chaleureusement ses donateur-trices du soutien apporté et s'engage à poursuivre avec ardeur et intransigeance ses combats pour la défense des droits fondamentaux.
Cher-e-s donateurs-trices,
Lorsque nous avons lancé le 4 novembre dernier notre campagne annuelle de dons, nous espérions que vous seriez nombreux à répondre à notre appel, afin de nous permettre de continuer l'an prochain le travail indispensable de défense des libertés dans l'espace numérique que nous menons depuis 2008.
En effet, la campagne 2014 avait été difficile et ce n'est que grace à un sursaut inespéré de très nombreux donateur-trices (fin décembre) que nous avons pu poursuivre nos actions. Cette année, après de très dures campagnes politiques contre les lois de surveillance, nous avons à nouveau appelé à nous soutenir en espérant que réunir notre budget serait chose moins ardue.
Nous ne pouvions évidemment imaginer quelle serait la situation dix jours plus tard après le 13 novembre et à quel point nos combats s'intensifieraient encore, en pleine période d'état d'urgence. Nous avons choisi de mettre la priorité sur une dénonciation claire de cet état d'urgence et des restrictions de libertés, ainsi que des dérives institutionnelles qu'il entraine, au péril de notre financement.
Et vous avez pris magnifiquement le relais, prenant en charge notre campagne de dons et la faisant circuler, vous engageant jour après jour plus nombreux-ses pour nous permettre de continuer, faisant vôtres nos besoins et nos actions.
Nous sommes infiniment touchés par votre engagement, qui est notamment passé par un très grand nombre de nouveaux donateurs-ices récurrents !
Aujourd'hui nous pouvons débuter 2016 avec l'assurance de poursuivre nos actions, et peut-etre même de les amplifier en renforçant notre équipe, prioritairement sur nos campagnes internationales comme nous l'avions annoncé.
Un immense merci à tous ! Votre soutien est pour nous une forme d'approbation de nos actions, et un encouragement à les poursuivre avec toujours plus de force et de rigueur.
Nous espérons continuer à répondre à vos attentes en 2016, et nous vous assurons de toute notre reconnaissance et de notre enthousiasme pour nos futures campagnes.
Datalove ! <3
Le conseil d'orientation stratégique :
Philippe Aigrain, Benjamin Bayart, Laurent Chemla, Lionel Maurel, Yoann Spicher, Benjamin Sonntag, Félix Tréger, Laurence Vandewalle et Jérémie Zimmermann.
Et l'équipe opérationnelle de La Quadrature du Net :
Adrienne Charmet, Agnès de Cornulier, Baptiste Dagneaux, Mathieu Labonde, Okhin, Lori Roussey et Christopher Talib.
PS : si vous souhaitez poursuivre vos dons, nous vous invitons à soutenir d'autres associations défendant les libertés dans l'espace numérique, et particulièrement nos amis de l'APRIL, de Framasoft et de Nos Oignons ou d'autres !
";s:7:"dateiso";s:15:"20151222_182819";}s:15:"20151218_113813";a:7:{s:5:"title";s:91:"[Agence Anadolu] France : Crainte d'un état d'urgence « permanent » après les attentats";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9728";s:4:"guid";s:35:"9728 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 18 Dec 2015 10:38:13 +0000";s:11:"description";s:1945:"
La volonté du gouvernement français de prolonger encore l'état d'urgence suscite des inquiétudes quant à la suspension de l'Etat de droit et les atteintes aux droits fondamentaux après les attentats de Paris, relève l'association La Quadrature du Net. [...]
Le gouvernement français qui a pris une série de mesures sécuritaires inédites après les attentats du 13 novembre donne « l'impression d'avoir une prise sur la situation" et de faire avancer certaines lois qui ne "pourraient peut-être pas être votées en situation normale », explique Adrienne Charmet, porte-parole de la Quadrature du Net, association française de défense des libertés publiques sur Internet. [...]
« Ce qui est très inquiétant et problématique, c'est comme si on considérait que l'Etat de droit normal ne permettait pas de gérer la situation et d'assurer la sécurité publique », regrette Charmet, fustigeant les raisons avancées par l'exécutif pour prolonger l'état d'urgence.
L'interconnexion des fichiers personnels entre différentes administrations publiques, également prévue dans le cadre du nouveau régime d'état d'urgence « porte atteinte de manière très lourde à la vie privée », déplore encore la membre de la Quadrature du Net. Et d'ajouter : « On est en train de détruire complètement tout l'appareil de la protection de la vie privée des citoyens ». [...]
La volonté du gouvernement français de prolonger encore l'état d'urgence suscite des inquiétudes quant à la suspension de l'Etat de droit et les atteintes aux droits fondamentaux après les attentats de Paris, relève l'association La Quadrature du Net. [...]
Le gouvernement français qui a pris une série de mesures sécuritaires inédites après les attentats du 13 novembre donne « l'impression d'avoir une prise sur la situation" et de faire avancer certaines lois qui ne "pourraient peut-être pas être votées en situation normale », explique Adrienne Charmet, porte-parole de la Quadrature du Net, association française de défense des libertés publiques sur Internet. [...]
« Ce qui est très inquiétant et problématique, c'est comme si on considérait que l'Etat de droit normal ne permettait pas de gérer la situation et d'assurer la sécurité publique », regrette Charmet, fustigeant les raisons avancées par l'exécutif pour prolonger l'état d'urgence.
L'interconnexion des fichiers personnels entre différentes administrations publiques, également prévue dans le cadre du nouveau régime d'état d'urgence « porte atteinte de manière très lourde à la vie privée », déplore encore la membre de la Quadrature du Net. Et d'ajouter : « On est en train de détruire complètement tout l'appareil de la protection de la vie privée des citoyens ». [...]
";s:7:"dateiso";s:15:"20151218_113813";}s:15:"20151217_170302";a:7:{s:5:"title";s:27:"Sortir de l'état d'urgence";s:4:"link";s:53:"http://www.laquadrature.net/fr/sortir-de-etat-urgence";s:4:"guid";s:35:"9727 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 17 Dec 2015 16:03:02 +0000";s:11:"description";s:9160:"
Paris, le 17 décembre 2015 — Après l’appel « Nous ne céderons pas ! », une centaine d’organisation ont rendu public le texte « Sortir de l’état d’urgence » au cours d’une conférence de presse, le 17 décembre 2015.
En réaction à l’horreur des attentats, l’état d’urgence a été décrété par le gouvernement, puis aggravé et prolongé pour une durée de trois mois. Nos organisations ont immédiatement exprimé leurs craintes vis-à-vis de ce régime d’exception ; ces craintes sont aujourd’hui confirmées par l’ampleur des atteintes aux libertés constatées depuis quelques semaines. Nous assistons à un véritable détournement de l’état d’urgence qui cible également des personnes sans aucun lien avec des risques d’attentat. Ces abus doivent cesser.
La volonté de se rassembler et de manifester ensemble a prévalu après les attentats commis à Charlie Hebdo et l’Hyper Cacher de Vincennes, en janvier 2015. Elle prévaut encore. Or, depuis le 13 novembre 2015, les interdictions visant les mobilisations sur la voie publique se multiplient. Manifester n’est plus un droit, et les rares concessions accordées par les préfectures, qui attendent souvent le dernier moment pour informer de leurs intentions, entravent dans les faits son exercice.
Le ministère de l’Intérieur justifie tout cela par son incapacité à sécuriser les parcours alors même qu’il autorise, dans le même temps, les rencontres sportives et des événements tels que les marchés de Noël, qui se tiennent sur la voie publique. L’interdiction des rassemblements et manifestations entraîne la multiplication des arrestations, des gardes à vue, des assignations à résidence, un fichage policier des militants, et, pour quelques-uns, des condamnations. Qui peut croire que cela soulage les autorités ? La censure, ici, s’avère doublement contreproductive…
L’état d’urgence autorise par ailleurs des perquisitions sur ordre des préfectures, de jour comme de nuit, en dehors de tout cadre judiciaire, sur le fondement de fiches possiblement erronées, de dénonciations, d’informations et de soupçons sujets à caution. Plus de deux mille six cents intrusions discrétionnaires sont intervenues à domicile, dans des mosquées, des commerces, interventions souvent violentes, sans qu’aucune mise en examen pour terrorisme n’ait eu lieu. Rien n’indique qu’une telle frénésie va s’arrêter, chacun peut en être victime.
Les assignations à résidence se multiplient sur la base de motifs aussi vagues que la présence sur le lieu d’une manifestation ou le fait de « connaître » tel ou tel individu. Ces graves restrictions sont appliquées, sans distinction, et de manière massive, d’autant que les juridictions administratives ont montré qu’elles s’en accommodent, quitte à ce que les libertés en souffrent. Elles reprennent à leur compte toutes les allégations du ministère de l’Intérieur et, comble de la démission, sont nombreuses à considérer qu’il n’y aurait pas d’urgence à statuer sur l’état d’urgence.
L’état d’urgence et le climat de guerre intérieure alimenté par le gouvernement contribuent au renforcement des amalgames et aux pratiques discriminantes, notamment de la part des forces de police. Ce ne sont pas « les terroristes qui sont terrorisés », ce sont des jeunes et des populations victimes de l’arbitraire en raison de leur origine et/ou de leur religion qui voient leur situation encore davantage fragilisée.
Reprenant à son compte les exigences de l’extrême droite, FN en tête, le gouvernement s’engage honteusement dans une modification de la Constitution visant à étendre la déchéance de la nationalité aux binationaux nés en France.
Ces multiples atteintes portées au contrat démocratique sont une mauvaise réponse aux actes terroristes. Notre pays a été blessé, mais loin d’en apaiser les plaies, l’état d’urgence risque de les exacerber en appauvrissant notre démocratie, en délégitimant notre liberté.
Dans ces circonstances, nous appelons les pouvoirs publics à :
jouer leur rôle de garants de la défense des droits et des libertés publiques ;
rétablir, sans délai, le droit plein et entier de manifester ;
cesser les perquisitions et les assignations à résidence arbitraires et à agir dans le cadre de procédures judiciaires ;
mettre en place des garanties effectives de contrôle ;
lever l’état d’urgence ;
renoncer à une réforme constitutionnelle préparée dans l’urgence et au contenu inacceptable.
Paris, le 17 décembre 2015
Signataires :
AFD International, Agir pour le changement démocratique en Algérie (Acda), Altertour, L'Appel des appels, Assemblée citoyenne des originaires de Turquie (Acort), Association démocratique des Tunisiens en France (ADTF), Association française des juristes démocrates (AFJD), Association France Palestine solidarité (AFPS), Association Grèce France Résistance, Association interculturelle de production, de documentation et de diffusion audiovisuelles (AIDDA), Association des Marocains en France (AMF), Association pour la reconnaissance des droits et libertés aux femmes musulmanes (ARDLFM), Association des travailleurs maghrébins de France (ATMF), Association des Tunisiens en France (ATF), Association des universitaires pour le respect du droit international en Palestine (Aurdip), Attac, Cadac, Cedetim, Centre islamique Philippe Grenier (CIPG), Centre de recherche et d'information pour le développement (Crid), CGT-Police Paris, Collectif 3C, Collectif des 39, Collectif CGT Insertion-Probation (UGFF-CGT), Collectif Judéo Arabe et Citoyen pour la Palestine (CJACP), Collectif Stop le contrôle au faciès, Confédération générale du travail (CGT), Confédération nationale du logement (CNL), Confédération paysanne, Conseil national des associations familiales laïques (Cnafal), Collectif contre l'islamophobie en France (CCIF), Collectif des féministes pour l’égalité (CFPE), Collectif Memorial 98, Collectif des musulmans de France (CMF), Collectif national pour les droits des femmes (CNDF), Comité pour le développement et le patrimoine (CDP), Comité pour le respect des libertés et des droits de l'Homme en Tunisie (CRLDHT), Commission islam et laïcité, Confédération syndicale des familles (CSF), Coordination de l’action non-violente de l’Arche (Canva), Coordination des collectifs AC !, Droits devant !, Droit au logement (Dal), Droit solidarité, Emmaüs France, Emmaüs International, Fédération internationale des Ligues des droits de l’Homme (FIDH), Fédération nationale de la Libre pensée, Fédération des Tunisiens citoyens des deux rives (FTCR), Femmes Solidaires, Filles et fils de la République (FFR), Fondation Copernic, Fondation Danielle Mitterrand France Libertés, Genepi, Ipam, La Cimade, La Ligue de l'enseignement, La Quadrature du Net, Le Gisti, Le Mouvement de la paix, Les Amoureux au ban public, Les Céméa, Ligue des droits de l’Homme (LDH), Maison des potes, Mamans toutes égales (MTE), Minga-agir ensemble pour une économie équitable, Mouvement contre le racisme et pour l'amitié entre les peuples (Mrap), Observatoire international des prisons (OIP) - section française, Organisation de femmes égalité, Osez le féminisme !, Planning familial, Réseau d'alerte et d'intervention pour les droits de l'Homme (RaidH), Réseau éducation sans frontières (RESF), Réseau euromaghrébin culture et citoyenneté (REMCC), Réseau Euromed France (REF), Réseau Immigration Développement Démocratie (IDD), SNPES-PJJ/FSU, Solidaires étudiant-e-s, Solidarité laïque, Sud Intérieur, Syndicat des avocats de France (Saf), Syndicat français des artistes interprètes (SFA), Syndicat de la magistrature, Syndicat de la médecine générale, Syndicat national des arts vivants (Synavi), Syndicat national des journalistes (SNJ), Syndicat national unitaire interministériel des territoires, de l'agriculture et de la mer (SNUITAM – FSU), SNJ-CGT, Unef, Union générale des fédérations de fonctionnaires CGT (UGFF-CGT), Union juive française pour la paix (UJFP), Union nationale lycéenne (UNL), Union syndicale de la psychiatrie (USP), Union syndicale Solidaires, Union des travailleurs immigrés tunisiens (Utit).
Associations locales et autres :
Asti 93, Collectif 07 stop au gaz et huile de schiste, Collectif BDS Saint-Etienne, Collectif Justice & Libertés (Strasbourg), Collectif Maquis de Corrèze, Collectif Romeurope 94, la revue Ecole émancipée, Espace franco-algérien, Faucheurs volontaires de la Loire, la revue Inprecor, le journal Regards, Réseaux citoyens Saint-Etienne, Vigilance OGM 18.
";s:7:"content";s:9160:"
Paris, le 17 décembre 2015 — Après l’appel « Nous ne céderons pas ! », une centaine d’organisation ont rendu public le texte « Sortir de l’état d’urgence » au cours d’une conférence de presse, le 17 décembre 2015.
En réaction à l’horreur des attentats, l’état d’urgence a été décrété par le gouvernement, puis aggravé et prolongé pour une durée de trois mois. Nos organisations ont immédiatement exprimé leurs craintes vis-à-vis de ce régime d’exception ; ces craintes sont aujourd’hui confirmées par l’ampleur des atteintes aux libertés constatées depuis quelques semaines. Nous assistons à un véritable détournement de l’état d’urgence qui cible également des personnes sans aucun lien avec des risques d’attentat. Ces abus doivent cesser.
La volonté de se rassembler et de manifester ensemble a prévalu après les attentats commis à Charlie Hebdo et l’Hyper Cacher de Vincennes, en janvier 2015. Elle prévaut encore. Or, depuis le 13 novembre 2015, les interdictions visant les mobilisations sur la voie publique se multiplient. Manifester n’est plus un droit, et les rares concessions accordées par les préfectures, qui attendent souvent le dernier moment pour informer de leurs intentions, entravent dans les faits son exercice.
Le ministère de l’Intérieur justifie tout cela par son incapacité à sécuriser les parcours alors même qu’il autorise, dans le même temps, les rencontres sportives et des événements tels que les marchés de Noël, qui se tiennent sur la voie publique. L’interdiction des rassemblements et manifestations entraîne la multiplication des arrestations, des gardes à vue, des assignations à résidence, un fichage policier des militants, et, pour quelques-uns, des condamnations. Qui peut croire que cela soulage les autorités ? La censure, ici, s’avère doublement contreproductive…
L’état d’urgence autorise par ailleurs des perquisitions sur ordre des préfectures, de jour comme de nuit, en dehors de tout cadre judiciaire, sur le fondement de fiches possiblement erronées, de dénonciations, d’informations et de soupçons sujets à caution. Plus de deux mille six cents intrusions discrétionnaires sont intervenues à domicile, dans des mosquées, des commerces, interventions souvent violentes, sans qu’aucune mise en examen pour terrorisme n’ait eu lieu. Rien n’indique qu’une telle frénésie va s’arrêter, chacun peut en être victime.
Les assignations à résidence se multiplient sur la base de motifs aussi vagues que la présence sur le lieu d’une manifestation ou le fait de « connaître » tel ou tel individu. Ces graves restrictions sont appliquées, sans distinction, et de manière massive, d’autant que les juridictions administratives ont montré qu’elles s’en accommodent, quitte à ce que les libertés en souffrent. Elles reprennent à leur compte toutes les allégations du ministère de l’Intérieur et, comble de la démission, sont nombreuses à considérer qu’il n’y aurait pas d’urgence à statuer sur l’état d’urgence.
L’état d’urgence et le climat de guerre intérieure alimenté par le gouvernement contribuent au renforcement des amalgames et aux pratiques discriminantes, notamment de la part des forces de police. Ce ne sont pas « les terroristes qui sont terrorisés », ce sont des jeunes et des populations victimes de l’arbitraire en raison de leur origine et/ou de leur religion qui voient leur situation encore davantage fragilisée.
Reprenant à son compte les exigences de l’extrême droite, FN en tête, le gouvernement s’engage honteusement dans une modification de la Constitution visant à étendre la déchéance de la nationalité aux binationaux nés en France.
Ces multiples atteintes portées au contrat démocratique sont une mauvaise réponse aux actes terroristes. Notre pays a été blessé, mais loin d’en apaiser les plaies, l’état d’urgence risque de les exacerber en appauvrissant notre démocratie, en délégitimant notre liberté.
Dans ces circonstances, nous appelons les pouvoirs publics à :
jouer leur rôle de garants de la défense des droits et des libertés publiques ;
rétablir, sans délai, le droit plein et entier de manifester ;
cesser les perquisitions et les assignations à résidence arbitraires et à agir dans le cadre de procédures judiciaires ;
mettre en place des garanties effectives de contrôle ;
lever l’état d’urgence ;
renoncer à une réforme constitutionnelle préparée dans l’urgence et au contenu inacceptable.
Paris, le 17 décembre 2015
Signataires :
AFD International, Agir pour le changement démocratique en Algérie (Acda), Altertour, L'Appel des appels, Assemblée citoyenne des originaires de Turquie (Acort), Association démocratique des Tunisiens en France (ADTF), Association française des juristes démocrates (AFJD), Association France Palestine solidarité (AFPS), Association Grèce France Résistance, Association interculturelle de production, de documentation et de diffusion audiovisuelles (AIDDA), Association des Marocains en France (AMF), Association pour la reconnaissance des droits et libertés aux femmes musulmanes (ARDLFM), Association des travailleurs maghrébins de France (ATMF), Association des Tunisiens en France (ATF), Association des universitaires pour le respect du droit international en Palestine (Aurdip), Attac, Cadac, Cedetim, Centre islamique Philippe Grenier (CIPG), Centre de recherche et d'information pour le développement (Crid), CGT-Police Paris, Collectif 3C, Collectif des 39, Collectif CGT Insertion-Probation (UGFF-CGT), Collectif Judéo Arabe et Citoyen pour la Palestine (CJACP), Collectif Stop le contrôle au faciès, Confédération générale du travail (CGT), Confédération nationale du logement (CNL), Confédération paysanne, Conseil national des associations familiales laïques (Cnafal), Collectif contre l'islamophobie en France (CCIF), Collectif des féministes pour l’égalité (CFPE), Collectif Memorial 98, Collectif des musulmans de France (CMF), Collectif national pour les droits des femmes (CNDF), Comité pour le développement et le patrimoine (CDP), Comité pour le respect des libertés et des droits de l'Homme en Tunisie (CRLDHT), Commission islam et laïcité, Confédération syndicale des familles (CSF), Coordination de l’action non-violente de l’Arche (Canva), Coordination des collectifs AC !, Droits devant !, Droit au logement (Dal), Droit solidarité, Emmaüs France, Emmaüs International, Fédération internationale des Ligues des droits de l’Homme (FIDH), Fédération nationale de la Libre pensée, Fédération des Tunisiens citoyens des deux rives (FTCR), Femmes Solidaires, Filles et fils de la République (FFR), Fondation Copernic, Fondation Danielle Mitterrand France Libertés, Genepi, Ipam, La Cimade, La Ligue de l'enseignement, La Quadrature du Net, Le Gisti, Le Mouvement de la paix, Les Amoureux au ban public, Les Céméa, Ligue des droits de l’Homme (LDH), Maison des potes, Mamans toutes égales (MTE), Minga-agir ensemble pour une économie équitable, Mouvement contre le racisme et pour l'amitié entre les peuples (Mrap), Observatoire international des prisons (OIP) - section française, Organisation de femmes égalité, Osez le féminisme !, Planning familial, Réseau d'alerte et d'intervention pour les droits de l'Homme (RaidH), Réseau éducation sans frontières (RESF), Réseau euromaghrébin culture et citoyenneté (REMCC), Réseau Euromed France (REF), Réseau Immigration Développement Démocratie (IDD), SNPES-PJJ/FSU, Solidaires étudiant-e-s, Solidarité laïque, Sud Intérieur, Syndicat des avocats de France (Saf), Syndicat français des artistes interprètes (SFA), Syndicat de la magistrature, Syndicat de la médecine générale, Syndicat national des arts vivants (Synavi), Syndicat national des journalistes (SNJ), Syndicat national unitaire interministériel des territoires, de l'agriculture et de la mer (SNUITAM – FSU), SNJ-CGT, Unef, Union générale des fédérations de fonctionnaires CGT (UGFF-CGT), Union juive française pour la paix (UJFP), Union nationale lycéenne (UNL), Union syndicale de la psychiatrie (USP), Union syndicale Solidaires, Union des travailleurs immigrés tunisiens (Utit).
Associations locales et autres :
Asti 93, Collectif 07 stop au gaz et huile de schiste, Collectif BDS Saint-Etienne, Collectif Justice & Libertés (Strasbourg), Collectif Maquis de Corrèze, Collectif Romeurope 94, la revue Ecole émancipée, Espace franco-algérien, Faucheurs volontaires de la Loire, la revue Inprecor, le journal Regards, Réseaux citoyens Saint-Etienne, Vigilance OGM 18.
";s:7:"dateiso";s:15:"20151217_170302";}s:15:"20151209_165244";a:7:{s:5:"title";s:82:"Droit d'auteur en Europe : une réforme a minima pour éviter les vraies questions";s:4:"link";s:71:"http://www.laquadrature.net/fr/droit-auteur-europe-une-reforme-a-minima";s:4:"guid";s:35:"9723 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 09 Dec 2015 15:52:44 +0000";s:11:"description";s:7889:"
Paris, le 9 décembre 2015 — La Commission européenne a proposé aujourd'hui son cadre de réforme du droit d'auteur dans l'Union européenne. Ce cadre comprend en premier lieu une proposition de règlement sur la portabilité des services en ligne et en second lieu une communication annonçant les réformes à venir, à l'horizon 2016. La Commission européenne confirme ainsi sa volonté de ne pas rouvrir le dossier de la directive InfoSoc1, montrant sa frilosité et son manque d'ambition sur ce dossier.
Suite à l'adoption du rapport de Julia Reda le 9 juillet dernier, la Commission européenne a présenté sa stratégie de réforme du droit d'auteur pour adapter la directive de 2001 au numérique. Or, au lieu de revoir dans son ensemble la directive et d'y insérer des mesures positives afin de rééquilibrer les règles de droit d'auteur en tenant compte des usages, la Commission a préféré fragmenter la réforme, esquivant ainsi un débat certes houleux, mais nécessaire, sur le système actuel et son évolution.
Un premier texte législatif a été publié. Il s'agit d'une proposition de règlement sur la portabilité des services en ligne. Ce court texte va dans le bon sens puisqu'il cherche à permettre aux individus, lors de leurs déplacements au sein de l'UE, d'accéder au contenu en ligne accessible légalement dans leur pays d'origine, via des abonnements ou des offres de vidéo à la demande par exemple. En revanche, cette proposition — qui ne fait que corriger une aberration — manque totalement d'ambition et n'apporte aucune réponse aux problèmes réels de difficulté d'accès au contenu. Elle se garde bien d'ouvrir le débat sur le bien-fondé des multiples mesures techniques de protection (type blocage géographique, système de gestion des droits numériques — DRM —, etc.).
Le second texte présenté par la Commission européenne est une présentation de sa stratégie à venir, avec notamment la volonté de clarifier et harmoniser le régime des exceptions au droit d'auteur :
Mettre en œuvre le traité de Marrakech qui vise à faciliter l'accès des œuvres et textes publiés pour les personnes aveugles ou ayant un handicape visuel
Faciliter le travail de recherche, via l'autorisation de mener des études statistiques (text mining et data mining) sur des œuvres, sans demander d'autorisation préalable ou payer des droits d'auteurs
Permettre une exception au droit d'auteur pour les illustrations dans le cadre de l'éducation
Clarifier les règles sur la liberté de panorama, sujet qui a fait l'objet de débats houleux lors de l'adoption du rapport Reda et qui risque de rencontrer une opposition forte, notamment de la part de la France
On peut saluer le fait que la Commission continue à faire figurer à l'agenda politique des exceptions au droit d'auteur, alors que celles-ci ont fait l'objet de remises en cause violentes de la part des ayants droit lors du débat sur le rapport Reda. Mais ces propositions restent en retrait par rapport à la résolution adoptée en juillet par le Parlement européen qui invitait la Commission à agir sur davantage de sujets (domaine public, livres numériques en bibliothèque).
La Commission européenne a indiqué vouloir aussi travailler sur les redevances pour copie privée. Mais plus inquiétant, elle semble vouloir proposer des mesures offensives pour protéger le droit d'auteur. Tout d'abord, une proposition sera faite pour tenir compte de la consultation en cours sur les plateformes, afin de définir leur responsabilité. Dans sa communication, la Commission européenne vise notamment les agrégateurs de liens qui mettent à disposition du public des extraits d’œuvres ou textes, ce qui nécessite de redéfinir les concepts de "communication au public" et de "mise à disposition". Cette mesure pourrait ainsi empêcher certaines plateformes d’agréger du contenu sans payer des droits d'auteurs, réduisant ainsi considérablement l'accès à la culture et à la connaissance des personnes qui résident dans l'Union européenne. En outre, le Commissaire Oettinger a précisé qu'il n'y avait pas de volonté de taxer les liens hypertextes, mais l'incertitude demeure forte sur le statut du lien hypertexte.
Enfin, la machine répressive concerne aussi le partage des œuvres soumises au droit d'auteur via notamment :
le mécanisme follow the money (suivre l'argent) qui consiste à impliquer tous les acteurs et notamment financiers pour assécher les revenus des sites mettant à disposition des œuvres sans respecter les règles de droit d'auteur. Cette approche est vue comme une mesure d'autorégulation, en général via des chartes passées entre le gouvernement, les acteurs financiers et les hébergeurs, sans passer par le juge. Outre l'inefficacité de ce type de mesures, en raison de la facilité de les contourner, il est regrettable que le juge soit une fois de plus évincé, au risque de porter atteinte à la liberté d'expression et de restreindre un peu plus l'accès à la culture.
les mécanismes de notice and take down et take down and stay down. Ces deux mécanismes ont pour objectif de responsabiliser les hébergeurs, soit en supprimant directement le contenu présent de façon illicite, après notification, soit par une action préventive de surveillance, pour empêcher la mise en ligne de l’œuvre soumise au droit d'auteur.
Lors de sa publication, nous avions souligné que, malgré ses propositions intéressantes, le rapport Reda aurait pu aller plus loin dans ses propositions pour la reconnaissance de nouveaux droits culturels, notamment par la légalisation du partage non-marchand des œuvres entre individus. Or la Commission européenne montre clairement sa volonté de légiférer par mesurettes éparses, sans poser les bonnes questions sur la rigidité et l'inefficacité du système actuel. Les mesures répressives vont dans le sens de ce que La Quadrature dénonce depuis plusieurs mois : la responsabilisation des intermédiaires et l'éviction du juge, qui sont souvent inefficaces et portent atteinte à la liberté d'expression. Il est urgent de revoir l'ensemble de ces propositions pour mieux adapter la législation aux usages et cesser de donner plus de pouvoirs aux entreprises sur nos libertés.
1.Directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information
";s:7:"content";s:7892:"
Paris, le 9 décembre 2015 — La Commission européenne a proposé aujourd'hui son cadre de réforme du droit d'auteur dans l'Union européenne. Ce cadre comprend en premier lieu une proposition de règlement sur la portabilité des services en ligne et en second lieu une communication annonçant les réformes à venir, à l'horizon 2016. La Commission européenne confirme ainsi sa volonté de ne pas rouvrir le dossier de la directive InfoSoc1, montrant sa frilosité et son manque d'ambition sur ce dossier.
Suite à l'adoption du rapport de Julia Reda le 9 juillet dernier, la Commission européenne a présenté sa stratégie de réforme du droit d'auteur pour adapter la directive de 2001 au numérique. Or, au lieu de revoir dans son ensemble la directive et d'y insérer des mesures positives afin de rééquilibrer les règles de droit d'auteur en tenant compte des usages, la Commission a préféré fragmenter la réforme, esquivant ainsi un débat certes houleux, mais nécessaire, sur le système actuel et son évolution.
Un premier texte législatif a été publié. Il s'agit d'une proposition de règlement sur la portabilité des services en ligne. Ce court texte va dans le bon sens puisqu'il cherche à permettre aux individus, lors de leurs déplacements au sein de l'UE, d'accéder au contenu en ligne accessible légalement dans leur pays d'origine, via des abonnements ou des offres de vidéo à la demande par exemple. En revanche, cette proposition — qui ne fait que corriger une aberration — manque totalement d'ambition et n'apporte aucune réponse aux problèmes réels de difficulté d'accès au contenu. Elle se garde bien d'ouvrir le débat sur le bien-fondé des multiples mesures techniques de protection (type blocage géographique, système de gestion des droits numériques — DRM —, etc.).
Le second texte présenté par la Commission européenne est une présentation de sa stratégie à venir, avec notamment la volonté de clarifier et harmoniser le régime des exceptions au droit d'auteur :
Mettre en œuvre le traité de Marrakech qui vise à faciliter l'accès des œuvres et textes publiés pour les personnes aveugles ou ayant un handicape visuel
Faciliter le travail de recherche, via l'autorisation de mener des études statistiques (text mining et data mining) sur des œuvres, sans demander d'autorisation préalable ou payer des droits d'auteurs
Permettre une exception au droit d'auteur pour les illustrations dans le cadre de l'éducation
Clarifier les règles sur la liberté de panorama, sujet qui a fait l'objet de débats houleux lors de l'adoption du rapport Reda et qui risque de rencontrer une opposition forte, notamment de la part de la France
On peut saluer le fait que la Commission continue à faire figurer à l'agenda politique des exceptions au droit d'auteur, alors que celles-ci ont fait l'objet de remises en cause violentes de la part des ayants droit lors du débat sur le rapport Reda. Mais ces propositions restent en retrait par rapport à la résolution adoptée en juillet par le Parlement européen qui invitait la Commission à agir sur davantage de sujets (domaine public, livres numériques en bibliothèque).
La Commission européenne a indiqué vouloir aussi travailler sur les redevances pour copie privée. Mais plus inquiétant, elle semble vouloir proposer des mesures offensives pour protéger le droit d'auteur. Tout d'abord, une proposition sera faite pour tenir compte de la consultation en cours sur les plateformes, afin de définir leur responsabilité. Dans sa communication, la Commission européenne vise notamment les agrégateurs de liens qui mettent à disposition du public des extraits d’œuvres ou textes, ce qui nécessite de redéfinir les concepts de "communication au public" et de "mise à disposition". Cette mesure pourrait ainsi empêcher certaines plateformes d’agréger du contenu sans payer des droits d'auteurs, réduisant ainsi considérablement l'accès à la culture et à la connaissance des personnes qui résident dans l'Union européenne. En outre, le Commissaire Oettinger a précisé qu'il n'y avait pas de volonté de taxer les liens hypertextes, mais l'incertitude demeure forte sur le statut du lien hypertexte.
Enfin, la machine répressive concerne aussi le partage des œuvres soumises au droit d'auteur via notamment :
le mécanisme follow the money (suivre l'argent) qui consiste à impliquer tous les acteurs et notamment financiers pour assécher les revenus des sites mettant à disposition des œuvres sans respecter les règles de droit d'auteur. Cette approche est vue comme une mesure d'autorégulation, en général via des chartes passées entre le gouvernement, les acteurs financiers et les hébergeurs, sans passer par le juge. Outre l'inefficacité de ce type de mesures, en raison de la facilité de les contourner, il est regrettable que le juge soit une fois de plus évincé, au risque de porter atteinte à la liberté d'expression et de restreindre un peu plus l'accès à la culture.
les mécanismes de notice and take down et take down and stay down. Ces deux mécanismes ont pour objectif de responsabiliser les hébergeurs, soit en supprimant directement le contenu présent de façon illicite, après notification, soit par une action préventive de surveillance, pour empêcher la mise en ligne de l’œuvre soumise au droit d'auteur.
Lors de sa publication, nous avions souligné que, malgré ses propositions intéressantes, le rapport Reda aurait pu aller plus loin dans ses propositions pour la reconnaissance de nouveaux droits culturels, notamment par la légalisation du partage non-marchand des œuvres entre individus. Or la Commission européenne montre clairement sa volonté de légiférer par mesurettes éparses, sans poser les bonnes questions sur la rigidité et l'inefficacité du système actuel. Les mesures répressives vont dans le sens de ce que La Quadrature dénonce depuis plusieurs mois : la responsabilisation des intermédiaires et l'éviction du juge, qui sont souvent inefficaces et portent atteinte à la liberté d'expression. Il est urgent de revoir l'ensemble de ces propositions pour mieux adapter la législation aux usages et cesser de donner plus de pouvoirs aux entreprises sur nos libertés.
1.Directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information
";s:7:"dateiso";s:15:"20151209_165244";}s:15:"20151207_115703";a:7:{s:5:"title";s:108:"[NextINpact] Tor, Wi-Fi public, chiffrement, VoIP : les vœux des policiers pour le tour de vis sécuritaire";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9722";s:4:"guid";s:35:"9722 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 07 Dec 2015 10:57:03 +0000";s:11:"description";s:2618:"
Alors que deux nouveaux projets de loi se préparent, l’un pour modifier la Constitution, l’autre sur la lutte antiterroriste, le haut du tableau des forces de l’ordre (policiers, gendarmes) ont déjà fait connaître leurs vœux de modifications législatives. [...]
Si l’état d’urgence est bien un terreau aux idées les plus fleuries, ce vent sécuritaire n’est pas une première en France. Rappelons-nous qu’en amont des débats Hadopi, le Conseil Général des Technologies de l’Information avait déjà proposé une mesure similaire. En 2009, il avait suggéré de restreindre les accès Wi-Fi publics proposés à titre gratuit à une liste blanche de sites qu’aurait dressée une entité administrative. À l’époque, le CGTI avait soutenu que « c’était la seule [mesure de protection] qui permettrait d’endiguer, le cas échéant, le téléchargement d’œuvres de la part de 16 millions de nomades tout en continuant de leur offrir à partir de tels accès gratuits l’essentiel du web utile à la vie économique, culturelle et sociale du pays ». Quelques semaines plus tard, Christine Albanel nous confiait qu’elle avait finalement décidé d’abandonner cette idée, « très incommode »... et surtout très critiquée. [...]
Autre souhait : « identifier les applications de VoIP et obliger les éditeurs à communiquer aux forces de sécurité les clefs de chiffrement ». Sur le premier point, l’article L33-1 du CPCE pose déjà que « l'établissement et l'exploitation des réseaux ouverts au public et la fourniture au public de services de communications électroniques sont libres sous réserve d'une déclaration préalable auprès de l'Autorité de régulation des communications électroniques et des postes ». Cet article est le socle d’un conflit de longue date entre Skype et l’ARCEP, laquelle considère le géant de la VoIP comme un opérateur de communications électroniques. Apposé, ce label oblige les opérateurs privés à acheminer les appels d’urgence, mais surtout à suivre une série d’obligations permettant de mettre en œuvre des interceptions de sécurité (écoutes). [...]
Alors que deux nouveaux projets de loi se préparent, l’un pour modifier la Constitution, l’autre sur la lutte antiterroriste, le haut du tableau des forces de l’ordre (policiers, gendarmes) ont déjà fait connaître leurs vœux de modifications législatives. [...]
Si l’état d’urgence est bien un terreau aux idées les plus fleuries, ce vent sécuritaire n’est pas une première en France. Rappelons-nous qu’en amont des débats Hadopi, le Conseil Général des Technologies de l’Information avait déjà proposé une mesure similaire. En 2009, il avait suggéré de restreindre les accès Wi-Fi publics proposés à titre gratuit à une liste blanche de sites qu’aurait dressée une entité administrative. À l’époque, le CGTI avait soutenu que « c’était la seule [mesure de protection] qui permettrait d’endiguer, le cas échéant, le téléchargement d’œuvres de la part de 16 millions de nomades tout en continuant de leur offrir à partir de tels accès gratuits l’essentiel du web utile à la vie économique, culturelle et sociale du pays ». Quelques semaines plus tard, Christine Albanel nous confiait qu’elle avait finalement décidé d’abandonner cette idée, « très incommode »... et surtout très critiquée. [...]
Autre souhait : « identifier les applications de VoIP et obliger les éditeurs à communiquer aux forces de sécurité les clefs de chiffrement ». Sur le premier point, l’article L33-1 du CPCE pose déjà que « l'établissement et l'exploitation des réseaux ouverts au public et la fourniture au public de services de communications électroniques sont libres sous réserve d'une déclaration préalable auprès de l'Autorité de régulation des communications électroniques et des postes ». Cet article est le socle d’un conflit de longue date entre Skype et l’ARCEP, laquelle considère le géant de la VoIP comme un opérateur de communications électroniques. Apposé, ce label oblige les opérateurs privés à acheminer les appels d’urgence, mais surtout à suivre une série d’obligations permettant de mettre en œuvre des interceptions de sécurité (écoutes). [...]
";s:7:"dateiso";s:15:"20151207_115703";}s:15:"20151207_113227";a:7:{s:5:"title";s:87:"[Actualitte] La réforme du statut des hébergeurs, atteinte à la neutralité du net ?";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9720";s:4:"guid";s:35:"9720 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 07 Dec 2015 10:32:27 +0000";s:11:"description";s:1625:"
Le Forum de Tokyo, qui se déroulait hier à l'initiative de l'AFDEL, l'Association française des éditeurs de logiciels et solutions internet, s'est arrêté sur les modèles d'affaires en vogue du côté des multinationales ou des start-ups du numérique. Tout le secteur est par ailleurs concerné par une réforme européenne du droit d'auteur et de sa directive, qui aura un impact certain sur un autre texte de l'Union, celui sur le Commerce électronique. [...]
L'eurodéputée du Parti Pirate, auteure du rapport sur la réforme du droit d'auteur, Julia Reda, avait d'emblée exprimé ses craintes vis-à-vis d'une responsabilité de l'hébergeur : « [M]ettre en place une responsabilité des hébergeurs revient finalement à renforcer la position des grands acteurs, car eux seuls, peuvent payer, surveiller leurs utilisateurs ou suivre une action en justice », nous expliquait-elle en avril dernier. [...]
Par ailleurs, elle estime que le changement du statut des hébergeurs, qui leur confierait une responsabilité dans la diffusion des contenus de leur plateforme, porterait atteinte à la neutralité du net, un concept central pour le réseau. [...]
Le Forum de Tokyo, qui se déroulait hier à l'initiative de l'AFDEL, l'Association française des éditeurs de logiciels et solutions internet, s'est arrêté sur les modèles d'affaires en vogue du côté des multinationales ou des start-ups du numérique. Tout le secteur est par ailleurs concerné par une réforme européenne du droit d'auteur et de sa directive, qui aura un impact certain sur un autre texte de l'Union, celui sur le Commerce électronique. [...]
L'eurodéputée du Parti Pirate, auteure du rapport sur la réforme du droit d'auteur, Julia Reda, avait d'emblée exprimé ses craintes vis-à-vis d'une responsabilité de l'hébergeur : « [M]ettre en place une responsabilité des hébergeurs revient finalement à renforcer la position des grands acteurs, car eux seuls, peuvent payer, surveiller leurs utilisateurs ou suivre une action en justice », nous expliquait-elle en avril dernier. [...]
Par ailleurs, elle estime que le changement du statut des hébergeurs, qui leur confierait une responsabilité dans la diffusion des contenus de leur plateforme, porterait atteinte à la neutralité du net, un concept central pour le réseau. [...]
";s:7:"dateiso";s:15:"20151207_113227";}s:15:"20151203_161504";a:7:{s:5:"title";s:67:"[NextINpact] La France prépare un nouveau tour de vis sécuritaire";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9715";s:4:"guid";s:35:"9715 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 03 Dec 2015 15:15:04 +0000";s:11:"description";s:2174:"
Après la loi de programmation militaire, la loi contre le terrorisme, la loi sur le renseignement, la loi sur la surveillance des communications électroniques internationales, la loi prorogeant et révisant l’état d’urgence, la France prépare un nouveau texte sécuritaire. [...]
Un cran plus bas, une loi sécuritaire devrait introduire dans notre droit tout un arsenal de mesures. Cela passerait par la possibilité pour la police administrative de procéder à des saisies, sans donc l’intervention préalable d’un juge. Aujourd’hui, même dans le cadre de l’état d’urgence, elle doit faire appel à un officier de police judiciaire. Voilà pourquoi, dans le secteur des nouvelles technologies, elle doit se contenter de réaliser des copies lorsqu’elle procède à une perquisition informatique.[...]
Déjà, l’exécutif envisage une interconnexion globale de tous les fichiers, même ceux de la Sécurité sociale. Cette mesure est annoncée alors que dès le 1er janvier 2016, une disposition votée dans le cadre de la loi sur le financement de la Sécurité sociale prévoit déjà de faciliter le croisement systématique des sommes perçues par les bénéficiaires d’aides sociales afin de détecter les éventuelles fraudes aux prestations sociales. [...]
Selon le Monde, l’avant-projet de loi va aussi faciliter le déploiement des IMSI catcher, ces fausses antennes relais qui se font passer pour un réseau légitime auprès des téléphones détectés dans son spectre. Elles peuvent alors aspirer les données qui y transitent (contenant comme contenu). Ce déploiement se ferait sans autorisation préalable du juge. On voit là encore mal à cet instant la différence avec ce qu’a déjà programmé la loi sur le renseignement. [...]
Après la loi de programmation militaire, la loi contre le terrorisme, la loi sur le renseignement, la loi sur la surveillance des communications électroniques internationales, la loi prorogeant et révisant l’état d’urgence, la France prépare un nouveau texte sécuritaire. [...]
Un cran plus bas, une loi sécuritaire devrait introduire dans notre droit tout un arsenal de mesures. Cela passerait par la possibilité pour la police administrative de procéder à des saisies, sans donc l’intervention préalable d’un juge. Aujourd’hui, même dans le cadre de l’état d’urgence, elle doit faire appel à un officier de police judiciaire. Voilà pourquoi, dans le secteur des nouvelles technologies, elle doit se contenter de réaliser des copies lorsqu’elle procède à une perquisition informatique.[...]
Déjà, l’exécutif envisage une interconnexion globale de tous les fichiers, même ceux de la Sécurité sociale. Cette mesure est annoncée alors que dès le 1er janvier 2016, une disposition votée dans le cadre de la loi sur le financement de la Sécurité sociale prévoit déjà de faciliter le croisement systématique des sommes perçues par les bénéficiaires d’aides sociales afin de détecter les éventuelles fraudes aux prestations sociales. [...]
Selon le Monde, l’avant-projet de loi va aussi faciliter le déploiement des IMSI catcher, ces fausses antennes relais qui se font passer pour un réseau légitime auprès des téléphones détectés dans son spectre. Elles peuvent alors aspirer les données qui y transitent (contenant comme contenu). Ce déploiement se ferait sans autorisation préalable du juge. On voit là encore mal à cet instant la différence avec ce qu’a déjà programmé la loi sur le renseignement. [...]
";s:7:"dateiso";s:15:"20151203_161504";}s:15:"20151202_174013";a:7:{s:5:"title";s:15:"Newsletter #67";s:4:"link";s:44:"http://www.laquadrature.net/fr/newsletter-67";s:4:"guid";s:35:"9711 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 02 Dec 2015 16:40:13 +0000";s:11:"description";s:21691:"
Mercredi 4 novembre, La Quadrature du Net a lancé sa campagne de soutien annuelle.
Pour démarrer cette campagne de soutien, nous rencontrer et réfléchir ensemble aux actions à mener, des quadr'apéros simultanés ont eu lieu partout en France : Bordeaux, Brest, Lille, Grenoble, Lyon, Marseille, Nantes, Paris, Saint-Brieuc, Strasbourg, Toulouse…
Merci à toutes les personnes qui ont organisé des quadr'apéros dans leur ville et qui ont contribué à faire de cette soirée un vrai succès <3
Cette campagne n'est pas encore terminée, nous avons encore besoin de vous ! Soutenez le combat pour les libertés en 2016 en donnant à La Quadrature du Net : https://soutien.laquadrature.net
L'état d'urgence a été décrété puis prolongé pour trois mois avec trop peu de débats et d'opposition pour une décision aussi grave pour les libertés, profitant de l'état de choc des parlementaires et des Français.
Dès le lundi 16 novembre, La Quadrature du Net a demandé de prendre le temps de la réflexion, de l'analyse, et du bilan, avant de se lancer dans une course aveugle vers les politiques sécuritaires.
Le gouvernement s'est au contraire précipité de faire adopter une loi en trois jours par le Parlement, prolongeant et modifiant les conditions de l'état d'urgence.
L'analyse de la loi faite par La Quadrature du Net se trouve sur le wiki de l'association.
La Quadrature du Net a aussi lancé une pétition en faveur de la mise en place d'une commission d'enquête parlementaire. Il s'agit de conduire une investigation ouverte et transparente sur les attentats et sur les lois relatives à la lutte contre le terrorisme et au renseignement qui ont été votées ces 3 dernières années.
Grâce à l'aide de nombreux citoyens, une page de wiki a été ouverte afin de recenser les joies (ou pas) de l'état d'urgence.
Surveillance
Après l'Assemblée nationale, le Sénat a adopté à son tour la proposition de loi sur la surveillance internationale.
Les sénateurs ont ensuite déposé une saisine blanche au Conseil constitutionnel. Celui-ci a, sans surprise et dans un délai de 8 jours, validé le texte le 26 novembre.
Mais les attaques contre la vie privée se font de plus en plus visibles aussi au niveau européen où les socialistes français ont lâchement réussi à supprimer une disposition du rapport de Claude Moraes, visant à demander à la Commission de vérifier la conformité des lois de surveillance françaises avec le droit européen.
L'analyse du rapport de Claude Moraes est disponible sur notre wiki.
Lire les communiqués de presse de La Quadrature du Net :
Le règlement relatif aux télécommunications a été adopté par le Parlement européen, avec des failles qui sont susceptibles de porter atteinte au principe de neutralité du Net, et ce, malgré les amendements soutenus par une poignée d'eurodéputés et soutenus par de nombreuses organisations citoyennes, dont La Quadrature du Net.
La campagne n'est cependant pas terminée. En effet, le BEREC (ORECE en français) organe européen qui rassemble les autorités nationales de régulations des telecommunications (l'ARCEP pour la France), négocie actuellement les lignes directrices qui seront applicables dans les États membres. Ainsi, ces lignes directrices pourront, si elles sont bien faites, combler les failles existantes et renforcer considérablement la neutralité du Net en encadrant les services spécialisés et la gestion de trafic.
Lire les communiqués de presse de La Quadrature du Net :
« Avec le recul, les lois Pasqua paraissent toutes droit sorties du monde des Bisounours » — TerraEco
#Conversation : La Quadrature du Net veut grandir pour mieux défendre nos droits — Numerama
On vous explique la V2 du projet de loi numérique — NextINpact
La liberté d'expression sur Internet recule dans le monde, la France épinglée — Les Échos
État d'urgence
L'état d'urgence et ses dérapages surveillés à la loupe. — Télérama
Loi sur l’état d’urgence, quelles conséquences sur le numérique — La Croix
Attentats : Valls veut rouvrir le débat sur la consultation de sites terroristes — La Tribune
Les sept mesures sécuritaires qui interpellent — Libération
Etat d'urgence : le projet de loi Cazeneuve menace-t-il les libertés individuelles ? — L'Opinion
Surveillance
Le surveillant des espions « a rendu des avis nuit et jour » — Rue89
Surveillance : le rappel à l'ordre du Parlement européen. — Mediapart
Surveillance internationale : le président du Sénat « ne manquera pas de saisir le Conseil constitutionnel » — NextINpact
On vous explique la proposition de loi sur la surveillance internationale — NextINpact
Surveillance : des lois en série — Libération
Droit d'auteur
Domaine public : le CSPLA intervient dans le projet d'Axelle Lemaire — Actualitté
Données personnelles
Le transfert de données personnelles vers les Etats-Unis jugé illégal — Mediapart
UE : les Etats pourraient bientôt suspendre le transfert de données Facebook vers les Etats-Unis — Le Monde
Il existe de nombreuses façons de participer à l'action menée par La Quadrature du Net. Vous pouvez aider La Quadrature en parlant de ses publications autour de vous, et en les diffusant sur vos blogs, Twitter, Diaspora*, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à nos listes de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
La Quadrature du Net a aussi besoin d'aide pour un grand nombre de tâches quotidiennes, par exemple pour l'édition de sa revue de presse, des traductions, la mise à jour de son wiki, des créations graphiques ou sonores… Si vous en avez la capacité, vous pouvez contribuer à améliorer les outils comme Memopol, Respect My Net, ou le Piphone, Contrôle Tes Données, ou bien nous proposer de nouveaux projets. N'hésitez pas à nous contacter pour avoir plus d'information à ce sujet.
Enfin, si vous en avez les moyens, vous pouvez également nous soutenir en effectuant un don.
Wednesday 4 November, La Quadrature du Net has launched its annual donation campaign.
To start this campaign, to meet and to think together on the actions to create, simultaneous quadr'apéros were held throughout France: Bordeaux, Brest, Lille, Grenoble, Lyon, Marseille, Nantes, Paris, Saint-Brieuc, Strasbourg Toulouse ...
Thank you to everyone who organized quadr'apéros in their city and who contributed to make this evening a success <3
This campaign is not over yet, we still need you! Support the fight for freedom in 2016 by giving to La Quadrature du Net: https://soutien.laquadrature.net
The state of emergency was declared and extended for three months with too little debate and opposition for such a serious decision regarding civil liberties. This decision was made in the wake of the attacks in Paris in November.
From Monday 16 November, La Quadrature du Net asked to take the time for reflection, analysis, and balance sheet, before embarking in a blind race to security laws.
The government has instead rushed to pass a law in three days extending and amending the conditions of the state of emergency.
Analysis of the law made by La Quadrature du Net is wiki of the association.
La Quadrature du Net also launched a petition for the creation of a parliamentary commission of inquiry. To conduct an open and transparent investigation on the attacks and the laws related to intelligence services and the fight against terrorism that were voted in the last three years.
After the French National Assembly, the French Senate passed the bill on international surveillance.
The senators then referred to the Constitutional Council with giving an actual argumentation on the dangers of the text.. This has been, not surprisingly, and within eight days, approved the text on 26 November.
But attacks against privacy are becoming increasingly visible also in Europe where the French Socialists have loosely managed to delete a provision the report by Claude Moraes, to ask the Commission to verify the conformity of the French surveillance laws with European law.
The analysis of the report by Claude Moraes is available on our analysis on the wiki.
The regulation on telecommunications was adopted by the European Parliament, with breaches that are likely to undermine the principle of Net neutrality, despite the amendments supported by a handful of MEPs and supported by many civil organisations, including La Quadrature du Net.
However, the campaing is not over. Indeed, the BEREC, the European body that brings together the national authorities on the regulation of telecommunications (ARCEP in France), is negotiating guidelines that will be applicable in the Member States. Thus, these guidelines may, if well written, fill existing gaps and significantly strengthen net neutrality by framing specialized services and traffic management.
Mercredi 4 novembre, La Quadrature du Net a lancé sa campagne de soutien annuelle.
Pour démarrer cette campagne de soutien, nous rencontrer et réfléchir ensemble aux actions à mener, des quadr'apéros simultanés ont eu lieu partout en France : Bordeaux, Brest, Lille, Grenoble, Lyon, Marseille, Nantes, Paris, Saint-Brieuc, Strasbourg, Toulouse…
Merci à toutes les personnes qui ont organisé des quadr'apéros dans leur ville et qui ont contribué à faire de cette soirée un vrai succès <3
Cette campagne n'est pas encore terminée, nous avons encore besoin de vous ! Soutenez le combat pour les libertés en 2016 en donnant à La Quadrature du Net : https://soutien.laquadrature.net
L'état d'urgence a été décrété puis prolongé pour trois mois avec trop peu de débats et d'opposition pour une décision aussi grave pour les libertés, profitant de l'état de choc des parlementaires et des Français.
Dès le lundi 16 novembre, La Quadrature du Net a demandé de prendre le temps de la réflexion, de l'analyse, et du bilan, avant de se lancer dans une course aveugle vers les politiques sécuritaires.
Le gouvernement s'est au contraire précipité de faire adopter une loi en trois jours par le Parlement, prolongeant et modifiant les conditions de l'état d'urgence.
L'analyse de la loi faite par La Quadrature du Net se trouve sur le wiki de l'association.
La Quadrature du Net a aussi lancé une pétition en faveur de la mise en place d'une commission d'enquête parlementaire. Il s'agit de conduire une investigation ouverte et transparente sur les attentats et sur les lois relatives à la lutte contre le terrorisme et au renseignement qui ont été votées ces 3 dernières années.
Grâce à l'aide de nombreux citoyens, une page de wiki a été ouverte afin de recenser les joies (ou pas) de l'état d'urgence.
Surveillance
Après l'Assemblée nationale, le Sénat a adopté à son tour la proposition de loi sur la surveillance internationale.
Les sénateurs ont ensuite déposé une saisine blanche au Conseil constitutionnel. Celui-ci a, sans surprise et dans un délai de 8 jours, validé le texte le 26 novembre.
Mais les attaques contre la vie privée se font de plus en plus visibles aussi au niveau européen où les socialistes français ont lâchement réussi à supprimer une disposition du rapport de Claude Moraes, visant à demander à la Commission de vérifier la conformité des lois de surveillance françaises avec le droit européen.
L'analyse du rapport de Claude Moraes est disponible sur notre wiki.
Lire les communiqués de presse de La Quadrature du Net :
Le règlement relatif aux télécommunications a été adopté par le Parlement européen, avec des failles qui sont susceptibles de porter atteinte au principe de neutralité du Net, et ce, malgré les amendements soutenus par une poignée d'eurodéputés et soutenus par de nombreuses organisations citoyennes, dont La Quadrature du Net.
La campagne n'est cependant pas terminée. En effet, le BEREC (ORECE en français) organe européen qui rassemble les autorités nationales de régulations des telecommunications (l'ARCEP pour la France), négocie actuellement les lignes directrices qui seront applicables dans les États membres. Ainsi, ces lignes directrices pourront, si elles sont bien faites, combler les failles existantes et renforcer considérablement la neutralité du Net en encadrant les services spécialisés et la gestion de trafic.
Lire les communiqués de presse de La Quadrature du Net :
« Avec le recul, les lois Pasqua paraissent toutes droit sorties du monde des Bisounours » — TerraEco
#Conversation : La Quadrature du Net veut grandir pour mieux défendre nos droits — Numerama
On vous explique la V2 du projet de loi numérique — NextINpact
La liberté d'expression sur Internet recule dans le monde, la France épinglée — Les Échos
État d'urgence
L'état d'urgence et ses dérapages surveillés à la loupe. — Télérama
Loi sur l’état d’urgence, quelles conséquences sur le numérique — La Croix
Attentats : Valls veut rouvrir le débat sur la consultation de sites terroristes — La Tribune
Les sept mesures sécuritaires qui interpellent — Libération
Etat d'urgence : le projet de loi Cazeneuve menace-t-il les libertés individuelles ? — L'Opinion
Surveillance
Le surveillant des espions « a rendu des avis nuit et jour » — Rue89
Surveillance : le rappel à l'ordre du Parlement européen. — Mediapart
Surveillance internationale : le président du Sénat « ne manquera pas de saisir le Conseil constitutionnel » — NextINpact
On vous explique la proposition de loi sur la surveillance internationale — NextINpact
Surveillance : des lois en série — Libération
Droit d'auteur
Domaine public : le CSPLA intervient dans le projet d'Axelle Lemaire — Actualitté
Données personnelles
Le transfert de données personnelles vers les Etats-Unis jugé illégal — Mediapart
UE : les Etats pourraient bientôt suspendre le transfert de données Facebook vers les Etats-Unis — Le Monde
Il existe de nombreuses façons de participer à l'action menée par La Quadrature du Net. Vous pouvez aider La Quadrature en parlant de ses publications autour de vous, et en les diffusant sur vos blogs, Twitter, Diaspora*, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à nos listes de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
La Quadrature du Net a aussi besoin d'aide pour un grand nombre de tâches quotidiennes, par exemple pour l'édition de sa revue de presse, des traductions, la mise à jour de son wiki, des créations graphiques ou sonores… Si vous en avez la capacité, vous pouvez contribuer à améliorer les outils comme Memopol, Respect My Net, ou le Piphone, Contrôle Tes Données, ou bien nous proposer de nouveaux projets. N'hésitez pas à nous contacter pour avoir plus d'information à ce sujet.
Enfin, si vous en avez les moyens, vous pouvez également nous soutenir en effectuant un don.
Wednesday 4 November, La Quadrature du Net has launched its annual donation campaign.
To start this campaign, to meet and to think together on the actions to create, simultaneous quadr'apéros were held throughout France: Bordeaux, Brest, Lille, Grenoble, Lyon, Marseille, Nantes, Paris, Saint-Brieuc, Strasbourg Toulouse ...
Thank you to everyone who organized quadr'apéros in their city and who contributed to make this evening a success <3
This campaign is not over yet, we still need you! Support the fight for freedom in 2016 by giving to La Quadrature du Net: https://soutien.laquadrature.net
The state of emergency was declared and extended for three months with too little debate and opposition for such a serious decision regarding civil liberties. This decision was made in the wake of the attacks in Paris in November.
From Monday 16 November, La Quadrature du Net asked to take the time for reflection, analysis, and balance sheet, before embarking in a blind race to security laws.
The government has instead rushed to pass a law in three days extending and amending the conditions of the state of emergency.
Analysis of the law made by La Quadrature du Net is wiki of the association.
La Quadrature du Net also launched a petition for the creation of a parliamentary commission of inquiry. To conduct an open and transparent investigation on the attacks and the laws related to intelligence services and the fight against terrorism that were voted in the last three years.
After the French National Assembly, the French Senate passed the bill on international surveillance.
The senators then referred to the Constitutional Council with giving an actual argumentation on the dangers of the text.. This has been, not surprisingly, and within eight days, approved the text on 26 November.
But attacks against privacy are becoming increasingly visible also in Europe where the French Socialists have loosely managed to delete a provision the report by Claude Moraes, to ask the Commission to verify the conformity of the French surveillance laws with European law.
The analysis of the report by Claude Moraes is available on our analysis on the wiki.
The regulation on telecommunications was adopted by the European Parliament, with breaches that are likely to undermine the principle of Net neutrality, despite the amendments supported by a handful of MEPs and supported by many civil organisations, including La Quadrature du Net.
However, the campaing is not over. Indeed, the BEREC, the European body that brings together the national authorities on the regulation of telecommunications (ARCEP in France), is negotiating guidelines that will be applicable in the Member States. Thus, these guidelines may, if well written, fill existing gaps and significantly strengthen net neutrality by framing specialized services and traffic management.
";s:7:"dateiso";s:15:"20151202_174013";}s:15:"20151125_180354";a:7:{s:5:"title";s:80:"[LaCroix] Loi sur l’état d’urgence, quelles conséquences sur le numérique";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9707";s:4:"guid";s:35:"9707 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 25 Nov 2015 17:03:54 +0000";s:11:"description";s:1720:"
L’Assemblée nationale a adopté le 19 novembre la loi visant à prolonger l’état d’urgence de trois mois. Le texte prévoit par un amendement l’intervention contre les sites et services Web associés au terrorisme. [...]
Avec la nouvelle loi, plus besoin de prévenir l’hébergeur. Le ministre de l’intérieur peut ordonner sans aucun délai le blocage de sites Internet réputés faire l’apologie du terrorisme. Le texte modifié prévoit que « le ministre de l’intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ». Toutes les techniques peuvent être utilisées, la suppression du DSN (Système de noms de domaine) mais aussi la mise hors-service de matériel chez l’hébergeur.
« Dans les relations entre le ministère de l’intérieur et les grands hébergeurs, il y a un mélange d’obligations légales et de pression morale », souligne Adrienne Charmet-Alix, coordinatrice des campagnes de l’association La Quadrature du Net. « Fermeture de comptes ou censure de sites peuvent avoir lieu sur incitation ». [...]
L’Assemblée nationale a adopté le 19 novembre la loi visant à prolonger l’état d’urgence de trois mois. Le texte prévoit par un amendement l’intervention contre les sites et services Web associés au terrorisme. [...]
Avec la nouvelle loi, plus besoin de prévenir l’hébergeur. Le ministre de l’intérieur peut ordonner sans aucun délai le blocage de sites Internet réputés faire l’apologie du terrorisme. Le texte modifié prévoit que « le ministre de l’intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ». Toutes les techniques peuvent être utilisées, la suppression du DSN (Système de noms de domaine) mais aussi la mise hors-service de matériel chez l’hébergeur.
« Dans les relations entre le ministère de l’intérieur et les grands hébergeurs, il y a un mélange d’obligations légales et de pression morale », souligne Adrienne Charmet-Alix, coordinatrice des campagnes de l’association La Quadrature du Net. « Fermeture de comptes ou censure de sites peuvent avoir lieu sur incitation ». [...]
";s:7:"dateiso";s:15:"20151125_180354";}s:15:"20151125_172407";a:7:{s:5:"title";s:93:"[LaTribune] Attentats : Valls veut rouvrir le débat sur la consultation de sites terroristes";s:4:"link";s:40:"http://www.laquadrature.net/fr/node/9706";s:4:"guid";s:35:"9706 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 25 Nov 2015 16:24:07 +0000";s:11:"description";s:1483:"
Même si l’Assemblée nationale a rejeté la proposition de punir la consultation de sites djihadistes pour ceux qui font l’objet d’une fiche de renseignement "S", Manuel Valls veut rouvrir le débat, au grand dam des défenseurs des libertés et des experts juridiques. [...]
L'idée de punir ceux qui consultent régulièrement des sites de propagande djihadiste n'est pas neuve. Nicolas Sarkozy l'a lancée dans le débat public pour la première fois après les tueries de Toulouse et de Montauban de 2012, menées par Mohamed Merah. Son objectif ? Elargir le périmètre de l'article 227-23, alinéa 5 du Code pénal, qui punit la consultation de sites pédopornographiques, en l'appliquant aussi aux sites faisant l'apologie du terrorisme. [...]
Reste à savoir si le gouvernement veut vraiment s'engager dans la voie de la pénalisation de la consultation des sites terroristes pour tous, ou s'il s'agissait simplement d'un effet d'annonce pour contenir les critiques de la droite.
Même si l’Assemblée nationale a rejeté la proposition de punir la consultation de sites djihadistes pour ceux qui font l’objet d’une fiche de renseignement "S", Manuel Valls veut rouvrir le débat, au grand dam des défenseurs des libertés et des experts juridiques. [...]
L'idée de punir ceux qui consultent régulièrement des sites de propagande djihadiste n'est pas neuve. Nicolas Sarkozy l'a lancée dans le débat public pour la première fois après les tueries de Toulouse et de Montauban de 2012, menées par Mohamed Merah. Son objectif ? Elargir le périmètre de l'article 227-23, alinéa 5 du Code pénal, qui punit la consultation de sites pédopornographiques, en l'appliquant aussi aux sites faisant l'apologie du terrorisme. [...]
Reste à savoir si le gouvernement veut vraiment s'engager dans la voie de la pénalisation de la consultation des sites terroristes pour tous, ou s'il s'agissait simplement d'un effet d'annonce pour contenir les critiques de la droite.
";s:7:"dateiso";s:15:"20151125_172407";}s:15:"20151123_113611";a:7:{s:5:"title";s:90:"Pour une commission d'enquête parlementaire sur les lois de surveillance et les attentats";s:4:"link";s:93:"http://www.laquadrature.net/fr/pour-une-commission-enquete-parlementaire-lois-de-surveillance";s:4:"guid";s:35:"9704 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 23 Nov 2015 10:36:11 +0000";s:11:"description";s:4311:"
Paris, le 23 novembre 2015 — Les tueries perpétrées à Paris et Saint-Denis dans la soirée du 13 novembre représentent un choc immense. Après le chagrin et le deuil, chacun d'entre nous tente de faire sens de l'incroyable violence de cet événement et de ce qu'il nous rappelle sur l'état du monde.
Cependant, face à cette situation, les postures étroitement belliqueuses et autoritaires adoptées par le gouvernement et la quasi-totalité de la classe politique nous apparaissent comme profondément inadéquates.
Ne nous y trompons pas : ni la guerre, ni l'État policier instauré par la loi sur l'état d'urgence ne sauraient nous protéger d'une telle folie meurtrière. L'échec patent des « guerres contre le terrorisme » et des multiples lois sécuritaires adoptées depuis quinze ans devrait pourtant nous servir de leçons. En s'interdisant de réfléchir sereinement à l'ensemble des causes de ces crimes atroces, de comprendre comment combiner l'action pour la sécurité dans le respects des droits fondamentaux et la consolidation de notre tissu social, nous sommes certains de sacrifier à la fois notre liberté et notre sécurité.
Or, malgré la montée de violences toujours plus graves, l'exécutif a systématiquement bloqué les efforts pour enquêter sur les causes des failles de sécurité et n'a qu'une réponse : « cela n'a pas marché, alors allons encore plus loin dans le sens d'une société de surveillance et de suspicion ». Le vote quasi-unanime du projet de loi relatif à l'extension de l'état d'urgence témoigne à cet égard d'un profond malaise démocratique indigne de la France. Les lois d'exception et la Constitution peuvent-elles être changées à la guise du pouvoir exécutif lorsque ce dernier considère qu'il n'a plus besoin d'un contre-pouvoir, le pouvoir judiciaire ?
Aujourd'hui, à l'heure où malgré de probables doutes même en son sein- le gouvernement se croit obligé de « réagir » à de tels événements par de nouvelles « lois d'exception », nous craignons que les chocs qui secouent notre société ne la conduisent en dehors du cercle démocratique.
Pour rompre cette spirale délétère qui remet en cause le vivre-ensemble et l'essence même de la démocratie, ces attentats appellent une réaction politique qui réponde à ces crimes, capable de conjurer à la fois la « guerre de civilisation » et l'affrontement civil interne à nos sociétés. C'est la condition de la paix et de la survie de l'idée démocratique. C'est aussi la meilleure façon d'honorer la mémoire de tous ceux qui sont morts.
Afin d’y parvenir, nous demandons la création d'une commission d'enquête parlementaire en charge de conduire une investigation ouverte et transparente sur les attentats et sur les lois relatives à la lutte contre le terrorisme et au renseignement qui ont été votées ces 3 dernières années. La commission devra conduire un examen minutieux des politiques et dysfonctionnements qui ont pu contribuer, ou qui n'ont pas su empêcher, la commission de ces attentats.
Toutes les causes de la montée des violences et du fiasco des réponses sécuritaires devront pouvoir être étudiées, chacune dans sa propre échelle de temps : de la politique de renseignements aux engagements diplomatiques militaires et commerciaux de la France et de ses alliés, en passant par les multiples crises qui traversent la société française et qui alimentent le phénomène encore mal compris de la radicalisation. Ces débats devront se tenir dans la plus grande transparence vis-à-vis de la société civile et des citoyens eux-mêmes, pour se nourrir de leurs expertises et de leurs expressions.
L'enjeu est vital : il ne s'agit rien moins que d'être fidèle à notre République : « liberté, égalité, fraternité »
Paris, le 23 novembre 2015 — Les tueries perpétrées à Paris et Saint-Denis dans la soirée du 13 novembre représentent un choc immense. Après le chagrin et le deuil, chacun d'entre nous tente de faire sens de l'incroyable violence de cet événement et de ce qu'il nous rappelle sur l'état du monde.
Cependant, face à cette situation, les postures étroitement belliqueuses et autoritaires adoptées par le gouvernement et la quasi-totalité de la classe politique nous apparaissent comme profondément inadéquates.
Ne nous y trompons pas : ni la guerre, ni l'État policier instauré par la loi sur l'état d'urgence ne sauraient nous protéger d'une telle folie meurtrière. L'échec patent des « guerres contre le terrorisme » et des multiples lois sécuritaires adoptées depuis quinze ans devrait pourtant nous servir de leçons. En s'interdisant de réfléchir sereinement à l'ensemble des causes de ces crimes atroces, de comprendre comment combiner l'action pour la sécurité dans le respects des droits fondamentaux et la consolidation de notre tissu social, nous sommes certains de sacrifier à la fois notre liberté et notre sécurité.
Or, malgré la montée de violences toujours plus graves, l'exécutif a systématiquement bloqué les efforts pour enquêter sur les causes des failles de sécurité et n'a qu'une réponse : « cela n'a pas marché, alors allons encore plus loin dans le sens d'une société de surveillance et de suspicion ». Le vote quasi-unanime du projet de loi relatif à l'extension de l'état d'urgence témoigne à cet égard d'un profond malaise démocratique indigne de la France. Les lois d'exception et la Constitution peuvent-elles être changées à la guise du pouvoir exécutif lorsque ce dernier considère qu'il n'a plus besoin d'un contre-pouvoir, le pouvoir judiciaire ?
Aujourd'hui, à l'heure où malgré de probables doutes même en son sein- le gouvernement se croit obligé de « réagir » à de tels événements par de nouvelles « lois d'exception », nous craignons que les chocs qui secouent notre société ne la conduisent en dehors du cercle démocratique.
Pour rompre cette spirale délétère qui remet en cause le vivre-ensemble et l'essence même de la démocratie, ces attentats appellent une réaction politique qui réponde à ces crimes, capable de conjurer à la fois la « guerre de civilisation » et l'affrontement civil interne à nos sociétés. C'est la condition de la paix et de la survie de l'idée démocratique. C'est aussi la meilleure façon d'honorer la mémoire de tous ceux qui sont morts.
Afin d’y parvenir, nous demandons la création d'une commission d'enquête parlementaire en charge de conduire une investigation ouverte et transparente sur les attentats et sur les lois relatives à la lutte contre le terrorisme et au renseignement qui ont été votées ces 3 dernières années. La commission devra conduire un examen minutieux des politiques et dysfonctionnements qui ont pu contribuer, ou qui n'ont pas su empêcher, la commission de ces attentats.
Toutes les causes de la montée des violences et du fiasco des réponses sécuritaires devront pouvoir être étudiées, chacune dans sa propre échelle de temps : de la politique de renseignements aux engagements diplomatiques militaires et commerciaux de la France et de ses alliés, en passant par les multiples crises qui traversent la société française et qui alimentent le phénomène encore mal compris de la radicalisation. Ces débats devront se tenir dans la plus grande transparence vis-à-vis de la société civile et des citoyens eux-mêmes, pour se nourrir de leurs expertises et de leurs expressions.
L'enjeu est vital : il ne s'agit rien moins que d'être fidèle à notre République : « liberté, égalité, fraternité »
";s:7:"dateiso";s:15:"20151123_113611";}s:15:"20130123_141956";a:7:{s:5:"title";s:93:"Vie privée : Les entreprises US gagnent en commission "consommateurs" au Parlement européen";s:4:"link";s:118:"http://www.laquadrature.net/fr/vie-privee-les-entreprises-us-gagnent-en-commission-consommateurs-au-parlement-europeen";s:4:"guid";s:35:"6298 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 23 Jan 2013 13:19:56 +0000";s:11:"description";s:5588:"
Paris, 23 janvier 2013 — La commission « consommateurs » (IMCO) du Parlement européen vient de voter pour assouplir la protection de la vie privée des citoyens, se pliant au lobbying d'entreprises principalement américaines1. Ce vote est le premier d'une longue série et est riche d'enseignements sur le rapport de force au Parlement. Il doit sonner comme un appel à l'action pour les citoyens, qui doivent défendre leur droit à la vie privée contre la collecte, le traitement et le commerce illégitimes de leurs données personnelles.
La commission « consommateurs » (IMCO) du Parlement européen a voté ce matin sur son avis concernant le règlement de « protection des données », concernant la vie privée.
Par des votes serrés, les membres de la commission IMCO ont choisi de diluer la protection de la vie privée des citoyens en facilitant, entre autres, un profilage des utilisateurs par les entreprises2 ou en allégeant les obligations de notification de fuites de données personnelles3. La plupart des tentatives pour imposer des garde-fous contre la collecte, le traitement, le stockage et la vente de nos données personnelles ont été rejetées.
Ce vote est le premier de cinq votes pour avis qui se tiendront en commissions parlementaires et d'un vote dans la commission principale (commission des Libertés publiques, LIBE), avant un vote en session plénière4. Il permet d'évaluer le rapport de force au Parlement :
Certains votes étaient étonnamment serrés, ce qui signifie que rien n'est encore perdu, si les citoyens se mobilisent pour du contre-lobbying.
« Des alliances différentes pour des votes différents » (notre traduction)5, de la bouche même du président de la commission, M. Harbour, signifient que les différents groupes politiques n'ont pas encore de position claire et définie.
Les votes clés en faveur des grands acteurs industriels ont été gagnés grâce au groupe ALDE, qui s'est rangé aux côtés des conservateurs au lieu de défendre l'intérêt général et les libertés fondamentales.
« Ce vote démontre combien le Parlement européen peut être influencé par les campagnes de lobbying orchestrées par des entreprises principalement américaines (banques, assurances et services Internet), agissant contre les intérêts des citoyens européens. Il doit sonner comme un signal d'alarme pour les citoyens conscients de l'importance de la protection de la vie privée dans nos sociétés démocratiques. Il est temps d'agir en appelant nos représentants à protéger nos libertés lors des prochains votes en commission, en adoptant de solides protections de notre vie privée. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
Paris, 23 janvier 2013 — La commission « consommateurs » (IMCO) du Parlement européen vient de voter pour assouplir la protection de la vie privée des citoyens, se pliant au lobbying d'entreprises principalement américaines1. Ce vote est le premier d'une longue série et est riche d'enseignements sur le rapport de force au Parlement. Il doit sonner comme un appel à l'action pour les citoyens, qui doivent défendre leur droit à la vie privée contre la collecte, le traitement et le commerce illégitimes de leurs données personnelles.
La commission « consommateurs » (IMCO) du Parlement européen a voté ce matin sur son avis concernant le règlement de « protection des données », concernant la vie privée.
Par des votes serrés, les membres de la commission IMCO ont choisi de diluer la protection de la vie privée des citoyens en facilitant, entre autres, un profilage des utilisateurs par les entreprises2 ou en allégeant les obligations de notification de fuites de données personnelles3. La plupart des tentatives pour imposer des garde-fous contre la collecte, le traitement, le stockage et la vente de nos données personnelles ont été rejetées.
Ce vote est le premier de cinq votes pour avis qui se tiendront en commissions parlementaires et d'un vote dans la commission principale (commission des Libertés publiques, LIBE), avant un vote en session plénière4. Il permet d'évaluer le rapport de force au Parlement :
Certains votes étaient étonnamment serrés, ce qui signifie que rien n'est encore perdu, si les citoyens se mobilisent pour du contre-lobbying.
« Des alliances différentes pour des votes différents » (notre traduction)5, de la bouche même du président de la commission, M. Harbour, signifient que les différents groupes politiques n'ont pas encore de position claire et définie.
Les votes clés en faveur des grands acteurs industriels ont été gagnés grâce au groupe ALDE, qui s'est rangé aux côtés des conservateurs au lieu de défendre l'intérêt général et les libertés fondamentales.
« Ce vote démontre combien le Parlement européen peut être influencé par les campagnes de lobbying orchestrées par des entreprises principalement américaines (banques, assurances et services Internet), agissant contre les intérêts des citoyens européens. Il doit sonner comme un signal d'alarme pour les citoyens conscients de l'importance de la protection de la vie privée dans nos sociétés démocratiques. Il est temps d'agir en appelant nos représentants à protéger nos libertés lors des prochains votes en commission, en adoptant de solides protections de notre vie privée. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"dateiso";s:15:"20130123_141956";}s:15:"20130122_160504";a:7:{s:5:"title";s:59:"Alerte : notre vie privée bientôt détruite à Bruxelles?";s:4:"link";s:83:"http://www.laquadrature.net/fr/alerte-notre-vie-privee-bientot-detruite-a-bruxelles";s:4:"guid";s:35:"6289 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 22 Jan 2013 15:05:04 +0000";s:11:"description";s:6188:"
Paris, 22 janvier 2013 — L'examen du règlement « protection des données » concernant notre vie privée est en cours au Parlement européen, où un vote se tiendra en commission « consommateurs » (IMCO) dès mercredi. Il est l'objet d'une campagne de lobbying sans précédent, principalement orchestrée par des entreprises américaines. Si les citoyens n'agissent pas, les banques, compagnies d'assurance et opérateurs de services Internet auront les mains libres pour collecter, traiter, stocker et vendre toutes nos données personnelles, leur permettant de connaître et orienter nos moindres faits et gestes, en ligne et hors ligne.
Alors que l'examen du règlement « protection des données » (95/46/EC) concernant notre vie privée est en cours au Parlement européen, l'institution est prise d'assaut par une campagne de lobbying silencieuse et sans précédent, principalement dirigée par des entreprises américaines de la banque, de l'assurance et des services en ligne1. Leur objectif est d'inclure dans la régulation2 des brèches leur permettant de faire ce qu'ils veulent de nos données personnelles, afin de générer des profits en exploitant notre vie privée.
Accepteriez-vous que des services en ligne comme Google, Facebook ou Youtube stockent, traitent et revendent les informations sur tout ce que vous faites en ligne ?
Toléreriez-vous que votre banque ou votre compagnie d'assurance achète un accès à tout ce que vous faites et stockez en ligne, afin de décider combien vous devriez payer pour une police, ou si vous pouvez obtenir un crédit ?
Si nous n'agissons pas rapidement, cela deviendra réalité.
De nombreuses protections essentielles pour notre vie privée3 sont sur le point d'être détruites. La commission « consommateurs » (IMCO) votera sur son rapport d'opinion4 mercredi, et d'autres votes clés se tiendront dans les prochaines semaines et les prochains mois.
« La « protection des données » semble être un sujet obscur et technique, mais est en réalité crucial, car tout ce que nous faisons en ligne et hors ligne est désormais stocké dans les bases de données des entreprises. Ces dernières veulent avoir les mains libres pour marchandiser nos vies, mais la protection de notre vie privée est une liberté fondamentale, essentielle pour une société libre. Les citoyens doivent agir maintenant, en alertant leurs eurodéputés et en les appelant à adopter des amendements protégeant notre vie privée5, et en relayant l'information avant qu'il ne soit trop tard. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
4. La rapporteur pour ce dossier est Lara Comi (Italie - EPP)
5. Dans son commentaire du projet de rapport d'IMCO, EDRI supporte les amendements 7, 10, 11, 17, 24, 26, 29, 39, 40, 43, 45, 50, 56, 57, 71 et 72.
";s:7:"content";s:6188:"
Paris, 22 janvier 2013 — L'examen du règlement « protection des données » concernant notre vie privée est en cours au Parlement européen, où un vote se tiendra en commission « consommateurs » (IMCO) dès mercredi. Il est l'objet d'une campagne de lobbying sans précédent, principalement orchestrée par des entreprises américaines. Si les citoyens n'agissent pas, les banques, compagnies d'assurance et opérateurs de services Internet auront les mains libres pour collecter, traiter, stocker et vendre toutes nos données personnelles, leur permettant de connaître et orienter nos moindres faits et gestes, en ligne et hors ligne.
Alors que l'examen du règlement « protection des données » (95/46/EC) concernant notre vie privée est en cours au Parlement européen, l'institution est prise d'assaut par une campagne de lobbying silencieuse et sans précédent, principalement dirigée par des entreprises américaines de la banque, de l'assurance et des services en ligne1. Leur objectif est d'inclure dans la régulation2 des brèches leur permettant de faire ce qu'ils veulent de nos données personnelles, afin de générer des profits en exploitant notre vie privée.
Accepteriez-vous que des services en ligne comme Google, Facebook ou Youtube stockent, traitent et revendent les informations sur tout ce que vous faites en ligne ?
Toléreriez-vous que votre banque ou votre compagnie d'assurance achète un accès à tout ce que vous faites et stockez en ligne, afin de décider combien vous devriez payer pour une police, ou si vous pouvez obtenir un crédit ?
Si nous n'agissons pas rapidement, cela deviendra réalité.
De nombreuses protections essentielles pour notre vie privée3 sont sur le point d'être détruites. La commission « consommateurs » (IMCO) votera sur son rapport d'opinion4 mercredi, et d'autres votes clés se tiendront dans les prochaines semaines et les prochains mois.
« La « protection des données » semble être un sujet obscur et technique, mais est en réalité crucial, car tout ce que nous faisons en ligne et hors ligne est désormais stocké dans les bases de données des entreprises. Ces dernières veulent avoir les mains libres pour marchandiser nos vies, mais la protection de notre vie privée est une liberté fondamentale, essentielle pour une société libre. Les citoyens doivent agir maintenant, en alertant leurs eurodéputés et en les appelant à adopter des amendements protégeant notre vie privée5, et en relayant l'information avant qu'il ne soit trop tard. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
4. La rapporteur pour ce dossier est Lara Comi (Italie - EPP)
5. Dans son commentaire du projet de rapport d'IMCO, EDRI supporte les amendements 7, 10, 11, 17, 24, 26, 29, 39, 40, 43, 45, 50, 56, 57, 71 et 72.
";s:7:"dateiso";s:15:"20130122_160504";}s:15:"20130118_110836";a:7:{s:5:"title";s:84:"Non à la privatisation du domaine public par la Bibliothèque nationale de France !";s:4:"link";s:111:"http://www.laquadrature.net/fr/non-a-la-privatisation-du-domaine-public-par-la-bibliotheque-nationale-de-france";s:4:"guid";s:35:"6275 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 18 Jan 2013 10:08:36 +0000";s:11:"description";s:12136:"
Paris, le 18 janvier 2013 — Le ministère de la Culture a annoncé la conclusion de deux accords, signés entre la Bibliothèque nationale de France et des firmes privées, pour la numérisation de corpus de documents appartenant pour tout (livres anciens) ou partie (78 et 33 tours) au domaine public.
Les fonds concernés sont considérables : 70 000 livres anciens français datant de 1470 à 1700, ainsi que plus de 200 000 enregistrements sonores patrimoniaux. Ces accords, qui interviennent dans le cadre des Investissements d'avenir et mobilisent donc de l'argent public, vont avoir pour effet que ces documents ne seront pas diffusés en ligne, mais uniquement sur place à la BnF, sauf pour une proportion symbolique.
Ces partenariats prévoient une exclusivité de 10 ans accordée à ces firmes privées, pour commercialiser ces corpus sous forme de base de données, à l'issue de laquelle ils seront mis en ligne dans Gallica, la bibliothèque numérique de la BnF. Les principaux acheteurs des licences d'accès à ces contenus seront des organismes publics de recherche ou des bibliothèques universitaires, situation absurde dans laquelle les acteurs du service public se retrouveront contraints et forcés, faute d'alternative à acheter des contenus numérisés qui font partie du patrimoine culturel commun.
Les conditions d'accès à ces éléments de patrimoine du domaine public seront restreintes d'une façon inadmissible par rapport aux possibilités ouvertes par la numérisation. Seule la minorité de ceux qui pourront faire le déplacement à Paris et accéder à la BnF seront en mesure de consulter ces documents, ce qui annule le principal avantage de la révolution numérique, à savoir la transmission à distance. Partout en France et dans le monde, ce sont les chercheurs, les étudiants, les enseignants, les élèves, les amateurs de culture, les citoyens qui se trouveront privés de l'accès libre et gratuit à ce patrimoine.
La valeur du domaine public réside dans la diffusion de la connaissance qu'il permet et dans la capacité à créer de nouvelles œuvres à partir de notre héritage culturel. Sa privatisation constitue une atteinte même à la notion de domaine public qui porte atteinte aux droits de chacun.
Ces pratiques ont été condamnées sans ambiguïté par le Manifeste du domaine public, rédigé et publié par le réseau européen COMMUNIA financé par la Commission européenne :
Toute tentative infondée ou trompeuse de s'approprier des œuvres du domaine public doit être punie légalement. De façon à préserver l'intégrité du domaine public et protéger ses usagers de prétentions infondées ou trompeuses, les tentatives d'appropriation exclusive des œuvres du domaine public doivent être déclarées illégales.
Les institutions patrimoniales doivent assumer un rôle spécifique dans l'identification efficace et la préservation des œuvres du domaine public. [...] Dans le cadre de ce rôle, elles doivent garantir que les œuvres du domaine public sont accessibles à toute la société en les étiquetant, en les préservant et en les rendant librement accessibles.
À titre de comparaison, les partenariats validés par le ministère de la Culture aboutissent à un résultat encore plus restrictif pour l'accès à la connaissance que celui mis en œuvre par Google dans son programme Google Livres, dans lequel les ouvrages restent accessibles gratuitement en ligne sur le site des institutions partenaires. La mobilisation de l'emprunt national n'aura donc en aucun cas permis de trouver une alternative acceptable aux propositions du moteur de recherche.
Le ministère de la Culture affirme dans son communiqué que ces partenariats sont compatibles avec les recommandations du Comité des sages européens "A New Renaissance". C'est à l'évidence faux, le rapport du Comité des sages admettant que des exclusivités commerciales puissent être concédées à des firmes privées pour 7 ans au maximum, mais insistant sur la nécessité que les documents du domaine public restent accessibles gratuitement en ligne, y compris dans un cadre transfrontalier. Plus encore, les accords sont en flagrante contradiction avec la Charte Europeana du Domaine Public (pdf) alors même que l'un de ses signataires occupe aujourd'hui la présidence de la fondation Europeana.
Par ailleurs, le rapport du Comité des sages énonce comme première recommandation que les partenariats public-privé de numérisation soient rendus publics afin de garantir la transparence, ce qui n'est pas été fait ici. L'opacité a régné de bout en bout sur la conclusion de ces partenariats, au point qu'une question parlementaire posée au ministère de la Culture par le député Marcel Rogemont est restée sans réponse depuis le 23 octobre 2012, alors même qu'elle soulevait le problème de l'atteinte à l'intégrité du domaine public. Enfin, les partenariats publics-privés ont été récemment dénoncés par l’Inspection générale des finances dans un rapport commandé par le ministre de l’Économie, Pierre Moscovici, et par celui du Budget, Jérôme Cahuzac. Ces partenariats sont jugés trop onéreux, trop risqués, trop complexes et trop profitables aux seuls intérêts privés.
Nous, associations et collectifs signataires de cette déclaration, attachés à la valeur du domaine public et à sa préservation comme bien commun, exprimons notre plus profond désaccord à propos de la conclusion de ces partenariats et en demandons le retrait sans délai. Nous appelons toutes les structures et personnes partageant ces valeurs à nous rejoindre dans cette opposition et à manifester leur désapprobation auprès des autorités responsables : BnF, Commissariat général à l'investissement et ministère de la Culture. Nous demandons également la publication immédiate du texte intégral des accords.
L'association internationale COMMUNIA
L'association a pour mission d'éduquer sur l'importance du domaine public numérique, de le défendre auprès des institutions, et de constituer une source d'expertise et de recherche en la matière. Elle a succédé au Réseau thématique COMMUNIA actif sur les mêmes sujets et financé par la Commission européenne.
L'Open Knowledge Foundation France
L’Open Knowlegde Foundation (OKFN) est une organisation à but non lucratif fondée en 2004 à Cambridge qui promeut la culture libre sous toutes ses formes. Ses membres considèrent qu’un accès ouvert aux informations associé aux outils et aux communautés pour les utiliser sont des éléments essentiels pour améliorer notre gouvernance, notre recherche, notre économie et notre culture.
La Quadrature du Net
La Quadrature du Net est une organisation de défense des droits et libertés des citoyens sur Internet. À ce titre, la Quadrature du Net intervient notamment dans les débats concernant la liberté d'expression, le droit d'auteur, la régulation du secteur des télécommunications ou encore le respect de la vie privée.
Contact : Philippe Aigrain, co-fondateur et conseiller stratégique pa@laquadrature.net +33 6 85 80 19 31
SavoirsCom1
SavoirsCom1 est un collectif qui s'intéresse aux politiques des biens communs de la connaissance.
Regards citoyens
Regards Citoyens est un collectif transpartisan qui vise à utiliser un maximum de données publiques pour alimenter le débat politique tout en appliquant les principes de la gouvernance ouverte. Il promeut l’OpenData et l’OpenGov en France et réalise des projets web n’utilisant que des logiciels libres et des données publiques pour faire découvrir et valoriser les institutions démocratiques françaises auprès du plus grand nombre.
Veni Vidi Libri
Veni, Vidi, Libri a pour objectif de promouvoir les licences libres ainsi que de faciliter le passage de créations sous licence libre.
Libre Accès
Libre Accès a pour objet de sensibiliser le plus grand nombre aux enjeux de l’art libre et de défendre les droits de ses amateurs et auteurs.
Paris, le 18 janvier 2013 — Le ministère de la Culture a annoncé la conclusion de deux accords, signés entre la Bibliothèque nationale de France et des firmes privées, pour la numérisation de corpus de documents appartenant pour tout (livres anciens) ou partie (78 et 33 tours) au domaine public.
Les fonds concernés sont considérables : 70 000 livres anciens français datant de 1470 à 1700, ainsi que plus de 200 000 enregistrements sonores patrimoniaux. Ces accords, qui interviennent dans le cadre des Investissements d'avenir et mobilisent donc de l'argent public, vont avoir pour effet que ces documents ne seront pas diffusés en ligne, mais uniquement sur place à la BnF, sauf pour une proportion symbolique.
Ces partenariats prévoient une exclusivité de 10 ans accordée à ces firmes privées, pour commercialiser ces corpus sous forme de base de données, à l'issue de laquelle ils seront mis en ligne dans Gallica, la bibliothèque numérique de la BnF. Les principaux acheteurs des licences d'accès à ces contenus seront des organismes publics de recherche ou des bibliothèques universitaires, situation absurde dans laquelle les acteurs du service public se retrouveront contraints et forcés, faute d'alternative à acheter des contenus numérisés qui font partie du patrimoine culturel commun.
Les conditions d'accès à ces éléments de patrimoine du domaine public seront restreintes d'une façon inadmissible par rapport aux possibilités ouvertes par la numérisation. Seule la minorité de ceux qui pourront faire le déplacement à Paris et accéder à la BnF seront en mesure de consulter ces documents, ce qui annule le principal avantage de la révolution numérique, à savoir la transmission à distance. Partout en France et dans le monde, ce sont les chercheurs, les étudiants, les enseignants, les élèves, les amateurs de culture, les citoyens qui se trouveront privés de l'accès libre et gratuit à ce patrimoine.
La valeur du domaine public réside dans la diffusion de la connaissance qu'il permet et dans la capacité à créer de nouvelles œuvres à partir de notre héritage culturel. Sa privatisation constitue une atteinte même à la notion de domaine public qui porte atteinte aux droits de chacun.
Ces pratiques ont été condamnées sans ambiguïté par le Manifeste du domaine public, rédigé et publié par le réseau européen COMMUNIA financé par la Commission européenne :
Toute tentative infondée ou trompeuse de s'approprier des œuvres du domaine public doit être punie légalement. De façon à préserver l'intégrité du domaine public et protéger ses usagers de prétentions infondées ou trompeuses, les tentatives d'appropriation exclusive des œuvres du domaine public doivent être déclarées illégales.
Les institutions patrimoniales doivent assumer un rôle spécifique dans l'identification efficace et la préservation des œuvres du domaine public. [...] Dans le cadre de ce rôle, elles doivent garantir que les œuvres du domaine public sont accessibles à toute la société en les étiquetant, en les préservant et en les rendant librement accessibles.
À titre de comparaison, les partenariats validés par le ministère de la Culture aboutissent à un résultat encore plus restrictif pour l'accès à la connaissance que celui mis en œuvre par Google dans son programme Google Livres, dans lequel les ouvrages restent accessibles gratuitement en ligne sur le site des institutions partenaires. La mobilisation de l'emprunt national n'aura donc en aucun cas permis de trouver une alternative acceptable aux propositions du moteur de recherche.
Le ministère de la Culture affirme dans son communiqué que ces partenariats sont compatibles avec les recommandations du Comité des sages européens "A New Renaissance". C'est à l'évidence faux, le rapport du Comité des sages admettant que des exclusivités commerciales puissent être concédées à des firmes privées pour 7 ans au maximum, mais insistant sur la nécessité que les documents du domaine public restent accessibles gratuitement en ligne, y compris dans un cadre transfrontalier. Plus encore, les accords sont en flagrante contradiction avec la Charte Europeana du Domaine Public (pdf) alors même que l'un de ses signataires occupe aujourd'hui la présidence de la fondation Europeana.
Par ailleurs, le rapport du Comité des sages énonce comme première recommandation que les partenariats public-privé de numérisation soient rendus publics afin de garantir la transparence, ce qui n'est pas été fait ici. L'opacité a régné de bout en bout sur la conclusion de ces partenariats, au point qu'une question parlementaire posée au ministère de la Culture par le député Marcel Rogemont est restée sans réponse depuis le 23 octobre 2012, alors même qu'elle soulevait le problème de l'atteinte à l'intégrité du domaine public. Enfin, les partenariats publics-privés ont été récemment dénoncés par l’Inspection générale des finances dans un rapport commandé par le ministre de l’Économie, Pierre Moscovici, et par celui du Budget, Jérôme Cahuzac. Ces partenariats sont jugés trop onéreux, trop risqués, trop complexes et trop profitables aux seuls intérêts privés.
Nous, associations et collectifs signataires de cette déclaration, attachés à la valeur du domaine public et à sa préservation comme bien commun, exprimons notre plus profond désaccord à propos de la conclusion de ces partenariats et en demandons le retrait sans délai. Nous appelons toutes les structures et personnes partageant ces valeurs à nous rejoindre dans cette opposition et à manifester leur désapprobation auprès des autorités responsables : BnF, Commissariat général à l'investissement et ministère de la Culture. Nous demandons également la publication immédiate du texte intégral des accords.
L'association internationale COMMUNIA
L'association a pour mission d'éduquer sur l'importance du domaine public numérique, de le défendre auprès des institutions, et de constituer une source d'expertise et de recherche en la matière. Elle a succédé au Réseau thématique COMMUNIA actif sur les mêmes sujets et financé par la Commission européenne.
L'Open Knowledge Foundation France
L’Open Knowlegde Foundation (OKFN) est une organisation à but non lucratif fondée en 2004 à Cambridge qui promeut la culture libre sous toutes ses formes. Ses membres considèrent qu’un accès ouvert aux informations associé aux outils et aux communautés pour les utiliser sont des éléments essentiels pour améliorer notre gouvernance, notre recherche, notre économie et notre culture.
La Quadrature du Net
La Quadrature du Net est une organisation de défense des droits et libertés des citoyens sur Internet. À ce titre, la Quadrature du Net intervient notamment dans les débats concernant la liberté d'expression, le droit d'auteur, la régulation du secteur des télécommunications ou encore le respect de la vie privée.
Contact : Philippe Aigrain, co-fondateur et conseiller stratégique pa@laquadrature.net +33 6 85 80 19 31
SavoirsCom1
SavoirsCom1 est un collectif qui s'intéresse aux politiques des biens communs de la connaissance.
Regards citoyens
Regards Citoyens est un collectif transpartisan qui vise à utiliser un maximum de données publiques pour alimenter le débat politique tout en appliquant les principes de la gouvernance ouverte. Il promeut l’OpenData et l’OpenGov en France et réalise des projets web n’utilisant que des logiciels libres et des données publiques pour faire découvrir et valoriser les institutions démocratiques françaises auprès du plus grand nombre.
Veni Vidi Libri
Veni, Vidi, Libri a pour objectif de promouvoir les licences libres ainsi que de faciliter le passage de créations sous licence libre.
Libre Accès
Libre Accès a pour objet de sensibiliser le plus grand nombre aux enjeux de l’art libre et de défendre les droits de ses amateurs et auteurs.
";s:7:"dateiso";s:15:"20130118_110836";}s:15:"20130117_130451";a:7:{s:5:"title";s:72:"Neutralité du Net : Neelie Kroes cède sous la pression des opérateurs";s:4:"link";s:98:"http://www.laquadrature.net/fr/neutralite-du-net-neelie-kroes-cede-sous-la-pression-des-operateurs";s:4:"guid";s:35:"6266 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 17 Jan 2013 12:04:51 +0000";s:11:"description";s:4829:"
Paris, le 17 janvier 2013 — Dans une tribune à Libération, Neelie Kroes, commissaire européenne chargée du numérique, cède sous la pression des lobbies des opérateurs, en abandonnant la neutralité du Net. Mme Kroes invite à la création d'un Internet à la découpe, interdisant toute innovation et ouvrant la voie à des censures inacceptables.
Selon Neelie Kroes : « [...] l’intérêt public ne s’oppose cependant pas à ce que les consommateurs s’abonnent à des offres internet limitées, plus différenciées, éventuellement pour un prix moins élevé ». En ignorant volontairement que de telles offres ne changeraient quasiment rien en terme de coût pour les opérateurs en Europe1, mais leur permettraient d'éviter d'investir dans le développement du réseau tout en restreignant les capacités de participation des citoyens, Neelie Kroes ne prend en compte que des intérêts privés, à court-terme et contraires à l'intérêt général.
Lorsque les libertés fondamentales, l'innovation et la concurrence sont menacées (comme le démontre le BEREC, le régulateur européen, dans son étude sur les restrictions d'accès Internet imposées par les opérateurs télécoms, entre 20 et 50% des citoyens seraient soumis à de telles restrictions2), invoquer le marché ne suffit pas. Ce discours pseudo-libéral, instrumentalisant la protection de l'enfance et de la vie privée, vise uniquement à tenter de masquer - sans succès - le fait que Neelie Kroes cède devant les opérateurs et choisisse l'inaction.
Il est urgent que les représentants de la Commission européenne prennent des mesures fermes pour empêcher les opérateurs télécoms de contrôler ou censurer les contenus, services et applications, afin de protéger les libertés fondamentales des citoyens3. Seul l'utilisateur, au bout du réseau, doit pouvoir choisir les limites de son accès par l'utilisation d'un contrôle parental, de bloqueurs de publicité, ou tout outil de son choix.
« En défendant ainsi les opérateurs, Neelie Kroes renonce à défendre l'intérêt général et les citoyens, qui doivent continuer à se battre pour défendre un Internet universel permettant l'innovation et la participation démocratique. La neutralité du Net n'est pas une question de marché, mais avant tout une question de libertés fondamentales » tempête Benjamin Sonntag, co-fondateur de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. Par exemple, des offres d'accès à un Internet neutre à des prix différents pour des débits différents seraient une façon de segmenter l'offre tout en respectant la neutralité du Net et les libertés des citoyens
Paris, le 17 janvier 2013 — Dans une tribune à Libération, Neelie Kroes, commissaire européenne chargée du numérique, cède sous la pression des lobbies des opérateurs, en abandonnant la neutralité du Net. Mme Kroes invite à la création d'un Internet à la découpe, interdisant toute innovation et ouvrant la voie à des censures inacceptables.
Selon Neelie Kroes : « [...] l’intérêt public ne s’oppose cependant pas à ce que les consommateurs s’abonnent à des offres internet limitées, plus différenciées, éventuellement pour un prix moins élevé ». En ignorant volontairement que de telles offres ne changeraient quasiment rien en terme de coût pour les opérateurs en Europe1, mais leur permettraient d'éviter d'investir dans le développement du réseau tout en restreignant les capacités de participation des citoyens, Neelie Kroes ne prend en compte que des intérêts privés, à court-terme et contraires à l'intérêt général.
Lorsque les libertés fondamentales, l'innovation et la concurrence sont menacées (comme le démontre le BEREC, le régulateur européen, dans son étude sur les restrictions d'accès Internet imposées par les opérateurs télécoms, entre 20 et 50% des citoyens seraient soumis à de telles restrictions2), invoquer le marché ne suffit pas. Ce discours pseudo-libéral, instrumentalisant la protection de l'enfance et de la vie privée, vise uniquement à tenter de masquer - sans succès - le fait que Neelie Kroes cède devant les opérateurs et choisisse l'inaction.
Il est urgent que les représentants de la Commission européenne prennent des mesures fermes pour empêcher les opérateurs télécoms de contrôler ou censurer les contenus, services et applications, afin de protéger les libertés fondamentales des citoyens3. Seul l'utilisateur, au bout du réseau, doit pouvoir choisir les limites de son accès par l'utilisation d'un contrôle parental, de bloqueurs de publicité, ou tout outil de son choix.
« En défendant ainsi les opérateurs, Neelie Kroes renonce à défendre l'intérêt général et les citoyens, qui doivent continuer à se battre pour défendre un Internet universel permettant l'innovation et la participation démocratique. La neutralité du Net n'est pas une question de marché, mais avant tout une question de libertés fondamentales » tempête Benjamin Sonntag, co-fondateur de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. Par exemple, des offres d'accès à un Internet neutre à des prix différents pour des débits différents seraient une façon de segmenter l'offre tout en respectant la neutralité du Net et les libertés des citoyens
";s:7:"dateiso";s:15:"20130117_130451";}s:15:"20130115_121016";a:7:{s:5:"title";s:50:"Neutralité du Net : à quoi sert Fleur Pellerin ?";s:4:"link";s:75:"http://www.laquadrature.net/fr/neutralite-du-net-a-quoi-sert-fleur-pellerin";s:4:"guid";s:35:"6255 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 15 Jan 2013 11:10:16 +0000";s:11:"description";s:3097:"
Paris, le 15 janvier 2013 — Déception prévisible à l'issue de la table ronde organisée par Fleur Pellerin sur la neutralité du Net : ce débat-alibi n'aura servi qu'à camoufler l'inaction de la ministre. Bottant en touche en saisissant une obscure commission, la ministre reporte à nouveau toute ambition de projet de loi défendant les citoyens.
Une fois encore, le débat sur la neutralité du Net tenu aujourd'hui aura servi d'écran de fumée. Le discours volontariste n'aboutit qu'à la saisie d'une obscure commission créée par Nicolas Sarkozy, le Conseil national du numérique (CNN), pour finalement justifier la non-adoption d'une position ferme. L'État va laisser les mains libres aux opérateurs pour restreindre et contrôler les communications en ligne. Alors que tous les éléments1 sur la table démontrent la nécessité d'agir rapidement en inscrivant la neutralité du Net dans le droit français, Fleur Pellerin botte en touche.
« En saisissant une obscure commission plutôt qu'en annonçant le dépot d'une loi garantissant la neutralité du Net, la ministre de l'Économie numérique protège les intérêts des opérateurs au détriment de ceux des utilisateurs. Fleur Pellerin botte en touche et abandonne les citoyens, les laissant à la merci de restrictions d'accès dangereuses pour l'innovation et les libertés. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. La plateforme RespectMyNet et le rapport du BEREC, le régulateur européen, établissent que les utilisateurs continuent de constater des discriminations, blocages, ralentissements de leurs communications sur Internet, imposées en toute impunité par les opérateurs, en fonction de leur source (Bouygues), de leur destination (Free) ou de leur contenu (SFR).
";s:7:"content";s:3097:"
Paris, le 15 janvier 2013 — Déception prévisible à l'issue de la table ronde organisée par Fleur Pellerin sur la neutralité du Net : ce débat-alibi n'aura servi qu'à camoufler l'inaction de la ministre. Bottant en touche en saisissant une obscure commission, la ministre reporte à nouveau toute ambition de projet de loi défendant les citoyens.
Une fois encore, le débat sur la neutralité du Net tenu aujourd'hui aura servi d'écran de fumée. Le discours volontariste n'aboutit qu'à la saisie d'une obscure commission créée par Nicolas Sarkozy, le Conseil national du numérique (CNN), pour finalement justifier la non-adoption d'une position ferme. L'État va laisser les mains libres aux opérateurs pour restreindre et contrôler les communications en ligne. Alors que tous les éléments1 sur la table démontrent la nécessité d'agir rapidement en inscrivant la neutralité du Net dans le droit français, Fleur Pellerin botte en touche.
« En saisissant une obscure commission plutôt qu'en annonçant le dépot d'une loi garantissant la neutralité du Net, la ministre de l'Économie numérique protège les intérêts des opérateurs au détriment de ceux des utilisateurs. Fleur Pellerin botte en touche et abandonne les citoyens, les laissant à la merci de restrictions d'accès dangereuses pour l'innovation et les libertés. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. La plateforme RespectMyNet et le rapport du BEREC, le régulateur européen, établissent que les utilisateurs continuent de constater des discriminations, blocages, ralentissements de leurs communications sur Internet, imposées en toute impunité par les opérateurs, en fonction de leur source (Bouygues), de leur destination (Free) ou de leur contenu (SFR).
";s:7:"dateiso";s:15:"20130115_121016";}s:15:"20130114_152535";a:7:{s:5:"title";s:58:"Restrictions d'accès au Net : que fait le gouvernement ?";s:4:"link";s:82:"http://www.laquadrature.net/fr/restrictions-dacces-au-net-que-fait-le-gouvernement";s:4:"guid";s:35:"6247 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 14 Jan 2013 14:25:35 +0000";s:11:"description";s:4905:"
Paris, le 14 janvier 2013 — L'affaire du blocage de la publicité par Free vient de rappeler l'urgente nécessité d'interdire aux opérateurs de restreindre les communications de leurs utilisateurs. Alors que le candidat Hollande promettait de garantir la neutralité du Net, toutes les preuves appelant à l'action sont sur la table. La ministre Fleur Pellerin s'engagera-t-elle, lors de la table ronde organisée demain sur le sujet, à rapidement présenter un projet de loi ?
Il y a maintenant bientôt deux ans que la Commission des affaires économiques de l'Assemblée Nationale a rendu son rapport sur la Neutralité du Net, constatant une multiplication alarmante des restrictions de l'accès au Net par les opérateurs, et appelant à légiférer. Depuis, ces restrictions se sont généralisées, comme démontré par la plateforme RespectMyNet et le rapport du BEREC, le régulateur européen. L'affaire Free s'ajoute aux nombreuses restrictions détectées chez tous les opérateurs français1, et vient rappeler que tous les éléments sont sur la table pour appeler à protéger rapidement la neutralité du Net dans la loi.
À la veille de la table ronde qu'elle organise sur le sujet, la ministre en charge de l'économie numérique Fleur Pellerin dit vouloir écarter les questions de libertés fondamentales et se concentrer sur les aspects économiques2. Alors que François Hollande s'était engagé lors de la campagne à protéger la neutralité du Net, et que le Chili, le Pérou, les Pays-Bas et récemment la Slovénie l'ont inscrite dans leurs législation, le gouvernement français s'apprête-t-il à capituler face aux opérateurs télécoms ?
« L'affaire du blocage de la publicité par Free démontre que les citoyens et leurs communications en ligne sont désormais otages d'obscures négociations commerciales. La ministre Fleur Pellerin feint-elle d'ignorer que chaque restriction d'accès est potentiellement une restriction de la libre concurrence et de l'innovation, mais surtout de la liberté de communication de chacun ? Va-t-elle se contenter de répéter les arguments fallacieux des opérateurs, tout en les laissant continuer à restreindre et contrôler nos communications, comme le faisait le gouvernement précédent ? Il n'est plus temps d'organiser une table ronde ou de créer une commission, mais bien de garantir la neutralité du Net dans la loi » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. Les utilisateurs continuent de constater des discriminations, blocages, ralentissements de leurs communications sur Internet, imposés en toute impunité par les opérateurs, en fonction de leur source (Bouygues), de leur destination (Free) ou de leur contenu (SFR).
Paris, le 14 janvier 2013 — L'affaire du blocage de la publicité par Free vient de rappeler l'urgente nécessité d'interdire aux opérateurs de restreindre les communications de leurs utilisateurs. Alors que le candidat Hollande promettait de garantir la neutralité du Net, toutes les preuves appelant à l'action sont sur la table. La ministre Fleur Pellerin s'engagera-t-elle, lors de la table ronde organisée demain sur le sujet, à rapidement présenter un projet de loi ?
Il y a maintenant bientôt deux ans que la Commission des affaires économiques de l'Assemblée Nationale a rendu son rapport sur la Neutralité du Net, constatant une multiplication alarmante des restrictions de l'accès au Net par les opérateurs, et appelant à légiférer. Depuis, ces restrictions se sont généralisées, comme démontré par la plateforme RespectMyNet et le rapport du BEREC, le régulateur européen. L'affaire Free s'ajoute aux nombreuses restrictions détectées chez tous les opérateurs français1, et vient rappeler que tous les éléments sont sur la table pour appeler à protéger rapidement la neutralité du Net dans la loi.
À la veille de la table ronde qu'elle organise sur le sujet, la ministre en charge de l'économie numérique Fleur Pellerin dit vouloir écarter les questions de libertés fondamentales et se concentrer sur les aspects économiques2. Alors que François Hollande s'était engagé lors de la campagne à protéger la neutralité du Net, et que le Chili, le Pérou, les Pays-Bas et récemment la Slovénie l'ont inscrite dans leurs législation, le gouvernement français s'apprête-t-il à capituler face aux opérateurs télécoms ?
« L'affaire du blocage de la publicité par Free démontre que les citoyens et leurs communications en ligne sont désormais otages d'obscures négociations commerciales. La ministre Fleur Pellerin feint-elle d'ignorer que chaque restriction d'accès est potentiellement une restriction de la libre concurrence et de l'innovation, mais surtout de la liberté de communication de chacun ? Va-t-elle se contenter de répéter les arguments fallacieux des opérateurs, tout en les laissant continuer à restreindre et contrôler nos communications, comme le faisait le gouvernement précédent ? Il n'est plus temps d'organiser une table ronde ou de créer une commission, mais bien de garantir la neutralité du Net dans la loi » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. Les utilisateurs continuent de constater des discriminations, blocages, ralentissements de leurs communications sur Internet, imposés en toute impunité par les opérateurs, en fonction de leur source (Bouygues), de leur destination (Free) ou de leur contenu (SFR).
";s:7:"dateiso";s:15:"20130114_152535";}s:15:"20121212_100146";a:7:{s:5:"title";s:85:"Le Parlement européen exige des mesures contre les restrictions d'accès à Internet";s:4:"link";s:112:"http://www.laquadrature.net/fr/le-parlement-europeen-exige-des-mesures-contre-les-restrictions-dacces-a-internet";s:4:"guid";s:35:"6194 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 12 Dec 2012 09:01:46 +0000";s:11:"description";s:4663:"
Paris, 11 décembre 2012 — Le Parlement européen a adopté aujourd'hui deux importants rapports soulignant sa volonté de protéger et de promouvoir les droits et libertés sur Internet, notamment en ce qui concerne la neutralité du Net. La Quadrature du Net salue ce vote du législateur européen et attend désormais de la Commission européenne et des États membres qu'ils entendent l'appel des eurodéputés : ils doivent légiférer pour protéger les libertés en ligne et promouvoir la démocratie ainsi que l'innovation.
Les députés européens ont largement adopté1 le rapport sur « une stratégie pour la liberté numérique dans la politique étrangère de l'Union ». Après le rejet d'ACTA, le Parlement souhaite aujourd'hui une nouvelle approche en matière de droit d'auteur, spécialement dans le cadre d'accords commerciaux, afin de mettre un terme à la spirale répressive qui a caractérisé la politique de l'UE ces dernières années. Le Parlement insiste également sur la nécessité de renforcer les contrôles à l'exportation des technologies de censure et de surveillance. Par ailleurs, les députés réitèrent leurs critiques à propos de la reprise en main de la gouvernance d'Internet par les gouvernements (ce qui vient à point nommé puisque la rencontre du WCIT 2012 se déroule en ce moment même à Dubaï).
Finalement — et il s'agit probablement de l'aspect le plus important du texte — le Parlement réclame à nouveau une réglementation européenne en matière de neutralité du Net afin de protéger son architecture décentralisée et la liberté de communication de ses utilisateurs. Un autre rapport sur « l’achèvement du marché unique numérique », également adopté aujourd'hui2, « appelle la Commission à proposer une législation visant à assurer la neutralité du réseau », et l'invite à mettre un terme à sa politique attentiste et inefficace.
« Après un dialogue constructif avec la société civile, notamment lors du débat sur ACTA, le Parlement européen adopte une approche proactive en matière de défense des libertés sur Internet, en particulier en ce qui concerne la neutralité du Net. Les votes d'aujourd'hui sonnent comme un désaveu pour la commissaire européenne Kroes, qui a fait le jeu des principaux opérateurs télécoms en se refusant à agir pour faire respecter ce principe fondamental. Il est plus que temps que l'Union européenne légifère sur le sujet, alors qu'il est désormais établi que, partout en Europe, les opérateurs imposent des restrictions d'accès illégitimes à leurs abonnés. Il nous faut maintenir la pression sur la Commission et les États membres afin qu'ils protègent la neutralité du Net, pour s'assurer qu'Internet reste au service de la liberté, de la démocratie, et de l'innovation. » a déclaré Jérémie Zimmermann, porte parole et cofondateur de La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
Paris, 11 décembre 2012 — Le Parlement européen a adopté aujourd'hui deux importants rapports soulignant sa volonté de protéger et de promouvoir les droits et libertés sur Internet, notamment en ce qui concerne la neutralité du Net. La Quadrature du Net salue ce vote du législateur européen et attend désormais de la Commission européenne et des États membres qu'ils entendent l'appel des eurodéputés : ils doivent légiférer pour protéger les libertés en ligne et promouvoir la démocratie ainsi que l'innovation.
Les députés européens ont largement adopté1 le rapport sur « une stratégie pour la liberté numérique dans la politique étrangère de l'Union ». Après le rejet d'ACTA, le Parlement souhaite aujourd'hui une nouvelle approche en matière de droit d'auteur, spécialement dans le cadre d'accords commerciaux, afin de mettre un terme à la spirale répressive qui a caractérisé la politique de l'UE ces dernières années. Le Parlement insiste également sur la nécessité de renforcer les contrôles à l'exportation des technologies de censure et de surveillance. Par ailleurs, les députés réitèrent leurs critiques à propos de la reprise en main de la gouvernance d'Internet par les gouvernements (ce qui vient à point nommé puisque la rencontre du WCIT 2012 se déroule en ce moment même à Dubaï).
Finalement — et il s'agit probablement de l'aspect le plus important du texte — le Parlement réclame à nouveau une réglementation européenne en matière de neutralité du Net afin de protéger son architecture décentralisée et la liberté de communication de ses utilisateurs. Un autre rapport sur « l’achèvement du marché unique numérique », également adopté aujourd'hui2, « appelle la Commission à proposer une législation visant à assurer la neutralité du réseau », et l'invite à mettre un terme à sa politique attentiste et inefficace.
« Après un dialogue constructif avec la société civile, notamment lors du débat sur ACTA, le Parlement européen adopte une approche proactive en matière de défense des libertés sur Internet, en particulier en ce qui concerne la neutralité du Net. Les votes d'aujourd'hui sonnent comme un désaveu pour la commissaire européenne Kroes, qui a fait le jeu des principaux opérateurs télécoms en se refusant à agir pour faire respecter ce principe fondamental. Il est plus que temps que l'Union européenne légifère sur le sujet, alors qu'il est désormais établi que, partout en Europe, les opérateurs imposent des restrictions d'accès illégitimes à leurs abonnés. Il nous faut maintenir la pression sur la Commission et les États membres afin qu'ils protègent la neutralité du Net, pour s'assurer qu'Internet reste au service de la liberté, de la démocratie, et de l'innovation. » a déclaré Jérémie Zimmermann, porte parole et cofondateur de La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"dateiso";s:15:"20121212_100146";}s:15:"20121203_113816";a:7:{s:5:"title";s:54:"Pack Liberté 2 : Sauvez des chatons et les libertés ";s:4:"link";s:43:"http://www.laquadrature.net/fr/pack-liberte";s:4:"guid";s:35:"6180 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 03 Dec 2012 10:38:16 +0000";s:11:"description";s:1067:"
Paris, le 3 décembre 2012 - Pour donner à chacun l'occasion de sauver un chaton, l'Internet libre et le logiciel libre, l'April, Framasoft et La Quadrature du Net ont la solution : le « Pack Liberté 2 ».
Les trois associations ont besoin de ressources supplémentaires et de gonfler leurs rangs pour défendre les libertés des citoyens en ligne, et garantir l'accès à une infrastructure libre.
« Miaou ! » conclut un chaton sauvé par le « Pack Liberté ».
";s:7:"content";s:1067:"
Paris, le 3 décembre 2012 - Pour donner à chacun l'occasion de sauver un chaton, l'Internet libre et le logiciel libre, l'April, Framasoft et La Quadrature du Net ont la solution : le « Pack Liberté 2 ».
Les trois associations ont besoin de ressources supplémentaires et de gonfler leurs rangs pour défendre les libertés des citoyens en ligne, et garantir l'accès à une infrastructure libre.
« Miaou ! » conclut un chaton sauvé par le « Pack Liberté ».
";s:7:"dateiso";s:15:"20121203_113816";}s:15:"20121128_101523";a:7:{s:5:"title";s:83:"Datalove sur clé USB pour appeler les Eurodéputés à réformer le droit d'auteur";s:4:"link";s:108:"http://www.laquadrature.net/fr/datalove-sur-cle-usb-pour-appeler-les-eurodeputes-a-reformer-le-droit-dauteur";s:4:"guid";s:35:"6178 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 28 Nov 2012 09:15:23 +0000";s:11:"description";s:4989:"
Bruxelles, 28 novembre – La Quadrature du Net distribue en ce moment une « clé USB Datalove » à chaque Membre du Parlement européen, pré-chargée avec de la musique, des films et des livres les appelant à adapter le droit d'auteur à nos pratiques culturelles. Après la victoire historique contre ACTA, il est temps de rompre avec la logique répressive qui met à mal nos libertés fondamentales et la façon dont se construit et se partage la culture, et de réformer le droit d'auteur.
Plutôt que de favoriser les intérêts privés d'une poignée d'industries et de combattre les pratiques culturelles largement répandues de l'ère numérique, le législateur doit protéger le partage non marchand entre individus et le remix, et rendre légales ces pratiques.
Afin de sensibiliser les élus, des citoyens du monde entier ont financé de manière participative des « clés USB datalove », pré-chargées de propositions pour la réforme du droit d'auteur, ainsi que d'une superbe collection de musiques, films et livres mettant en lumière les problèmes du régime du droit d'auteur et l'urgence de la réforme. Les clés USB sont distribuées en ce moment aux députés européens.
« Notre culture, construite en ligne, est fondée sur le partage, le remix et le copier-coller d'œuvres culturelles. Ces pratiques, indissociables de la liberté d'expression et de la participation démocratique, doivent être encouragées par la loi plutôt que réprimées. Le régime actuel du droit d'auteur s'écarte dangereusement des réalités sociales, culturelles et technologiques, en portant atteinte à nos libertés fondamentales. Il doit être réformé. Les citoyens doivent appeler nos représentants à travailler à ces questions. » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
« Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. » - art.27.1 Déclaration universelle des droits de l'homme
Pour plus d'informations, et pour en discuter, venez sur notre forum.
";s:7:"content";s:5034:"
Bruxelles, 28 novembre – La Quadrature du Net distribue en ce moment une « clé USB Datalove » à chaque Membre du Parlement européen, pré-chargée avec de la musique, des films et des livres les appelant à adapter le droit d'auteur à nos pratiques culturelles. Après la victoire historique contre ACTA, il est temps de rompre avec la logique répressive qui met à mal nos libertés fondamentales et la façon dont se construit et se partage la culture, et de réformer le droit d'auteur.
Plutôt que de favoriser les intérêts privés d'une poignée d'industries et de combattre les pratiques culturelles largement répandues de l'ère numérique, le législateur doit protéger le partage non marchand entre individus et le remix, et rendre légales ces pratiques.
Afin de sensibiliser les élus, des citoyens du monde entier ont financé de manière participative des « clés USB datalove », pré-chargées de propositions pour la réforme du droit d'auteur, ainsi que d'une superbe collection de musiques, films et livres mettant en lumière les problèmes du régime du droit d'auteur et l'urgence de la réforme. Les clés USB sont distribuées en ce moment aux députés européens.
« Notre culture, construite en ligne, est fondée sur le partage, le remix et le copier-coller d'œuvres culturelles. Ces pratiques, indissociables de la liberté d'expression et de la participation démocratique, doivent être encouragées par la loi plutôt que réprimées. Le régime actuel du droit d'auteur s'écarte dangereusement des réalités sociales, culturelles et technologiques, en portant atteinte à nos libertés fondamentales. Il doit être réformé. Les citoyens doivent appeler nos représentants à travailler à ces questions. » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
« Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. » - art.27.1 Déclaration universelle des droits de l'homme
Pour plus d'informations, et pour en discuter, venez sur notre forum.
";s:7:"dateiso";s:15:"20121128_101523";}s:15:"20121120_180347";a:7:{s:5:"title";s:35:"CETA : nous ne sommes pas rassurés";s:4:"link";s:63:"http://www.laquadrature.net/fr/ceta-nous-ne-sommes-pas-rassures";s:4:"guid";s:35:"6166 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 20 Nov 2012 17:03:47 +0000";s:11:"description";s:4771:"
Paris, 21 novembre 2012 – Alors que le ministre du Commerce canadien se rend à Bruxelles cette semaine afin de finaliser le texte de CETA et que des ministres français viennent tout juste de répondre à la lettre envoyée au gouvernement par La Quadrature du Net, aucun élément ne permet à ce jour de vérifier que les mesures répressives ont été retirées de la version actuelle de cet accord commercial.
Quelques semaines après la conclusion du 13ème round de négociations de CETA1, Laurent Fabius, ministre des Affaires étrangères, et Bernard Cazeneuve, ministre des Affaires européennes, ont répondu à la lettre envoyée au gouvernement par La Quadrature du Net un mois plus tôt. Comme nous en avons l'habitude, ces réponses d'élus sur CETA se veulent rassurantes, affirmant que les objectifs de ce nouvel accord commercial et d'ACTA sont différents, mais n'apportent malheureusement aucune preuve que CETA ne représente pas un danger pour nos libertés en ligne.
Ces courriers font écho aux rumeurs suggèrant que le Conseil de l'Union européenne, actuellement présidé par Chypre, aurait poussé les négociateurs à supprimer les sanctions pénales et dispositions répressives ACTA-esque en matière de droit d'auteur (hormis pour le cam-cording2). Rien ne permet cependant de confirmer ces hypothèses aujourd'hui.
Le retrait des sanctions pénales ACTA-esque de CETA découlerait de la peur du Conseil européen de voir ce nouvel accord commercial rejeté dans son ensemble par le Parlement européen si des mesures déjà massivement refusées en juillet étaient présentées aux députés à nouveau. Bien que ces informations paraissent réjouissantes, elles sont malheureusement impossibles à vérifier. Tant que la version actuelle de CETA sera confidentielle, les seuls éléments fiables sur lesquels les citoyens pourront baser leurs analyses resteront la fuite de février 2012 et les déclarations de la Commission européenne d'octobre, confirmant chacune la présence de sanctions pénales dans CETA.
Les annonces de la Commission européenne sur ACTA ont déjà prouvé que cette institution n'hésite pas à avoir recours au mensonge pour tenter d'imposer des dispositions répressives, et que les annonces visant à rassurer les citoyens ne valent rien. Seule la version finale du texte comptera, une fois les négociations opaques terminées. Si les passages relatifs aux sanctions pénales et aux dispositions répressives en matière de droit d'auteur ont réellement été retirées de CETA, alors la Commission européenne ne devrait pas craindre de rendre la version actuelle publique. Au contraire, les efforts déployés des deux côtés de l'Atlantique pour maintenir ces négociations fermées suggèrent le pire.
« Une fois encore, la Commission européenne et les gouvernements des États membres pourraient être en train d'essayer d'imposer des mesures répressives dans un accord commercial, au lieu d'ouvrir un débat démocratique sur le droit d'auteur. Nous n'avons toujours aucune raison d'être rassurés par les douces paroles de la Commission européenne et des ministres français » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
Paris, 21 novembre 2012 – Alors que le ministre du Commerce canadien se rend à Bruxelles cette semaine afin de finaliser le texte de CETA et que des ministres français viennent tout juste de répondre à la lettre envoyée au gouvernement par La Quadrature du Net, aucun élément ne permet à ce jour de vérifier que les mesures répressives ont été retirées de la version actuelle de cet accord commercial.
Quelques semaines après la conclusion du 13ème round de négociations de CETA1, Laurent Fabius, ministre des Affaires étrangères, et Bernard Cazeneuve, ministre des Affaires européennes, ont répondu à la lettre envoyée au gouvernement par La Quadrature du Net un mois plus tôt. Comme nous en avons l'habitude, ces réponses d'élus sur CETA se veulent rassurantes, affirmant que les objectifs de ce nouvel accord commercial et d'ACTA sont différents, mais n'apportent malheureusement aucune preuve que CETA ne représente pas un danger pour nos libertés en ligne.
Ces courriers font écho aux rumeurs suggèrant que le Conseil de l'Union européenne, actuellement présidé par Chypre, aurait poussé les négociateurs à supprimer les sanctions pénales et dispositions répressives ACTA-esque en matière de droit d'auteur (hormis pour le cam-cording2). Rien ne permet cependant de confirmer ces hypothèses aujourd'hui.
Le retrait des sanctions pénales ACTA-esque de CETA découlerait de la peur du Conseil européen de voir ce nouvel accord commercial rejeté dans son ensemble par le Parlement européen si des mesures déjà massivement refusées en juillet étaient présentées aux députés à nouveau. Bien que ces informations paraissent réjouissantes, elles sont malheureusement impossibles à vérifier. Tant que la version actuelle de CETA sera confidentielle, les seuls éléments fiables sur lesquels les citoyens pourront baser leurs analyses resteront la fuite de février 2012 et les déclarations de la Commission européenne d'octobre, confirmant chacune la présence de sanctions pénales dans CETA.
Les annonces de la Commission européenne sur ACTA ont déjà prouvé que cette institution n'hésite pas à avoir recours au mensonge pour tenter d'imposer des dispositions répressives, et que les annonces visant à rassurer les citoyens ne valent rien. Seule la version finale du texte comptera, une fois les négociations opaques terminées. Si les passages relatifs aux sanctions pénales et aux dispositions répressives en matière de droit d'auteur ont réellement été retirées de CETA, alors la Commission européenne ne devrait pas craindre de rendre la version actuelle publique. Au contraire, les efforts déployés des deux côtés de l'Atlantique pour maintenir ces négociations fermées suggèrent le pire.
« Une fois encore, la Commission européenne et les gouvernements des États membres pourraient être en train d'essayer d'imposer des mesures répressives dans un accord commercial, au lieu d'ouvrir un débat démocratique sur le droit d'auteur. Nous n'avons toujours aucune raison d'être rassurés par les douces paroles de la Commission européenne et des ministres français » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"dateiso";s:15:"20121120_180347";}s:15:"20121108_205930";a:7:{s:5:"title";s:81:"UIT/WCIT : la France doit défendre l'Internet libre sur la scène internationale";s:4:"link";s:106:"http://www.laquadrature.net/fr/uitwcit-la-france-doit-defendre-linternet-libre-sur-la-scene-internationale";s:4:"guid";s:35:"6144 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 08 Nov 2012 19:59:30 +0000";s:11:"description";s:5390:"
Paris, 9 novembre 2012 – Au travers sa réponse à la consultation du gouvernement sur les négociations en cours à l'Union Internationale des Télécoms (UIT), La Quadrature du Net alerte le gouvernement Ayrault sur les dangers d'une éventuelle extension des compétences de l'UIT à Internet. Elle rappelle également au gouvernement son engagement en faveur de la neutralité du Net, alors que la France semble prête à soutenir les positions des opérateurs dominants en la matière.
Du 3 au 14 décembre, les membres de l'Union Internationale des Télécoms se réuniront à Dubaï pour le « WCIT »1 afin de réviser le traité fondateur (« ITR »2) de cette agence onusienne, en charge de la coordination des politiques nationales en matière de télécommunications internationales. Comme La Quadrature du Net l'indique dans sa réponse à la consultation du gouvernement sur le sujet, cette négociation s'avère cruciale pour l'avenir d'Internet.
En effet, plusieurs États membres ont fait des propositions d'amendements visant à étendre les compétences de l'UIT - qui jusqu'à présent s'en est tenue à une régulation essentiellement technique - à des sujets tels que la cybercriminalité, l’adressage et le routage IP, la rétention des données et à la traçabilité des communications Internet au niveau international. Ils pourraient motiver, directement ou indirectement, des législations totalement contraires à la protection des droits fondamentaux sur Internet.
Le lobby européen des opérateurs télécoms dominants, ETNO, également représenté à l'UIT, a proposé plusieurs amendements qui auraient notamment pour effet de rendre impossible une protection rigoureuse de la neutralité du Net3 au niveau national ou européen. Or, le gouvernement français semble être l'un des soutiens les plus actifs d'ETNO, même si ses amendement ont désormais peu de chance d'être adoptés. La Quadrature appelle le gouvernement à rejeter publiquement la proposition d'ETNO et à s'engager pour la neutralité du Net en présentant rapidement un projet de loi sur le sujet.
« Cette consultation intervient très tard dans le processus de négociation en cours à l'UIT, et semble destinée à servir d'écran de fumée à un stade déjà avancé des négociations. Or, le gouvernement refuse de s'opposer publiquement à l'extension des compétences de l'UIT, et semble soutenir les positions d'opérateurs télécoms opposés à la neutralité du Net. Il est temps pour la France de s'engager fermement en faveur de l'Internet libre au niveau international, et de prendre des mesures concrètes afin de protéger la neutralité du Net » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Télécharger la réponse de La Quadrature du Net à la consultation sur la Conférence mondiale des télécommunications internationales (CMTI).
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. La Conférence mondiale sur les télécommunications internationales (World Conference on International Telecommunications en anglais)
2. Règlement des télécommunications internationales (International Telecommunication Regulations en anglais)
Paris, 9 novembre 2012 – Au travers sa réponse à la consultation du gouvernement sur les négociations en cours à l'Union Internationale des Télécoms (UIT), La Quadrature du Net alerte le gouvernement Ayrault sur les dangers d'une éventuelle extension des compétences de l'UIT à Internet. Elle rappelle également au gouvernement son engagement en faveur de la neutralité du Net, alors que la France semble prête à soutenir les positions des opérateurs dominants en la matière.
Du 3 au 14 décembre, les membres de l'Union Internationale des Télécoms se réuniront à Dubaï pour le « WCIT »1 afin de réviser le traité fondateur (« ITR »2) de cette agence onusienne, en charge de la coordination des politiques nationales en matière de télécommunications internationales. Comme La Quadrature du Net l'indique dans sa réponse à la consultation du gouvernement sur le sujet, cette négociation s'avère cruciale pour l'avenir d'Internet.
En effet, plusieurs États membres ont fait des propositions d'amendements visant à étendre les compétences de l'UIT - qui jusqu'à présent s'en est tenue à une régulation essentiellement technique - à des sujets tels que la cybercriminalité, l’adressage et le routage IP, la rétention des données et à la traçabilité des communications Internet au niveau international. Ils pourraient motiver, directement ou indirectement, des législations totalement contraires à la protection des droits fondamentaux sur Internet.
Le lobby européen des opérateurs télécoms dominants, ETNO, également représenté à l'UIT, a proposé plusieurs amendements qui auraient notamment pour effet de rendre impossible une protection rigoureuse de la neutralité du Net3 au niveau national ou européen. Or, le gouvernement français semble être l'un des soutiens les plus actifs d'ETNO, même si ses amendement ont désormais peu de chance d'être adoptés. La Quadrature appelle le gouvernement à rejeter publiquement la proposition d'ETNO et à s'engager pour la neutralité du Net en présentant rapidement un projet de loi sur le sujet.
« Cette consultation intervient très tard dans le processus de négociation en cours à l'UIT, et semble destinée à servir d'écran de fumée à un stade déjà avancé des négociations. Or, le gouvernement refuse de s'opposer publiquement à l'extension des compétences de l'UIT, et semble soutenir les positions d'opérateurs télécoms opposés à la neutralité du Net. Il est temps pour la France de s'engager fermement en faveur de l'Internet libre au niveau international, et de prendre des mesures concrètes afin de protéger la neutralité du Net » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Télécharger la réponse de La Quadrature du Net à la consultation sur la Conférence mondiale des télécommunications internationales (CMTI).
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
1. La Conférence mondiale sur les télécommunications internationales (World Conference on International Telecommunications en anglais)
2. Règlement des télécommunications internationales (International Telecommunication Regulations en anglais)
";s:7:"dateiso";s:15:"20121108_205930";}s:15:"20121026_144221";a:7:{s:5:"title";s:103:"Plan d'action européen pour les jeux de hasard en ligne : nouveau risque de censure anti-démocratique";s:4:"link";s:129:"http://www.laquadrature.net/fr/plan-daction-europeen-pour-les-jeux-de-hasard-en-ligne-nouveau-risque-de-censure-anti-democratique";s:4:"guid";s:35:"6127 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 26 Oct 2012 12:42:21 +0000";s:11:"description";s:2736:"
Paris, 24 Octobre 2012 – Alors que la Commission européenne établit un plan d'action pour les jeux de hasard en ligne, La Quadrature du Net met en garde contre le risque de censure de contenus en ligne, et appelle les gouvernements des États membres à refuser l'instrumentalisation de la protection de l'enfance pour la mise en place de mesures inacceptables.
Au nom de la protection de l'enfance et de la lutte contre le blanchiment d'argent et la fraude, la Commission européenne encourage une fois encore le développement d'outils de filtrage des contenus en ligne :
La Commission encourage le développement de meilleurs outils de vérification de l'âge et de filtrage des contenus en ligne.
Comme l'ont déjà montré de nombreux exemples, l'instrumentalisation de ces luttes légitimes cache souvent les pires mesures anti-démocratiques. Le filtrage de contenus a déjà prouvé son inefficacité pour lutter contre les problèmes auxquels la Commission prétend s'attaquer : le seul moyen d'action efficace est la suppression des contenus illégaux directement à la source, c'est-à-dire sur les serveurs sur lesquels ils sont hébergés, et l'arrestation des individus en tirant profit.
Une fois mis en place, ces dispositifs de filtrage pourraient facilement être étendus à d'autres catégories de contenus, par exemple dans l'intérêt des industries du divertissement. Des mécanismes internationaux destinés à combattre le blanchiment d'argent existent déjà, et doivent être utilisés et renforcés. Il est temps d'interdire le filtrage de contenus en ligne définitivement, et de l'abroger là où il est pratiqué, par exemple en France.
« Une fois encore, la Commission européenne tente d'implémenter de dangereuses mesures de filtrage au nom d'objectifs légitimes et respectables. D'autres dispositifs pourraient être plus efficaces sans pour autant remettre en cause la liberté d'expression. L'accès à Internet est aujourd'hui essentiel pour la participation démocratique et le partage des connaissances. Aucun prétexte ne peut justifier le développement d'une censure des contenus en ligne sans porter atteinte aux valeurs fondamentales de notre démocratie. » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"content";s:2736:"
Paris, 24 Octobre 2012 – Alors que la Commission européenne établit un plan d'action pour les jeux de hasard en ligne, La Quadrature du Net met en garde contre le risque de censure de contenus en ligne, et appelle les gouvernements des États membres à refuser l'instrumentalisation de la protection de l'enfance pour la mise en place de mesures inacceptables.
Au nom de la protection de l'enfance et de la lutte contre le blanchiment d'argent et la fraude, la Commission européenne encourage une fois encore le développement d'outils de filtrage des contenus en ligne :
La Commission encourage le développement de meilleurs outils de vérification de l'âge et de filtrage des contenus en ligne.
Comme l'ont déjà montré de nombreux exemples, l'instrumentalisation de ces luttes légitimes cache souvent les pires mesures anti-démocratiques. Le filtrage de contenus a déjà prouvé son inefficacité pour lutter contre les problèmes auxquels la Commission prétend s'attaquer : le seul moyen d'action efficace est la suppression des contenus illégaux directement à la source, c'est-à-dire sur les serveurs sur lesquels ils sont hébergés, et l'arrestation des individus en tirant profit.
Une fois mis en place, ces dispositifs de filtrage pourraient facilement être étendus à d'autres catégories de contenus, par exemple dans l'intérêt des industries du divertissement. Des mécanismes internationaux destinés à combattre le blanchiment d'argent existent déjà, et doivent être utilisés et renforcés. Il est temps d'interdire le filtrage de contenus en ligne définitivement, et de l'abroger là où il est pratiqué, par exemple en France.
« Une fois encore, la Commission européenne tente d'implémenter de dangereuses mesures de filtrage au nom d'objectifs légitimes et respectables. D'autres dispositifs pourraient être plus efficaces sans pour autant remettre en cause la liberté d'expression. L'accès à Internet est aujourd'hui essentiel pour la participation démocratique et le partage des connaissances. Aucun prétexte ne peut justifier le développement d'une censure des contenus en ligne sans porter atteinte aux valeurs fondamentales de notre démocratie. » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"dateiso";s:15:"20121026_144221";}s:15:"20121024_105013";a:7:{s:5:"title";s:47:"ACTA, CETA, etc. Stop au déni de démocratie !";s:4:"link";s:71:"http://www.laquadrature.net/fr/acta-ceta-etc-stop-au-deni-de-democratie";s:4:"guid";s:35:"6120 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 24 Oct 2012 08:50:13 +0000";s:11:"description";s:4997:"
En 2011 et 2012, les citoyens européens sont descendus dans la rue pour protester contre les négociations secrètes de l’Accord anti-contrefaçon ACTA qui mettait en péril leurs libertés fondamentales, ce qui a conduit à un rejet massif de l’accord par le Parlement européen en juillet dernier. Avec un message clair : pas de mesures répressives sans débat démocratique entre représentants élus.
Pourtant, la Commission européenne et les gouvernements des États membres continuent de vouloir passer en force en négociant, sous couvert d’accords commerciaux ou de libre échange tenus secrets, des mesures répressives mettant en péril l’exercice des libertés fondamentales. Accord commercial Canada-UE (CETA), Accord de Libre Échange (ALE) UE-Inde, UE-Thaïlande, UE-Moldavie, etc. Tous ces accords contiennent potentiellement des clauses dangereuses pour les libertés des utilisateurs d’Internet, l’accès aux médicaments essentiels ou l'utilisation et la diffusion de logiciels libres.
Il est intolérable que des mesures menaçant les libertés fondamentales soient négociées en toute opacité par des hauts fonctionnaires alors que ces clauses, qui dépassent largement le cadre d'accords commerciaux, doivent être débattues de manière démocratique et transparente.
qu'elle rende immédiatement public le contenu des accords en cours de négociation ;
qu'elle cesse d’inclure dans des accords commerciaux des dispositions mettant en péril les libertés fondamentales, le développement des logiciels libres ou l’accès de millions de malades à des médicaments génériques abordables ;
des États membres de l’Union européenne qu’ils prennent leurs responsabilités et :
informent les citoyens sur les mesures pénales actuellement négociées ;
rappellent à la Commission européenne les limites de son mandat ;
prennent publiquement position contre l’inclusion dans les accords commerciaux de dispositions menaçant les libertés fondamentales, le développement des logiciels libres ou l’accès de millions de malades à des médicaments génériques abordables.
À propos de l'April
Pionnière du logiciel libre en France, l'April est depuis 1996 un acteur majeur de la démocratisation et de la diffusion du Logiciel Libre et des standards ouverts auprès du grand public, des professionnels et des institutions dans l'espace francophone. Elle veille aussi, dans l'ère numérique, à sensibiliser l'opinion sur les dangers d'une appropriation exclusive de l'information et du savoir par des intérêts privés.
L'association est constituée de plus de 5 000 membres utilisateurs et producteurs de logiciels libres.
La Quadrature du Net est une organisation de défense des droits et libertés des citoyens sur Internet. Elle promeut une adaptation de la législation française et européenne qui soit fidèle aux valeurs qui ont présidé au développement d'Internet, notamment la libre circulation de la connaissance.
À ce titre, la Quadrature du Net intervient notamment dans les débats concernant la liberté d'expression, le droit d'auteur, la régulation du secteur des télécommunications ou encore le respect de la vie privée.
Elle fournit aux citoyens intéressés des outils leur permettant de mieux comprendre les processus législatifs afin d'intervenir efficacement dans le débat public.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"content";s:4997:"
En 2011 et 2012, les citoyens européens sont descendus dans la rue pour protester contre les négociations secrètes de l’Accord anti-contrefaçon ACTA qui mettait en péril leurs libertés fondamentales, ce qui a conduit à un rejet massif de l’accord par le Parlement européen en juillet dernier. Avec un message clair : pas de mesures répressives sans débat démocratique entre représentants élus.
Pourtant, la Commission européenne et les gouvernements des États membres continuent de vouloir passer en force en négociant, sous couvert d’accords commerciaux ou de libre échange tenus secrets, des mesures répressives mettant en péril l’exercice des libertés fondamentales. Accord commercial Canada-UE (CETA), Accord de Libre Échange (ALE) UE-Inde, UE-Thaïlande, UE-Moldavie, etc. Tous ces accords contiennent potentiellement des clauses dangereuses pour les libertés des utilisateurs d’Internet, l’accès aux médicaments essentiels ou l'utilisation et la diffusion de logiciels libres.
Il est intolérable que des mesures menaçant les libertés fondamentales soient négociées en toute opacité par des hauts fonctionnaires alors que ces clauses, qui dépassent largement le cadre d'accords commerciaux, doivent être débattues de manière démocratique et transparente.
qu'elle rende immédiatement public le contenu des accords en cours de négociation ;
qu'elle cesse d’inclure dans des accords commerciaux des dispositions mettant en péril les libertés fondamentales, le développement des logiciels libres ou l’accès de millions de malades à des médicaments génériques abordables ;
des États membres de l’Union européenne qu’ils prennent leurs responsabilités et :
informent les citoyens sur les mesures pénales actuellement négociées ;
rappellent à la Commission européenne les limites de son mandat ;
prennent publiquement position contre l’inclusion dans les accords commerciaux de dispositions menaçant les libertés fondamentales, le développement des logiciels libres ou l’accès de millions de malades à des médicaments génériques abordables.
À propos de l'April
Pionnière du logiciel libre en France, l'April est depuis 1996 un acteur majeur de la démocratisation et de la diffusion du Logiciel Libre et des standards ouverts auprès du grand public, des professionnels et des institutions dans l'espace francophone. Elle veille aussi, dans l'ère numérique, à sensibiliser l'opinion sur les dangers d'une appropriation exclusive de l'information et du savoir par des intérêts privés.
L'association est constituée de plus de 5 000 membres utilisateurs et producteurs de logiciels libres.
La Quadrature du Net est une organisation de défense des droits et libertés des citoyens sur Internet. Elle promeut une adaptation de la législation française et européenne qui soit fidèle aux valeurs qui ont présidé au développement d'Internet, notamment la libre circulation de la connaissance.
À ce titre, la Quadrature du Net intervient notamment dans les débats concernant la liberté d'expression, le droit d'auteur, la régulation du secteur des télécommunications ou encore le respect de la vie privée.
Elle fournit aux citoyens intéressés des outils leur permettant de mieux comprendre les processus législatifs afin d'intervenir efficacement dans le débat public.
Pour plus d'informations et en discuter, vous pouvez vous rendre sur notre forum.
";s:7:"dateiso";s:15:"20121024_105013";}s:15:"20121012_114805";a:7:{s:5:"title";s:59:"CETA : les gouvernements doivent protéger nos libertés !";s:4:"link";s:83:"http://www.laquadrature.net/fr/ceta-les-gouvernements-doivent-proteger-nos-libertes";s:4:"guid";s:35:"6103 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 12 Oct 2012 09:48:05 +0000";s:11:"description";s:5860:"
Paris, le 12 octobre 2012 – La Quadrature du Net publie une lettre envoyée aux membres du gouvernement en charge des négociations de CETA, l'accord commercial Canada - UE, les invitant à agir pour protéger nos libertés, conformément aux engagements pris dans le passé.
Lettres envoyées aux Ministres
Alors que la Commission européenne vient de confirmer la présence de sanctions pénales ACTA-esques dans la version actuelle de CETA, et à l'approche du prochain round de négociations1, La Quadrature du Net exhorte les ministres du gouvernement français en charge de ces questions à débarrasser CETA de ses dispositions répressives. L'organisation citoyenne invite les citoyens européens à contacter eux aussi leurs gouvernements2.
À l'attention de M. Pierre Moscovici
Ministre de l'Économie et des Finances
Paris, le 12 octobre 2012
Monsieur le Ministre,
Le 4 juillet dernier, le Parlement européen a rejeté l'ACTA, l'Accord commercial anti-contrefaçon, par une écrasante majorité et s'est ainsi fait l'écho d'une mobilisation citoyenne sans précédent dans l'Union européenne. Sur les 69 députés européens représentant les citoyens français au Parlement européen, seuls les 28 membres du groupe conservateur (EPP/UMP) ont voté pour cet accord commercial ou se sont abstenus.
Le rejet de l'ACTA a constitué une victoire citoyenne majeure contre les mesures répressives que les négociateurs ont tenté d'imposer en contournant les institutions démocratiques et légitimes, avec le soutien et la participation du gouvernement de Nicolas Sarkozy. Ainsi, tout comme le groupe socialiste du Parlement européen, le Parti socialiste français a pris position à de nombreuses reprises contre cet accord, a soutenu les journées d'action et les manifestations citoyennes, et s'est félicité de son rejet.
Alors que la menace semblait écartée, la divulgation d'une version fuitée de l'Accord commercial Canada - UE (CETA) datée de février 2012 et reproduisant mot pour mot les pires passages de l'ACTA, a fait renaître l'inquiétude des citoyens. Malgré l'opacité des négociations de ce nouvel accord, la Commission européenne vient de confirmer la présence de sanctions pénales, à l'image de celles de l'ACTA, dans la version actuelle de CETA. De telles sanctions pénales, larges et disproportionnées, sont façonnées pour s'attaquer à des pratiques culturelles non marchandes largement répandues et visent les acteurs techniques de l'Internet, moteurs d'innovation et de croissance.
La négociation de ces sanctions pénales, compétence des États membres, est de la responsabilité des gouvernements représentés par la présidence du Conseil de l'UE.
Par conséquent, et en cohérence avec vos prises de positions passées, nous vous appelons à exiger que ces sanctions pénales ainsi que toutes les dispositions répressives en matière de droit d'auteur soient supprimées de CETA (et de tout accord commercial en cours ou futur). De telles dispositions n'ont rien à faire dans un accord commercial, qui plus est négocié dans la plus grande opacité, mais doivent être débattues démocratiquement. Il est de votre responsabilité d'agir en ce sens dès la prochaine session de négociations, qui aura lieu du 15 au 26 octobre 2012, afin que la version finale de l'accord respecte la décision du Parlement européen et les libertés des citoyens.
Dans l'attente de votre réponse et d'actes concrets, veuillez agréer, Monsieur le Ministre, l'expression de nos sentiments respectueux,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
2. Les détails du vote d'ACTA au Parlement européen sont librement consultables sur Memopol
";s:7:"content";s:5860:"
Paris, le 12 octobre 2012 – La Quadrature du Net publie une lettre envoyée aux membres du gouvernement en charge des négociations de CETA, l'accord commercial Canada - UE, les invitant à agir pour protéger nos libertés, conformément aux engagements pris dans le passé.
Lettres envoyées aux Ministres
Alors que la Commission européenne vient de confirmer la présence de sanctions pénales ACTA-esques dans la version actuelle de CETA, et à l'approche du prochain round de négociations1, La Quadrature du Net exhorte les ministres du gouvernement français en charge de ces questions à débarrasser CETA de ses dispositions répressives. L'organisation citoyenne invite les citoyens européens à contacter eux aussi leurs gouvernements2.
À l'attention de M. Pierre Moscovici
Ministre de l'Économie et des Finances
Paris, le 12 octobre 2012
Monsieur le Ministre,
Le 4 juillet dernier, le Parlement européen a rejeté l'ACTA, l'Accord commercial anti-contrefaçon, par une écrasante majorité et s'est ainsi fait l'écho d'une mobilisation citoyenne sans précédent dans l'Union européenne. Sur les 69 députés européens représentant les citoyens français au Parlement européen, seuls les 28 membres du groupe conservateur (EPP/UMP) ont voté pour cet accord commercial ou se sont abstenus.
Le rejet de l'ACTA a constitué une victoire citoyenne majeure contre les mesures répressives que les négociateurs ont tenté d'imposer en contournant les institutions démocratiques et légitimes, avec le soutien et la participation du gouvernement de Nicolas Sarkozy. Ainsi, tout comme le groupe socialiste du Parlement européen, le Parti socialiste français a pris position à de nombreuses reprises contre cet accord, a soutenu les journées d'action et les manifestations citoyennes, et s'est félicité de son rejet.
Alors que la menace semblait écartée, la divulgation d'une version fuitée de l'Accord commercial Canada - UE (CETA) datée de février 2012 et reproduisant mot pour mot les pires passages de l'ACTA, a fait renaître l'inquiétude des citoyens. Malgré l'opacité des négociations de ce nouvel accord, la Commission européenne vient de confirmer la présence de sanctions pénales, à l'image de celles de l'ACTA, dans la version actuelle de CETA. De telles sanctions pénales, larges et disproportionnées, sont façonnées pour s'attaquer à des pratiques culturelles non marchandes largement répandues et visent les acteurs techniques de l'Internet, moteurs d'innovation et de croissance.
La négociation de ces sanctions pénales, compétence des États membres, est de la responsabilité des gouvernements représentés par la présidence du Conseil de l'UE.
Par conséquent, et en cohérence avec vos prises de positions passées, nous vous appelons à exiger que ces sanctions pénales ainsi que toutes les dispositions répressives en matière de droit d'auteur soient supprimées de CETA (et de tout accord commercial en cours ou futur). De telles dispositions n'ont rien à faire dans un accord commercial, qui plus est négocié dans la plus grande opacité, mais doivent être débattues démocratiquement. Il est de votre responsabilité d'agir en ce sens dès la prochaine session de négociations, qui aura lieu du 15 au 26 octobre 2012, afin que la version finale de l'accord respecte la décision du Parlement européen et les libertés des citoyens.
Dans l'attente de votre réponse et d'actes concrets, veuillez agréer, Monsieur le Ministre, l'expression de nos sentiments respectueux,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
2. Les détails du vote d'ACTA au Parlement européen sont librement consultables sur Memopol
";s:7:"dateiso";s:15:"20121012_114805";}s:15:"20121011_125642";a:7:{s:5:"title";s:72:"Confirmation de scandaleuses sanctions pénales ACTA-esques dans CETA !";s:4:"link";s:99:"http://www.laquadrature.net/fr/confirmation-de-scandaleuses-sanctions-penales-acta-esques-dans-ceta";s:4:"guid";s:35:"6094 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 11 Oct 2012 10:56:42 +0000";s:11:"description";s:5945:"
Bruxelles, 10 octobre 2012 – La Commission européenne a confirmé que des sanctions pénales similaires à celles d'ACTA demeurent dans la version actuelle de CETA, l'accord commercial Canada-UE. Cette manœuvre des exécutifs européens pour imposer en douce des mesures répressives sur les communications en ligne est inacceptable. La Quadrature du Net appelle les citoyens européens à exiger de leurs gouvernements qu'ils retirent de CETA les dispositions répressives concernant le droit d'auteur, lors du prochain round de négociations1. Dans le cas contraire, le texte final devra être rejeté dans son intégralité.
L'attitude des négociateurs européens de CETA reproduit de manière alarmante le flagrant déni de démocratie des négociations d'ACTA. Malgré les demandes des citoyens et des élus, CETA demeure confidentiel, aussi bien au Canada que dans l'Union européenne. C'est dans ce contexte opaque que Philipp Dupuis, le négociateur de la Commission européenne, au cours d'un atelier le 10 octobre 2012, a confirmé que les sanctions pénales étaient bien présentes dans la version actuelle de CETA. Comme à son habitude, la Commission décline toute responsabilité sur la négociation de sanctions pénales, et la rejette sur les gouvernements des États membres (et par conséquent le Conseil de l'UE)2, prétendant leur conseiller de supprimer ces dispositions.
À moins que la version actuelle de CETA ne soit rendue publique, il est impossible d'avoir confiance dans les propos de ces négociateurs, destinés à calmer la colère légitime des citoyens. D'autant plus depuis la publication du compte-rendu du 3e round de négociations d'ACTA d'octobre 2008, partiellement déclassifié il y a quelques jours. Ce document démontre que les citoyens avaient raison au sujet d'ACTA. À travers les clauses concernant les sanctions pénales, les négociateurs visaient bel et bien les pratiques non marchandes (traduction et emphase par nos soins) :
NON DÉCLASSIFIÉ a présenté le texte sur les sanctions pénales. La formulation de ce document est basée sur l'article 61 des accords TRIPS3, qu'il clarifie et renforce.
NON DÉCLASSIFIÉ a annoncé qu'il souhaitait déterminer l'interprétation du concept d'échelle commerciale de l'article 61 afin de rendre évident qu'il comprenait la contrefaçon à grande échelle, quand bien même elle n'était pas effectuée à des fins commerciales. Et qu'en outre, il considérait (a) et (b) comme des éléments ajustables du concept d'échelle commerciale.
Ces clauses menacent l'existence même de pratiques sociales largement répandues, telles que le partage non marchand entre individus d'œuvres culturelles ou le remix, et visent Internet dans son ensemble, incluant les opérateurs techniques4. Si de telles sanctions pénales étaient toujours présentes dans la version finale du texte, et imposées en douce par les gouvernements de l'UE, CETA devrait être rejeté dans son intégralité. Les citoyens européens doivent demander des comptes aux gouvernements et les appeler à retirer de CETA ces sanctions pénales ainsi que toute mesure relative au droit d'auteur.
« Les seuls éléments tangibles sur lesquels nous pouvons baser notre analyse suggèrent le pire : une fois encore, la Commission européenne et les gouvernements des États membres tentent de s'attaquer aux pratiques culturelles en ligne avec des mesures répressives. Des sanctions pénales élargies n'ont rien à faire dans un accord commercial. Si elles étaient toujours présentes dans la version finale de CETA, l'accord perdrait toute légitimité et devrait faire face à une opposition frontale, à l'image d'ACTA. Cette tendance à imposer des mesures répressives au travers d'accords commerciaux doit cesser » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
2. Les sanctions pénales relèvent de la compétence des États membres, qui les ont négociées pour ACTA par le biais de la présidence de l'Union européenne, comme ils le font actuellement pour CETA
4. Fournisseurs d'accès, d'hébergements, de services
";s:7:"content";s:5945:"
Bruxelles, 10 octobre 2012 – La Commission européenne a confirmé que des sanctions pénales similaires à celles d'ACTA demeurent dans la version actuelle de CETA, l'accord commercial Canada-UE. Cette manœuvre des exécutifs européens pour imposer en douce des mesures répressives sur les communications en ligne est inacceptable. La Quadrature du Net appelle les citoyens européens à exiger de leurs gouvernements qu'ils retirent de CETA les dispositions répressives concernant le droit d'auteur, lors du prochain round de négociations1. Dans le cas contraire, le texte final devra être rejeté dans son intégralité.
L'attitude des négociateurs européens de CETA reproduit de manière alarmante le flagrant déni de démocratie des négociations d'ACTA. Malgré les demandes des citoyens et des élus, CETA demeure confidentiel, aussi bien au Canada que dans l'Union européenne. C'est dans ce contexte opaque que Philipp Dupuis, le négociateur de la Commission européenne, au cours d'un atelier le 10 octobre 2012, a confirmé que les sanctions pénales étaient bien présentes dans la version actuelle de CETA. Comme à son habitude, la Commission décline toute responsabilité sur la négociation de sanctions pénales, et la rejette sur les gouvernements des États membres (et par conséquent le Conseil de l'UE)2, prétendant leur conseiller de supprimer ces dispositions.
À moins que la version actuelle de CETA ne soit rendue publique, il est impossible d'avoir confiance dans les propos de ces négociateurs, destinés à calmer la colère légitime des citoyens. D'autant plus depuis la publication du compte-rendu du 3e round de négociations d'ACTA d'octobre 2008, partiellement déclassifié il y a quelques jours. Ce document démontre que les citoyens avaient raison au sujet d'ACTA. À travers les clauses concernant les sanctions pénales, les négociateurs visaient bel et bien les pratiques non marchandes (traduction et emphase par nos soins) :
NON DÉCLASSIFIÉ a présenté le texte sur les sanctions pénales. La formulation de ce document est basée sur l'article 61 des accords TRIPS3, qu'il clarifie et renforce.
NON DÉCLASSIFIÉ a annoncé qu'il souhaitait déterminer l'interprétation du concept d'échelle commerciale de l'article 61 afin de rendre évident qu'il comprenait la contrefaçon à grande échelle, quand bien même elle n'était pas effectuée à des fins commerciales. Et qu'en outre, il considérait (a) et (b) comme des éléments ajustables du concept d'échelle commerciale.
Ces clauses menacent l'existence même de pratiques sociales largement répandues, telles que le partage non marchand entre individus d'œuvres culturelles ou le remix, et visent Internet dans son ensemble, incluant les opérateurs techniques4. Si de telles sanctions pénales étaient toujours présentes dans la version finale du texte, et imposées en douce par les gouvernements de l'UE, CETA devrait être rejeté dans son intégralité. Les citoyens européens doivent demander des comptes aux gouvernements et les appeler à retirer de CETA ces sanctions pénales ainsi que toute mesure relative au droit d'auteur.
« Les seuls éléments tangibles sur lesquels nous pouvons baser notre analyse suggèrent le pire : une fois encore, la Commission européenne et les gouvernements des États membres tentent de s'attaquer aux pratiques culturelles en ligne avec des mesures répressives. Des sanctions pénales élargies n'ont rien à faire dans un accord commercial. Si elles étaient toujours présentes dans la version finale de CETA, l'accord perdrait toute légitimité et devrait faire face à une opposition frontale, à l'image d'ACTA. Cette tendance à imposer des mesures répressives au travers d'accords commerciaux doit cesser » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
2. Les sanctions pénales relèvent de la compétence des États membres, qui les ont négociées pour ACTA par le biais de la présidence de l'Union européenne, comme ils le font actuellement pour CETA
4. Fournisseurs d'accès, d'hébergements, de services
";s:7:"dateiso";s:15:"20121011_125642";}s:15:"20121002_150743";a:7:{s:5:"title";s:113:"Les membres du Parlement européen doivent se tenir prêts à rejeter l'accord commercial Canada-UE, clone d'ACTA";s:4:"link";s:131:"http://www.laquadrature.net/fr/les-membres-du-parlement-europeen-doivent-se-tenir-prets-a-rejeter-laccord-commercial-canada-ue-clon";s:4:"guid";s:35:"6077 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 02 Oct 2012 13:07:43 +0000";s:11:"description";s:3400:"
Paris, 2 octobre 2012 – À l'approche du prochain round de négociations de CETA (accord commercial Canada-UE)1, La Quadrature du Net publie son web-dossier dédié. L'organisation citoyenne appelle les membres du Parlement européen à exiger une transparence totale sur ces négociations et à se tenir prêts à rejeter CETA de la même manière qu'ils ont rejeté ACTA, si jamais des dispositions anti-Internet et des attaques contre les libertés et droits des citoyens subsistaient dans la version finale de l'accord.
À nouveau, la Commission européenne tente de contourner le processus démocratique et d'imposer des mesures répressives pour les libertés en ligne à travers un accord commercial. Bien que le commissaire De Gucht prétende que les dispositions issues d'ACTA ne se trouvent plus dans la version actuelle de CETA, rien ne permettra de vérifier cette affirmation tant que les négociateurs conserveront ce document secret. La dernière version fuitée de CETA, datant de février 2012, reproduit mot pour mot les pires dispositions anti-citoyennes d'ACTA, au nom cette fois du Canada et de l'UE.
La Quadrature du Net publie son web-dossier sur CETA et appelle les membres du Parlement européen à s'opposer, une fois encore, aux tentatives honteuses de contournement des processus démocratiques de la Commission européenne. Les députés européens doivent exiger de la Commission qu'elle publie la version actuelle de CETA avant le prochain – et probablement dernier – round de négociations à Bruxelles, prévu du 15 au 26 octobre.
Dans le cas où des dispositions répressives issues d'ACTA s'attaquant à l'Internet libre et aux libertés de ses utilisateurs seraient toujours présentes dans la version actuelle de CETA, les membres du Parlement européen doivent garantir aux citoyens qu'ils resteront fidèles à leurs engagements et rejetteront l'accord commercial dans son ensemble.
« Apparemment, la Commission européenne n'a pas tiré les leçons de sa défaite cinglante de juillet dernier. Il semble au contraire que le commissaire De Gucht cache de nouveau des informations essentielles aux citoyens et députés européens, et tente de contourner le processus démocratique avec CETA pour imposer ses mesures répressives. Les eurodéputés doivent rester fidèles à la position courageuse qu'ils ont adopté contre ACTA, et rejeter CETA dans son ensemble si jamais les dispositions issues d'ACTA se trouvaient toujours dans la version finale de l'accord » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 2 octobre 2012 – À l'approche du prochain round de négociations de CETA (accord commercial Canada-UE)1, La Quadrature du Net publie son web-dossier dédié. L'organisation citoyenne appelle les membres du Parlement européen à exiger une transparence totale sur ces négociations et à se tenir prêts à rejeter CETA de la même manière qu'ils ont rejeté ACTA, si jamais des dispositions anti-Internet et des attaques contre les libertés et droits des citoyens subsistaient dans la version finale de l'accord.
À nouveau, la Commission européenne tente de contourner le processus démocratique et d'imposer des mesures répressives pour les libertés en ligne à travers un accord commercial. Bien que le commissaire De Gucht prétende que les dispositions issues d'ACTA ne se trouvent plus dans la version actuelle de CETA, rien ne permettra de vérifier cette affirmation tant que les négociateurs conserveront ce document secret. La dernière version fuitée de CETA, datant de février 2012, reproduit mot pour mot les pires dispositions anti-citoyennes d'ACTA, au nom cette fois du Canada et de l'UE.
La Quadrature du Net publie son web-dossier sur CETA et appelle les membres du Parlement européen à s'opposer, une fois encore, aux tentatives honteuses de contournement des processus démocratiques de la Commission européenne. Les députés européens doivent exiger de la Commission qu'elle publie la version actuelle de CETA avant le prochain – et probablement dernier – round de négociations à Bruxelles, prévu du 15 au 26 octobre.
Dans le cas où des dispositions répressives issues d'ACTA s'attaquant à l'Internet libre et aux libertés de ses utilisateurs seraient toujours présentes dans la version actuelle de CETA, les membres du Parlement européen doivent garantir aux citoyens qu'ils resteront fidèles à leurs engagements et rejetteront l'accord commercial dans son ensemble.
« Apparemment, la Commission européenne n'a pas tiré les leçons de sa défaite cinglante de juillet dernier. Il semble au contraire que le commissaire De Gucht cache de nouveau des informations essentielles aux citoyens et députés européens, et tente de contourner le processus démocratique avec CETA pour imposer ses mesures répressives. Les eurodéputés doivent rester fidèles à la position courageuse qu'ils ont adopté contre ACTA, et rejeter CETA dans son ensemble si jamais les dispositions issues d'ACTA se trouvaient toujours dans la version finale de l'accord » a déclaré Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20121002_150743";}s:15:"20120925_124641";a:7:{s:5:"title";s:58:"Pourquoi nous ne participerons pas à la mission Lescure ";s:4:"link";s:86:"http://www.laquadrature.net/fr/pourquoi-nous-ne-participerons-pas-a-la-mission-lescure";s:4:"guid";s:35:"6060 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 25 Sep 2012 10:46:41 +0000";s:11:"description";s:6709:"
Paris, 25 septembre 2012 - Alors que s'achève la conférence de presse du lancement de la mission Culture-Acte2, présidée par Pierre Lescure sous la tutelle de la Ministre de la culture Aurélie Filippetti, La Quadrature du Net, UFC-Que choisir et le Samup (Syndicat des artistes, musiciens, chanteurs, danseurs et enseignants) publient les raisons de leur boycott.
TRIBUNE - Par Philippe AIGRAIN Cofondateur de La Quadrature du Net, Alain BAZOT Président de l’UFC-Que choisir et François NOWAK du Syndicat des artistes, musiciens, chanteurs, danseurs et enseignants (Samup)1.
Pour plus de détails, voir le billet de Philippe Aigrain.
Le numérique révolutionne la culture. Internet est un gigantesque laboratoire de nouvelles formes de création, un lieu d’interaction entre des créateurs dont le nombre s’est fortement accru et des publics qui n’acceptent plus qu’on les traite en récepteurs passifs de contenus préformatés. Malgré cela, on s’est obstiné à ne considérer le numérique que comme un canal de distribution pour les produits raréfiés des industries culturelles traditionnelles et à traiter les citoyens numériques comme des pirates à réformer. A l’opposé, depuis sept ans, nous travaillons à la construction d’un nouveau pacte entre créateurs et citoyens, consommateurs et usagers d’Internet.
La plateforme qui réunit nos organisations, Création - Public - Internet a proposé de construire ce pacte sur deux piliers : la reconnaissance du droit des individus à partager entre eux les œuvres numériques sans but lucratif, et la mise en place de nouveaux financements destinés à rémunérer les créateurs et à apporter des ressources supplémentaires à la production de nouvelles œuvres et à l’environnement de la création. Nous sommes confrontés à une situation révoltante.
Pour la troisième fois en cinq ans, la mission de définir les orientations des politiques portant sur la culture et Internet est confiée à une personne fortement impliquée dans les intérêts privés de la production, distribution et promotion des médias. Après Denis Olivennes, PDG d’une société dont la distribution de musique était l’une des activités, après Patrick Zelnik, PDG d’un label phonographique, voici Pierre Lescure qui siège au conseil d’administration ou de surveillance de Havas, de Lagardère et de deux sociétés qui jouent un rôle essentiel dans les dispositifs de contrôle d’usage des œuvres (DRM) : Kudelski et Technicolor. On pouvait penser qu’avec le récent changement de majorité, on mettrait fin à ce type de privatisation de la préparation des politiques publiques. Mais lorsqu’on interroge Pierre Lescure sur sa nomination, il invoque deux qualités pour la justifier : ses relations amicales avec le chef de l’État (qui lui ont permis de proposer ses services), et la connaissance des distributeurs et producteurs qu’il doit précisément aux conflits d’intérêt qui devraient interdire de le nommer. L’un de nous a accepté de rencontrer informellement Pierre Lescure avant le démarrage de sa mission. Il lui a transmis nos propositions de « licence pour le partage » et la plateforme couvrant le champ plus large de la réforme du droit d’auteur et des politiques culturelles, préparée par la Quadrature du Net. Seul résultat de ce dialogue, la reprise par Pierre Lescure, dans ses interventions, de l’expression légalisation du partage non marchand dans un sens perverti. Là où nous y voyons un droit culturel essentiel s’appliquant à toutes les œuvres numériques, il n’y voit qu’une source de monétisation complémentaire des fonds de catalogue qui ne se prêtent pas à être promus comme des savonnettes.
Une telle approche ne mettrait en rien fin à l’absurde guerre au partage non marchand, et nous promettrait de nouvelles Hadopi, ou la même. L’étroitesse de vue de la mission ne se limite pas au partage non marchand. Quelle attention sera portée aux conditions de l’acte créatif, à la culture vivante qui se développe sur Internet ? Quelle attention sera portée à la refonte, et non au simple maintien, d’une exception culturelle dont de nombreux signes montrent l’essoufflement ? Seul semble importer la survie d’un modèle d’industries de distribution culturelle dont les auteurs, artistes et techniciens sont le dernier souci. La culture, les divers médias non-audiovisuels, Internet et les citoyens méritent mieux qu’une mission dont le sujet principal d’intérêt est la télévision connectée.
L’organisation même de la mission ne vaut pas mieux. Pierre Lescure sera seul, avec un groupe de technocrates sans voix propre, pour décider de ce qu’il retient des auditions. La première phase de la mission (juillet-septembre !) visait un état des lieux, qui a été confié aux seuls membres de l’équipe technique, sans aucun échange contradictoire ni cadre officiel. Nous ne cautionnerons pas cette caricature de débat démocratique, et nous ne nous rendrons pas aux invitations reçues pour des auditions. Alors que M. Lescure a des idées bien arrêtées sur chacun des sujets devant pourtant faire l’objet de débats, il est de notre devoir, en tant que constructeurs constants d’un dialogue entre auteurs, artistes et citoyens de tirer la sonnette d’alarme et de défendre nos propositions dans l’espace public sans cautionner sa privatisation. Nos propositions sont sur la table. A tous de se les approprier, de les critiquer ou de les soutenir.
Paris, 25 septembre 2012 - Alors que s'achève la conférence de presse du lancement de la mission Culture-Acte2, présidée par Pierre Lescure sous la tutelle de la Ministre de la culture Aurélie Filippetti, La Quadrature du Net, UFC-Que choisir et le Samup (Syndicat des artistes, musiciens, chanteurs, danseurs et enseignants) publient les raisons de leur boycott.
TRIBUNE - Par Philippe AIGRAIN Cofondateur de La Quadrature du Net, Alain BAZOT Président de l’UFC-Que choisir et François NOWAK du Syndicat des artistes, musiciens, chanteurs, danseurs et enseignants (Samup)1.
Pour plus de détails, voir le billet de Philippe Aigrain.
Le numérique révolutionne la culture. Internet est un gigantesque laboratoire de nouvelles formes de création, un lieu d’interaction entre des créateurs dont le nombre s’est fortement accru et des publics qui n’acceptent plus qu’on les traite en récepteurs passifs de contenus préformatés. Malgré cela, on s’est obstiné à ne considérer le numérique que comme un canal de distribution pour les produits raréfiés des industries culturelles traditionnelles et à traiter les citoyens numériques comme des pirates à réformer. A l’opposé, depuis sept ans, nous travaillons à la construction d’un nouveau pacte entre créateurs et citoyens, consommateurs et usagers d’Internet.
La plateforme qui réunit nos organisations, Création - Public - Internet a proposé de construire ce pacte sur deux piliers : la reconnaissance du droit des individus à partager entre eux les œuvres numériques sans but lucratif, et la mise en place de nouveaux financements destinés à rémunérer les créateurs et à apporter des ressources supplémentaires à la production de nouvelles œuvres et à l’environnement de la création. Nous sommes confrontés à une situation révoltante.
Pour la troisième fois en cinq ans, la mission de définir les orientations des politiques portant sur la culture et Internet est confiée à une personne fortement impliquée dans les intérêts privés de la production, distribution et promotion des médias. Après Denis Olivennes, PDG d’une société dont la distribution de musique était l’une des activités, après Patrick Zelnik, PDG d’un label phonographique, voici Pierre Lescure qui siège au conseil d’administration ou de surveillance de Havas, de Lagardère et de deux sociétés qui jouent un rôle essentiel dans les dispositifs de contrôle d’usage des œuvres (DRM) : Kudelski et Technicolor. On pouvait penser qu’avec le récent changement de majorité, on mettrait fin à ce type de privatisation de la préparation des politiques publiques. Mais lorsqu’on interroge Pierre Lescure sur sa nomination, il invoque deux qualités pour la justifier : ses relations amicales avec le chef de l’État (qui lui ont permis de proposer ses services), et la connaissance des distributeurs et producteurs qu’il doit précisément aux conflits d’intérêt qui devraient interdire de le nommer. L’un de nous a accepté de rencontrer informellement Pierre Lescure avant le démarrage de sa mission. Il lui a transmis nos propositions de « licence pour le partage » et la plateforme couvrant le champ plus large de la réforme du droit d’auteur et des politiques culturelles, préparée par la Quadrature du Net. Seul résultat de ce dialogue, la reprise par Pierre Lescure, dans ses interventions, de l’expression légalisation du partage non marchand dans un sens perverti. Là où nous y voyons un droit culturel essentiel s’appliquant à toutes les œuvres numériques, il n’y voit qu’une source de monétisation complémentaire des fonds de catalogue qui ne se prêtent pas à être promus comme des savonnettes.
Une telle approche ne mettrait en rien fin à l’absurde guerre au partage non marchand, et nous promettrait de nouvelles Hadopi, ou la même. L’étroitesse de vue de la mission ne se limite pas au partage non marchand. Quelle attention sera portée aux conditions de l’acte créatif, à la culture vivante qui se développe sur Internet ? Quelle attention sera portée à la refonte, et non au simple maintien, d’une exception culturelle dont de nombreux signes montrent l’essoufflement ? Seul semble importer la survie d’un modèle d’industries de distribution culturelle dont les auteurs, artistes et techniciens sont le dernier souci. La culture, les divers médias non-audiovisuels, Internet et les citoyens méritent mieux qu’une mission dont le sujet principal d’intérêt est la télévision connectée.
L’organisation même de la mission ne vaut pas mieux. Pierre Lescure sera seul, avec un groupe de technocrates sans voix propre, pour décider de ce qu’il retient des auditions. La première phase de la mission (juillet-septembre !) visait un état des lieux, qui a été confié aux seuls membres de l’équipe technique, sans aucun échange contradictoire ni cadre officiel. Nous ne cautionnerons pas cette caricature de débat démocratique, et nous ne nous rendrons pas aux invitations reçues pour des auditions. Alors que M. Lescure a des idées bien arrêtées sur chacun des sujets devant pourtant faire l’objet de débats, il est de notre devoir, en tant que constructeurs constants d’un dialogue entre auteurs, artistes et citoyens de tirer la sonnette d’alarme et de défendre nos propositions dans l’espace public sans cautionner sa privatisation. Nos propositions sont sur la table. A tous de se les approprier, de les critiquer ou de les soutenir.
";s:7:"dateiso";s:15:"20120925_124641";}s:15:"20120920_184828";a:7:{s:5:"title";s:82:"Le gouvernement doit s'engager à légiférer rapidement sur la neutralité du Net";s:4:"link";s:108:"http://www.laquadrature.net/fr/le-gouvernement-doit-sengager-a-legiferer-rapidement-sur-la-neutralite-du-net";s:4:"guid";s:35:"6046 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 20 Sep 2012 16:48:28 +0000";s:11:"description";s:5731:"
L'Arcep vient de publier son rapport sur la neutralité du Net. Remis au Parlement et au gouvernement, ce dernier doit être l'occasion de relancer une fois pour toutes le débat sur la protection de la neutralité du Net, à l'heure où la ministre Fleur Pellerin semble en passe de renoncer à légiférer rapidement sur cet enjeu majeur, faisant ainsi le jeu des opérateurs dominants.
Dans son nouveau rapport sur la neutralité du Net, l'Arcep préfère ne prendre aucun risque politique et tend à minimiser la gravité de la situation1. En particulier, l'idée selon laquelle l'autorité de régulation détiendrait les compétences nécessaires à la mise en œuvre de ses propres recommandations en faveur de la neutralité est extrêmement optimiste, ces dernières ne bénéficiant pas d'une base juridique suffisamment solide2.
La situation actuelle doit pourtant conduire les responsables politiques à s'engager fermement en faveur d'une protection législative de la neutralité du Net, alors que les opérateurs dominants tentent, à travers l'Union Internationale des Télécoms et grâce à l'inaction des décideurs européens, de faire échec à toute initiative en la matière3.
« Il faut mettre fin à ce jeu de dupes qui depuis trois ans consiste à empiler les rapports et les déclarations en faveur de la neutralité, tout en se refusant à inscrire dans la loi ce principe fondamental. Si la situation actuelle persiste, les effets de réseaux et l'inertie des choix d'infrastructure et de modèles commerciaux feront qu'il sera impossible de juguler les restrictions d'accès imposées par les opérateurs4. Le législateur doit fixer un cadre préventif et dissuasif pour protéger Internet et ses utilisateurs de la remise en cause croissante de la neutralité par les opérateurs. », a déclaré Benjamin Sonntag, co-fondateur de l'organisation citoyenne La Quadrature du Net.
L'Arcep vient de publier son rapport sur la neutralité du Net. Remis au Parlement et au gouvernement, ce dernier doit être l'occasion de relancer une fois pour toutes le débat sur la protection de la neutralité du Net, à l'heure où la ministre Fleur Pellerin semble en passe de renoncer à légiférer rapidement sur cet enjeu majeur, faisant ainsi le jeu des opérateurs dominants.
Dans son nouveau rapport sur la neutralité du Net, l'Arcep préfère ne prendre aucun risque politique et tend à minimiser la gravité de la situation1. En particulier, l'idée selon laquelle l'autorité de régulation détiendrait les compétences nécessaires à la mise en œuvre de ses propres recommandations en faveur de la neutralité est extrêmement optimiste, ces dernières ne bénéficiant pas d'une base juridique suffisamment solide2.
La situation actuelle doit pourtant conduire les responsables politiques à s'engager fermement en faveur d'une protection législative de la neutralité du Net, alors que les opérateurs dominants tentent, à travers l'Union Internationale des Télécoms et grâce à l'inaction des décideurs européens, de faire échec à toute initiative en la matière3.
« Il faut mettre fin à ce jeu de dupes qui depuis trois ans consiste à empiler les rapports et les déclarations en faveur de la neutralité, tout en se refusant à inscrire dans la loi ce principe fondamental. Si la situation actuelle persiste, les effets de réseaux et l'inertie des choix d'infrastructure et de modèles commerciaux feront qu'il sera impossible de juguler les restrictions d'accès imposées par les opérateurs4. Le législateur doit fixer un cadre préventif et dissuasif pour protéger Internet et ses utilisateurs de la remise en cause croissante de la neutralité par les opérateurs. », a déclaré Benjamin Sonntag, co-fondateur de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20120920_184828";}s:15:"20120920_124756";a:7:{s:5:"title";s:108:"L'action du co-fondateur de La Quadrature du Net Jérémie Zimmermann récompensée par un trophée de l'EFF";s:4:"link";s:131:"http://www.laquadrature.net/fr/laction-du-co-fondateur-de-la-quadrature-du-net-jeremie-zimmermann-recompensee-par-un-trophee-de-lef";s:4:"guid";s:35:"6044 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 20 Sep 2012 10:47:56 +0000";s:11:"description";s:3179:"
Ce soir à 19h45 PST (4h45 CET), Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net recevra un Pioneer Award de l'Electronic Frontier Foundation (EFF) au cours d'une cérémonie au Project One Gallery à San Francisco. L'ensemble de La Quadrature du Net tient à remercier l'EFF et à féliciter Jérémie.
Trophée 2009 - Photo de Quinn Norton et Amber Wolf
L'EFF Pionner Award a été crée en 1993 pour « récompenser les précurseurs agissant à la frontière numérique pour étendre la liberté et l'innovation dans le domaine des technologies de l'information ». Aux côtés de Jérémie Zimmermann, les trophées de cette édition 2012 vont être remis au Projet Tor, une infrastructure logicielle clé pour l'anonymat sur Internet, et à Andrew (bunnie) Huang, un hacker de logiciel et de matériel de talent, auteur de grandes réalisations pour l’interopérabilité et l'art électronique. L'édition 2012 de ces trophées récompense les trois aspects de l'Internet et du monde numérique pour lesquels nous nous battons : la démocratie et l'activisme politique, la capacité des projets collaboratifs à mettre en place des infrastructures majeures, et la prise de contrôle individuelle, ici dans les domaines du jeu et de l'art.
L'EFF déclare : « [Jérémie] Zimmermann a joué un rôle déterminant dans la lutte contre l'Accord Commercial Anti-Contrefaçon (ACTA), un traité d'envergure mondiale qui aurait restreint de nombreuses libertés en ligne au nom d'une conception extrémiste de la protection de la propriété intellectuelle. Zimmermann a œuvré sans relâche pour alerter l'opinion publique sur les dangers d'ACTA et le risque que cet accord faisait courir à Internet et aux libertés en ligne. En juillet dernier, après des années de négociations secrètes, ACTA a été rejeté au Parlement européen. Zimmermann agit également sur un nombre incalculable d'autres sujets, dont la liberté d'expression, le droit d'auteur, la régulation des télécommunications, et la protection de la vie privée en ligne. »
Jérémie partage son prix avec tous les bénévoles et les citoyens anonymes qui ont contribué aux victoires de La Quadrature du Net ou ont relayé ses idées et propositions. Des batailles difficiles et des opportunités excitantes pour un Internet libre sont encore devant nous. Vous pouvez aider La Quadrature du Net à être à la hauteur de ses responsabilités dans les années à venir, soit en participant à ses actions, soit en soutenant ses efforts.
";s:7:"content";s:3182:"
Ce soir à 19h45 PST (4h45 CET), Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net recevra un Pioneer Award de l'Electronic Frontier Foundation (EFF) au cours d'une cérémonie au Project One Gallery à San Francisco. L'ensemble de La Quadrature du Net tient à remercier l'EFF et à féliciter Jérémie.
Trophée 2009 - Photo de Quinn Norton et Amber Wolf
L'EFF Pionner Award a été crée en 1993 pour « récompenser les précurseurs agissant à la frontière numérique pour étendre la liberté et l'innovation dans le domaine des technologies de l'information ». Aux côtés de Jérémie Zimmermann, les trophées de cette édition 2012 vont être remis au Projet Tor, une infrastructure logicielle clé pour l'anonymat sur Internet, et à Andrew (bunnie) Huang, un hacker de logiciel et de matériel de talent, auteur de grandes réalisations pour l’interopérabilité et l'art électronique. L'édition 2012 de ces trophées récompense les trois aspects de l'Internet et du monde numérique pour lesquels nous nous battons : la démocratie et l'activisme politique, la capacité des projets collaboratifs à mettre en place des infrastructures majeures, et la prise de contrôle individuelle, ici dans les domaines du jeu et de l'art.
L'EFF déclare : « [Jérémie] Zimmermann a joué un rôle déterminant dans la lutte contre l'Accord Commercial Anti-Contrefaçon (ACTA), un traité d'envergure mondiale qui aurait restreint de nombreuses libertés en ligne au nom d'une conception extrémiste de la protection de la propriété intellectuelle. Zimmermann a œuvré sans relâche pour alerter l'opinion publique sur les dangers d'ACTA et le risque que cet accord faisait courir à Internet et aux libertés en ligne. En juillet dernier, après des années de négociations secrètes, ACTA a été rejeté au Parlement européen. Zimmermann agit également sur un nombre incalculable d'autres sujets, dont la liberté d'expression, le droit d'auteur, la régulation des télécommunications, et la protection de la vie privée en ligne. »
Jérémie partage son prix avec tous les bénévoles et les citoyens anonymes qui ont contribué aux victoires de La Quadrature du Net ou ont relayé ses idées et propositions. Des batailles difficiles et des opportunités excitantes pour un Internet libre sont encore devant nous. Vous pouvez aider La Quadrature du Net à être à la hauteur de ses responsabilités dans les années à venir, soit en participant à ses actions, soit en soutenant ses efforts.
";s:7:"dateiso";s:15:"20120920_124756";}s:15:"20120919_110331";a:7:{s:5:"title";s:82:"Les opérateurs dominants partent en guerre contre la neutralité du Net via l'ITU";s:4:"link";s:110:"http://www.laquadrature.net/fr/les-operateurs-dominants-partent-en-guerre-contre-la-neutralite-du-net-via-litu";s:4:"guid";s:35:"6042 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 19 Sep 2012 09:03:31 +0000";s:11:"description";s:26675:"
Depuis plusieurs mois, de nombreux débats ont lieu quant aux menaces suscitées par la tenue prochaine de la Conférence mondiale sur les télécommunications internationales (World Conference on International Telecommunications en anglais, ou « WCIT »). En décembre, les 193 États membres de l'Union Internationale des Télécoms (ITU), une agence de l'Organisation des Nations unies, se réuniront à Dubaï pour cette conférence de premier plan visant à amender les traités fondateurs de l'ITU, les « International Telecommunication Regulations » (« ITRs » ou Régulations Internationales des Télécommunications).
L'ISOC et le Centre pour la démocratie et la technologie (CDT) ont analysé les dangereux amendements proposés par de nombreux pays, qui visent à étendre le mandat de l'ITU à certaines problématiques comme l'adressage et le routage IP ou la coopération en matière de cybercrime, et ainsi saper la gouvernance globale d'Internet1. Si ces amendements sont de très sérieuses sources d'inquiétude, il n'est pas évident qu'ils puissent passer, notamment en raison de l'opposition de plusieurs États membres de l'ITU (en particulier d'Europe et les États-Unis) et d'acteurs de la société civile à une mainmise de l'ITU sur la gouvernance d'Internet.
Une autre proposition a été faite par un acteur européen majeur qui, bien qu'apparemment technique et non liée aux libertés en ligne, aurait des conséquences désastreuses sur la neutralité du Net2. Cette proposition a été détaillée la semaine dernière par ETNO — le lobby représentant les opérateurs télécoms à Bruxelles — dans sa contribution au WCIT. Jusqu'à présent, le législateur, en Europe et au-delà, est resté silencieux, refusant de réagir aux modifications des ITRs proposées par ETNO. Ce silence suggère que les propositions d'ETNO disposent déjà d'un soutien politique clé.
Pour commencer, quelques éléments de contexte. En 2009, l'UE a adopté le « Paquet Télécom », le regroupement de cinq directives européennes régulant le secteur des télécommunications. Les amendements, soutenus par les opérateurs télécoms les plus importants et cherchant à légitimer des restrictions d'accès à Internet, ont alors suscité un intense débat sur la neutralité du Net.
Bien que les législateurs de l'UE aient refusé d'inscrire la neutralité du Net dans la loi, ils ont invalidé les pires de ces amendements. Lors de l'adoption du Paquet Télécom, la Commission européenne s'est même engagée à contrôler la situation et a déclaré que la neutralité du Net serait dorénavant, un « objectif politique »3.
Depuis, les preuves démontrant une extension croissante des restrictions d'accès imposées par les opérateurs télécoms se sont cependant multipliées. De façon inquiétante, seuls les Pays-Bas ont adopté un cadre juridique protégeant la neutralité du Net. Les autres pays semblent attendre que l'UE prenne l'initiative, mais la Commissaire européenne en charge du secteur des télécommunications, Neelie Kroes, s'est jusqu'à présent refusée à agir.
Pendant ce temps, les plus gros opérateurs de l'Union européenne, tels que Vodafone, Deutsch Telekom, Orange, ou Telefonica, ont fait lourdement pression sur les législateurs pour le développement de nouveaux modèles économiques, basés sur la restriction ou la discrimination des communications des utilisateurs qui, contrairement à ce que prétendent ces opérateurs, auraient des conséquences dramatiques sur la neutralité du Net.
Cette situation est devenue très claire début 2010, lorsque le Directeur Général de Telefonica a déclaré4 que :
Les moteurs de recherche sur Internet utilisent notre réseau sans rien payer, ce qui est bon pour eux, mais mauvais pour nous. Il est évident que cette situation doit changer, notre stratégie est de la changer. (traduction par nos soins)
Des déclarations similaires ont été faites par le Directeur Général d'Orange5.
Un tel discours montre clairement que certains opérateurs de télécommunication veulent développer de nouveaux modèles économiques en monétisant les transmissions de données entre les services en ligne et leurs abonnés. L'idée est ici de démontrer que, pour faire face aux épisodes de congestion sur les réseaux actuels (par exemple pour les vidéos de Youtube, dont le chargement est ralenti aux heures de grande utilisation), les opérateurs pourraient fournir un trafic « première classe » (c'est-à-dire priorisé) aux fournisseurs de services qui peuvent le payer. Cette discrimination est appelée une « qualité de service différenciée » et ralentirait par ailleurs inévitablement le reste du trafic. Pour mettre en place cette qualité de service différenciée, les opérateurs négocieraient des « accords d'interconnexion » avec les fournisseurs de services.
Le blanchiment de la politique des opérateurs à travers l'ITU
La seule chose que ces compagnies craignent est d'être empêchées par les législateurs et les régulateurs, dans le cadre du débat sur la neutralité du Net, d'établir de tels modèles économiques. L'adoption récente d'une loi dans ce sens aux Pays-Bas, sous la pression de la société civile, montre que les législateurs peuvent décider de protéger effectivement la neutralité du Net, en mettant en place des règles strictes pour lutter contre les pratiques de discrimination du trafic et réglementer les accords commerciaux.
Cette peur explique pourquoi, en juin dernier, les opérateurs américains AT&T et Verizon ont porté plainte contre l'ARCEP, le régulateur des communications français, après sa décision de collecter des données sur ces « accords d'interconnexion »6. Les opérateurs de télécommunications font fortement pression contre toute forme de régulation dans ce domaine, et ont l'entière attention de la Commission européenne.
À l'instar de l'industrie du divertissement, qui essaie de faire passer des mesures répressives contre le partage de fichiers à travers des accords commerciaux comme ACTA, les opérateurs des télécommunications tentent d'imposer leurs mesures par l'intermédiaire de l'ITU. Leur objectif est de s'assurer que les règles de l'ITU empêcheront les États membres d'exercer un contrôle sur les restrictions imposées par les opérateurs. À cette fin, ETNO propose les amendements suivants aux ITRs :
3.1 (...) Les États Membres doivent faciliter le développement d'interconnexions IP internationales fournissant à la fois un service « best effort » et une qualité du service de bout en bout.
4.4 Les opérateurs doivent coopérer pour le développement d'interconnexions IP internationales fournissant à la fois un service « best effort » et une qualité de service de bout en bout. Le service « best effort » devrait continuer de constituer le fondement du trafic IP international. Rien ne doit empêcher les accords commerciaux avec qualité de service différenciée de se développer. (emphase par nos soins)
D'après ETNO, le traité de base de l'ITU devrait « permettre l'accroissement des revenus grâce à des accords de tarification de la qualité de service de bout en bout et de la valeur des contenus » et autoriser le développement de « nouvelles politiques d'interconnexion basées sur la différenciation des critères de qualité de service pour des services et des types de trafic spécifiques (non uniquement pour les « volumes »). » Ces règles, disent-ils, devraient faire partie de « l'écosystème Internet » (et donc, ne plus s'appliquer uniquement aux « services gérés » ou « services spécialisés » qui résident sur des réseaux IP privés, distincts de l'Internet public), et devraient être décidées entre les opérateurs et les fournisseurs de services en ligne, mettant les régulateurs et les utilisateurs à l'écart du débat une fois pour toutes.
Les dangers de la proposition ETNO
La proposition d'ETNO s'oppose totalement à la neutralité du Net telle qu'elle est généralement définie. En effet, si les cercles politiques peinent à s'accorder sur ce qu'est la neutralité du Net, tous sont d'accords pour affirmer l'importance de ce principe, en le définissant différemment selon leurs affinités avec les options défendues par les opérateurs des télécommunications.
En France, un rapport parlementaire de 2011 souligne à juste titre que la neutralité du Net doit être définie comme :
La capacité pour les utilisateurs d’Internet d’envoyer et de recevoir le contenu de leur choix, d’utiliser les services ou de faire fonctionner les applications de leur choix, de connecter le matériel et d’utiliser les programmes de leur choix, (...) avec une qualité de service transparente, suffisante et non discriminatoire (...). (Emphase par nos soins)
Ce rapport clarifie un élément essentiel : la notion de « qualité de service non discriminatoire » implique qu'un fournisseur d'accès à Internet ne peut établir de « qualité de service différenciée » sur l'Internet public. Selon les parlementaires français :
La notion de non-discrimination peut être interprétée de différentes manières notamment : comme traitement homogène des flux, comme différentiation de la manière dont sont traités des flux en fonction des besoins objectifs des usages qu’ils supportent, ou comme accès non discriminatoire aux différents niveaux de qualité de service. (...) La notion de non-discrimination [est employée ici] dans le sens d’acheminement homogène des flux. (Emphase par nos soins)
Ceci est une définition rigoureuse de la neutralité du Net. Empêcher les opérateurs de mettre en place des qualités de service différenciées est un enjeu d'importance primordiale pour protéger Internet.
Si les propositions d'ETNO étaient adoptées, elles pourraient :
Nuire à la liberté de communication, en empêchant les États membres d'adopter des législations protégeant la neutralité du Net par l'interdiction aux opérateurs de bloquer, ralentir, ou prioriser certains types de contenus, applications ou services, puisque la possibilité de fournir une qualité de service différenciée serait explicitement garantie par l'ITU.
Mettre en péril la vie privée, en permettant la généralisation de l'utilisation de technologies de surveillance invasives, comme le « Deep Packet Inspection ». De telles technologies seraient nécessaires pour identifier les types de trafic spécifiques auxquels appliquer les règles définies dans les accords d'interconnexion, et mettraient de facto en place un système de surveillance global sur de vastes parties d'Internet7.
Freiner l'innovation et la compétition, en favorisant des fournisseurs de services puissants tels que Google, qui seraient en capacité de payer la priorisation de leurs données, tandis que les nouveaux entrants et les acteurs plus faibles seraient désavantagés. Ce changement signifierait la fin du caractère horizontal de l'environnement économique d'Internet.
Réduire l'incitation à investir dans l'amélioration du réseau. Le développement de la congestion augmenterait l'intérêt des accords de différentiation de qualité de service permettant de prioriser une partie du trafic. Les opérateurs seraient ainsi en situation de bénéficier de l’appauvrissement de leur propre bande passante, et seraient donc moins incités à augmenter la capacité de leurs réseaux.
Le WCIT une étape charnière pour la neutralité du Net
Le président d'ETNO, Luigi Gambardella, soutient que cette proposition est inoffensive, et que toute critique à son égard relève « de la désinformation » et de la « propagande ».
Selon lui, les amendements sur la qualité de service différenciée proposés par ETNO ne relèvent que du « choix du consommateur »8 :
Le problème, c'est que nous voulons plus de choix. En dernière instance, le consommateur aura plus de choix. C'est comme voyager en classe économique. Pourquoi ne pourrions-nous aussi autoriser la classe affaire, la classe premium, pour différencier le service ? (traduction par nos soins)
Il est aussi assez explicite sur la manœuvre de blanchiment politique : « Certains États membres pourraient demander l'introduction de nouvelles restrictions sur Internet. Donc, fondamentalement, le paradoxe c'est que notre proposition est d'empêcher certains États membres de réguler plus encore Internet » ... C'est-à-dire de les empêcher de réguler pour interdire aux opérateurs télécoms de casser Internet.
Le fait est que si la proposition d'ETNO pourrait mettre fin à l'Internet tel que nous le connaissons, il faut au moins lui reconnaître un mérite : elle forcera les décideurs européens, en particulier Neelie Kroes, à clarifier leur position. Au cours des derniers mois, la Commissaire européenne chargée de la société numérique a montré un manque de volonté évident à réglementer en la matière, invoquant l'argument fumeux de la « libre concurrence » pour ne pas intervenir. Dans un rapport datant de 2011 sur la neutralité du Net, elle affirmait que les restrictions d'accès à Internet ne posaient pas de problème, et que ces comportement abusifs disparaîtraient d'eux-mêmes sous la pression du marché. Elle a aussi refusé de condamner le projet de certains opérateurs des télécommunications de mettre en place des qualités de service différenciés9. Pour finir, la proposition de la Commission pour la position européenne sur le WCIT prépare le terrain pour le type d'amendements mis en avant par ETNO10.
Il est temps pour Neelie Kroes et le législateur de s'élever contre la proposition d'ETNO, et de protéger le libre accès à l'information des citoyens, ainsi que la libre concurrence et l'innovation en ligne, contre les comportements prédateurs d'opérateurs dominants désireux d’accroître leurs profits.
7. Pour plus d'informations sur le Deep Packet Inspection, lisez « DPI Technology from the standpoint of Internet governance studies: An introduction » http://dpi.ischool.syr.edu/Papers_files/WhatisDPI-2.pdf, Milton Mueller, octobre 2011
10. Ce document propose que l'Union européenne « s'oppose à toute proposition visant à élargir le champ d'application à des domaines tels que l'acheminement du trafic Internet et les questions relatives au contenu ». Si cette position est à première vue rassurante, la Commission propose aussi de «&bsp;soutenir les mesures aptes à favoriser la concurrence et destinées à contribuer à la diminution des tarifs du trafic international des télécommunications, ainsi qu'au renforcement de leur transparence, sur la base de négociations commerciales dans un marché libre et équitable ». Ce deuxième point semble entièrement compatible avec les modifications du traité demandées par ETNO.
";s:7:"content";s:26678:"
Depuis plusieurs mois, de nombreux débats ont lieu quant aux menaces suscitées par la tenue prochaine de la Conférence mondiale sur les télécommunications internationales (World Conference on International Telecommunications en anglais, ou « WCIT »). En décembre, les 193 États membres de l'Union Internationale des Télécoms (ITU), une agence de l'Organisation des Nations unies, se réuniront à Dubaï pour cette conférence de premier plan visant à amender les traités fondateurs de l'ITU, les « International Telecommunication Regulations » (« ITRs » ou Régulations Internationales des Télécommunications).
L'ISOC et le Centre pour la démocratie et la technologie (CDT) ont analysé les dangereux amendements proposés par de nombreux pays, qui visent à étendre le mandat de l'ITU à certaines problématiques comme l'adressage et le routage IP ou la coopération en matière de cybercrime, et ainsi saper la gouvernance globale d'Internet1. Si ces amendements sont de très sérieuses sources d'inquiétude, il n'est pas évident qu'ils puissent passer, notamment en raison de l'opposition de plusieurs États membres de l'ITU (en particulier d'Europe et les États-Unis) et d'acteurs de la société civile à une mainmise de l'ITU sur la gouvernance d'Internet.
Une autre proposition a été faite par un acteur européen majeur qui, bien qu'apparemment technique et non liée aux libertés en ligne, aurait des conséquences désastreuses sur la neutralité du Net2. Cette proposition a été détaillée la semaine dernière par ETNO — le lobby représentant les opérateurs télécoms à Bruxelles — dans sa contribution au WCIT. Jusqu'à présent, le législateur, en Europe et au-delà, est resté silencieux, refusant de réagir aux modifications des ITRs proposées par ETNO. Ce silence suggère que les propositions d'ETNO disposent déjà d'un soutien politique clé.
Pour commencer, quelques éléments de contexte. En 2009, l'UE a adopté le « Paquet Télécom », le regroupement de cinq directives européennes régulant le secteur des télécommunications. Les amendements, soutenus par les opérateurs télécoms les plus importants et cherchant à légitimer des restrictions d'accès à Internet, ont alors suscité un intense débat sur la neutralité du Net.
Bien que les législateurs de l'UE aient refusé d'inscrire la neutralité du Net dans la loi, ils ont invalidé les pires de ces amendements. Lors de l'adoption du Paquet Télécom, la Commission européenne s'est même engagée à contrôler la situation et a déclaré que la neutralité du Net serait dorénavant, un « objectif politique »3.
Depuis, les preuves démontrant une extension croissante des restrictions d'accès imposées par les opérateurs télécoms se sont cependant multipliées. De façon inquiétante, seuls les Pays-Bas ont adopté un cadre juridique protégeant la neutralité du Net. Les autres pays semblent attendre que l'UE prenne l'initiative, mais la Commissaire européenne en charge du secteur des télécommunications, Neelie Kroes, s'est jusqu'à présent refusée à agir.
Pendant ce temps, les plus gros opérateurs de l'Union européenne, tels que Vodafone, Deutsch Telekom, Orange, ou Telefonica, ont fait lourdement pression sur les législateurs pour le développement de nouveaux modèles économiques, basés sur la restriction ou la discrimination des communications des utilisateurs qui, contrairement à ce que prétendent ces opérateurs, auraient des conséquences dramatiques sur la neutralité du Net.
Cette situation est devenue très claire début 2010, lorsque le Directeur Général de Telefonica a déclaré4 que :
Les moteurs de recherche sur Internet utilisent notre réseau sans rien payer, ce qui est bon pour eux, mais mauvais pour nous. Il est évident que cette situation doit changer, notre stratégie est de la changer. (traduction par nos soins)
Des déclarations similaires ont été faites par le Directeur Général d'Orange5.
Un tel discours montre clairement que certains opérateurs de télécommunication veulent développer de nouveaux modèles économiques en monétisant les transmissions de données entre les services en ligne et leurs abonnés. L'idée est ici de démontrer que, pour faire face aux épisodes de congestion sur les réseaux actuels (par exemple pour les vidéos de Youtube, dont le chargement est ralenti aux heures de grande utilisation), les opérateurs pourraient fournir un trafic « première classe » (c'est-à-dire priorisé) aux fournisseurs de services qui peuvent le payer. Cette discrimination est appelée une « qualité de service différenciée » et ralentirait par ailleurs inévitablement le reste du trafic. Pour mettre en place cette qualité de service différenciée, les opérateurs négocieraient des « accords d'interconnexion » avec les fournisseurs de services.
Le blanchiment de la politique des opérateurs à travers l'ITU
La seule chose que ces compagnies craignent est d'être empêchées par les législateurs et les régulateurs, dans le cadre du débat sur la neutralité du Net, d'établir de tels modèles économiques. L'adoption récente d'une loi dans ce sens aux Pays-Bas, sous la pression de la société civile, montre que les législateurs peuvent décider de protéger effectivement la neutralité du Net, en mettant en place des règles strictes pour lutter contre les pratiques de discrimination du trafic et réglementer les accords commerciaux.
Cette peur explique pourquoi, en juin dernier, les opérateurs américains AT&T et Verizon ont porté plainte contre l'ARCEP, le régulateur des communications français, après sa décision de collecter des données sur ces « accords d'interconnexion »6. Les opérateurs de télécommunications font fortement pression contre toute forme de régulation dans ce domaine, et ont l'entière attention de la Commission européenne.
À l'instar de l'industrie du divertissement, qui essaie de faire passer des mesures répressives contre le partage de fichiers à travers des accords commerciaux comme ACTA, les opérateurs des télécommunications tentent d'imposer leurs mesures par l'intermédiaire de l'ITU. Leur objectif est de s'assurer que les règles de l'ITU empêcheront les États membres d'exercer un contrôle sur les restrictions imposées par les opérateurs. À cette fin, ETNO propose les amendements suivants aux ITRs :
3.1 (...) Les États Membres doivent faciliter le développement d'interconnexions IP internationales fournissant à la fois un service « best effort » et une qualité du service de bout en bout.
4.4 Les opérateurs doivent coopérer pour le développement d'interconnexions IP internationales fournissant à la fois un service « best effort » et une qualité de service de bout en bout. Le service « best effort » devrait continuer de constituer le fondement du trafic IP international. Rien ne doit empêcher les accords commerciaux avec qualité de service différenciée de se développer. (emphase par nos soins)
D'après ETNO, le traité de base de l'ITU devrait « permettre l'accroissement des revenus grâce à des accords de tarification de la qualité de service de bout en bout et de la valeur des contenus » et autoriser le développement de « nouvelles politiques d'interconnexion basées sur la différenciation des critères de qualité de service pour des services et des types de trafic spécifiques (non uniquement pour les « volumes »). » Ces règles, disent-ils, devraient faire partie de « l'écosystème Internet » (et donc, ne plus s'appliquer uniquement aux « services gérés » ou « services spécialisés » qui résident sur des réseaux IP privés, distincts de l'Internet public), et devraient être décidées entre les opérateurs et les fournisseurs de services en ligne, mettant les régulateurs et les utilisateurs à l'écart du débat une fois pour toutes.
Les dangers de la proposition ETNO
La proposition d'ETNO s'oppose totalement à la neutralité du Net telle qu'elle est généralement définie. En effet, si les cercles politiques peinent à s'accorder sur ce qu'est la neutralité du Net, tous sont d'accords pour affirmer l'importance de ce principe, en le définissant différemment selon leurs affinités avec les options défendues par les opérateurs des télécommunications.
En France, un rapport parlementaire de 2011 souligne à juste titre que la neutralité du Net doit être définie comme :
La capacité pour les utilisateurs d’Internet d’envoyer et de recevoir le contenu de leur choix, d’utiliser les services ou de faire fonctionner les applications de leur choix, de connecter le matériel et d’utiliser les programmes de leur choix, (...) avec une qualité de service transparente, suffisante et non discriminatoire (...). (Emphase par nos soins)
Ce rapport clarifie un élément essentiel : la notion de « qualité de service non discriminatoire » implique qu'un fournisseur d'accès à Internet ne peut établir de « qualité de service différenciée » sur l'Internet public. Selon les parlementaires français :
La notion de non-discrimination peut être interprétée de différentes manières notamment : comme traitement homogène des flux, comme différentiation de la manière dont sont traités des flux en fonction des besoins objectifs des usages qu’ils supportent, ou comme accès non discriminatoire aux différents niveaux de qualité de service. (...) La notion de non-discrimination [est employée ici] dans le sens d’acheminement homogène des flux. (Emphase par nos soins)
Ceci est une définition rigoureuse de la neutralité du Net. Empêcher les opérateurs de mettre en place des qualités de service différenciées est un enjeu d'importance primordiale pour protéger Internet.
Si les propositions d'ETNO étaient adoptées, elles pourraient :
Nuire à la liberté de communication, en empêchant les États membres d'adopter des législations protégeant la neutralité du Net par l'interdiction aux opérateurs de bloquer, ralentir, ou prioriser certains types de contenus, applications ou services, puisque la possibilité de fournir une qualité de service différenciée serait explicitement garantie par l'ITU.
Mettre en péril la vie privée, en permettant la généralisation de l'utilisation de technologies de surveillance invasives, comme le « Deep Packet Inspection ». De telles technologies seraient nécessaires pour identifier les types de trafic spécifiques auxquels appliquer les règles définies dans les accords d'interconnexion, et mettraient de facto en place un système de surveillance global sur de vastes parties d'Internet7.
Freiner l'innovation et la compétition, en favorisant des fournisseurs de services puissants tels que Google, qui seraient en capacité de payer la priorisation de leurs données, tandis que les nouveaux entrants et les acteurs plus faibles seraient désavantagés. Ce changement signifierait la fin du caractère horizontal de l'environnement économique d'Internet.
Réduire l'incitation à investir dans l'amélioration du réseau. Le développement de la congestion augmenterait l'intérêt des accords de différentiation de qualité de service permettant de prioriser une partie du trafic. Les opérateurs seraient ainsi en situation de bénéficier de l’appauvrissement de leur propre bande passante, et seraient donc moins incités à augmenter la capacité de leurs réseaux.
Le WCIT une étape charnière pour la neutralité du Net
Le président d'ETNO, Luigi Gambardella, soutient que cette proposition est inoffensive, et que toute critique à son égard relève « de la désinformation » et de la « propagande ».
Selon lui, les amendements sur la qualité de service différenciée proposés par ETNO ne relèvent que du « choix du consommateur »8 :
Le problème, c'est que nous voulons plus de choix. En dernière instance, le consommateur aura plus de choix. C'est comme voyager en classe économique. Pourquoi ne pourrions-nous aussi autoriser la classe affaire, la classe premium, pour différencier le service ? (traduction par nos soins)
Il est aussi assez explicite sur la manœuvre de blanchiment politique : « Certains États membres pourraient demander l'introduction de nouvelles restrictions sur Internet. Donc, fondamentalement, le paradoxe c'est que notre proposition est d'empêcher certains États membres de réguler plus encore Internet » ... C'est-à-dire de les empêcher de réguler pour interdire aux opérateurs télécoms de casser Internet.
Le fait est que si la proposition d'ETNO pourrait mettre fin à l'Internet tel que nous le connaissons, il faut au moins lui reconnaître un mérite : elle forcera les décideurs européens, en particulier Neelie Kroes, à clarifier leur position. Au cours des derniers mois, la Commissaire européenne chargée de la société numérique a montré un manque de volonté évident à réglementer en la matière, invoquant l'argument fumeux de la « libre concurrence » pour ne pas intervenir. Dans un rapport datant de 2011 sur la neutralité du Net, elle affirmait que les restrictions d'accès à Internet ne posaient pas de problème, et que ces comportement abusifs disparaîtraient d'eux-mêmes sous la pression du marché. Elle a aussi refusé de condamner le projet de certains opérateurs des télécommunications de mettre en place des qualités de service différenciés9. Pour finir, la proposition de la Commission pour la position européenne sur le WCIT prépare le terrain pour le type d'amendements mis en avant par ETNO10.
Il est temps pour Neelie Kroes et le législateur de s'élever contre la proposition d'ETNO, et de protéger le libre accès à l'information des citoyens, ainsi que la libre concurrence et l'innovation en ligne, contre les comportements prédateurs d'opérateurs dominants désireux d’accroître leurs profits.
7. Pour plus d'informations sur le Deep Packet Inspection, lisez « DPI Technology from the standpoint of Internet governance studies: An introduction » http://dpi.ischool.syr.edu/Papers_files/WhatisDPI-2.pdf, Milton Mueller, octobre 2011
10. Ce document propose que l'Union européenne « s'oppose à toute proposition visant à élargir le champ d'application à des domaines tels que l'acheminement du trafic Internet et les questions relatives au contenu ». Si cette position est à première vue rassurante, la Commission propose aussi de «&bsp;soutenir les mesures aptes à favoriser la concurrence et destinées à contribuer à la diminution des tarifs du trafic international des télécommunications, ainsi qu'au renforcement de leur transparence, sur la base de négociations commerciales dans un marché libre et équitable ». Ce deuxième point semble entièrement compatible avec les modifications du traité demandées par ETNO.
";s:7:"dateiso";s:15:"20120919_110331";}s:15:"20120822_091056";a:7:{s:5:"title";s:80:"Rapprochement Arcep - CSA : le gouvernement sur le chemin de la censure du Net ?";s:4:"link";s:105:"http://www.laquadrature.net/fr/rapprochement-arcep-csa-le-gouvernement-sur-le-chemin-de-la-censure-du-net";s:4:"guid";s:35:"5996 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 22 Aug 2012 07:10:56 +0000";s:11:"description";s:2616:"
Paris, le 22 août 2012 — Le Premier ministre Jean-Marc Ayrault a demandé à trois ministres de réfléchir à un rapprochement entre l'Arcep (Autorité de régulation des communications électroniques et des postes) et le CSA (Conseil supérieur de l'audiovisuel), prenant le chemin d'une régulation incompatible avec le principe fondamental de neutralité du Net. La Quadrature du Net met en garde le gouvernement : réduire Internet à un "service audiovisuel" pour y imposer une régulation administrative ouvrirait la porte à la censure.
En demandant au ministre du Redressement productif (Arnaud Montebourg), à la ministre de la Culture et de la communication (Aurélie Filippetti) et à la ministre déléguée chargée des PME, de l’innovation et de l’économie numérique (Fleur Pellerin), de réfléchir à un rapprochement du CSA et de l'Arcep, le Premier ministre méconnaît le fonctionnement même d'Internet et en particulier le principe de neutralité du Net. Une régulation centralisée d'un réseau décentralisé ne peut pas fonctionner et va dans le sens des politiques répressives du précédent gouvernement, incarnées entre autres par Hadopi.
« La "régulation des contenus" par un acteur centralisé est une approche vouée à l'échec : Internet n'est pas un "service audiovisuel", les "contenus" sont produits aussi bien par des entreprises commerciales que par des individus. Publier des contenus sur Internet représente la liberté d'expression et la participation démocratique de chacun. Imposer qu'Internet soit régulé comme la télévision est un pas de plus vers un contrôle administratif du réseau et vers une censure des communications », déclare Jérémie Zimmermann, porte-parole et co-fondateur de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net met en garde le gouvernement. Au lieu de commettre les mêmes erreurs que ses prédécesseurs en continuant l'escalade répressive contre l'Internet libre, il doit travailler à protéger les libertés fondamentales, notamment en réformant le droit d'auteur et en inscrivant le principe de neutralité du Net dans la loi.
";s:7:"content";s:2616:"
Paris, le 22 août 2012 — Le Premier ministre Jean-Marc Ayrault a demandé à trois ministres de réfléchir à un rapprochement entre l'Arcep (Autorité de régulation des communications électroniques et des postes) et le CSA (Conseil supérieur de l'audiovisuel), prenant le chemin d'une régulation incompatible avec le principe fondamental de neutralité du Net. La Quadrature du Net met en garde le gouvernement : réduire Internet à un "service audiovisuel" pour y imposer une régulation administrative ouvrirait la porte à la censure.
En demandant au ministre du Redressement productif (Arnaud Montebourg), à la ministre de la Culture et de la communication (Aurélie Filippetti) et à la ministre déléguée chargée des PME, de l’innovation et de l’économie numérique (Fleur Pellerin), de réfléchir à un rapprochement du CSA et de l'Arcep, le Premier ministre méconnaît le fonctionnement même d'Internet et en particulier le principe de neutralité du Net. Une régulation centralisée d'un réseau décentralisé ne peut pas fonctionner et va dans le sens des politiques répressives du précédent gouvernement, incarnées entre autres par Hadopi.
« La "régulation des contenus" par un acteur centralisé est une approche vouée à l'échec : Internet n'est pas un "service audiovisuel", les "contenus" sont produits aussi bien par des entreprises commerciales que par des individus. Publier des contenus sur Internet représente la liberté d'expression et la participation démocratique de chacun. Imposer qu'Internet soit régulé comme la télévision est un pas de plus vers un contrôle administratif du réseau et vers une censure des communications », déclare Jérémie Zimmermann, porte-parole et co-fondateur de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net met en garde le gouvernement. Au lieu de commettre les mêmes erreurs que ses prédécesseurs en continuant l'escalade répressive contre l'Internet libre, il doit travailler à protéger les libertés fondamentales, notamment en réformant le droit d'auteur et en inscrivant le principe de neutralité du Net dans la loi.
";s:7:"dateiso";s:15:"20120822_091056";}s:15:"20120802_183338";a:7:{s:5:"title";s:49:"[LeMonde] Passe d'armes sur le bilan de la Hadopi";s:4:"link";s:77:"http://www.laquadrature.net/fr/lemonde-passe-darmes-sur-le-bilan-de-la-hadopi";s:4:"guid";s:35:"5979 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 02 Aug 2012 16:33:38 +0000";s:11:"description";s:1528:"
La ministre de la culture et de la communication, qui a confié une mission à Pierre Lescure, mi-juillet, sur l'adaption des secteurs culturels au numérique, insiste pour que celle-ci réforme la Haute Autorité chargée de lutter contre le téléchargement illégal (Hadopi). Dans un entretien publié sur le site du Nouvel Observateur, mercredi 1er août, Aurélie Filippetti estime que "la Hadopi n'a pas rempli sa mission de développement de l'offre légale" et annonce la réduction des crédits alloués à cette institution. [...]
Philippe Aigrain, chercheur et auteur d'ouvrages sur la création et le numérique, estime, quant à lui, que "les échanges illégaux de fichiers ont diminué, mais au profit d'oligopoles, tels qu'iTunes ou Amazon qui nuisent bien plus à la création". "Le seul vrai contrepoids, c'est le public : la contribution à la diversité culturelle par le partage n'est pas une fiction", conclut ce membre fondateur de la Quadrature du net, qui défend les droits et libertés des citoyens sur Internet.
La ministre de la culture et de la communication, qui a confié une mission à Pierre Lescure, mi-juillet, sur l'adaption des secteurs culturels au numérique, insiste pour que celle-ci réforme la Haute Autorité chargée de lutter contre le téléchargement illégal (Hadopi). Dans un entretien publié sur le site du Nouvel Observateur, mercredi 1er août, Aurélie Filippetti estime que "la Hadopi n'a pas rempli sa mission de développement de l'offre légale" et annonce la réduction des crédits alloués à cette institution. [...]
Philippe Aigrain, chercheur et auteur d'ouvrages sur la création et le numérique, estime, quant à lui, que "les échanges illégaux de fichiers ont diminué, mais au profit d'oligopoles, tels qu'iTunes ou Amazon qui nuisent bien plus à la création". "Le seul vrai contrepoids, c'est le public : la contribution à la diversité culturelle par le partage n'est pas une fiction", conclut ce membre fondateur de la Quadrature du net, qui défend les droits et libertés des citoyens sur Internet.
";s:7:"dateiso";s:15:"20120802_183338";}s:15:"20120730_213905";a:7:{s:5:"title";s:84:"Propositions pour la réforme du droit d'auteur et des politiques culturelles liées";s:4:"link";s:113:"http://www.laquadrature.net/fr/propositions-pour-la-reforme-du-droit-dauteur-et-des-politiques-culturellles-liees";s:4:"guid";s:35:"5974 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 30 Jul 2012 19:39:05 +0000";s:11:"description";s:2074:"
Après le rejet du traité ACTA par le parlement européen, une période s'ouvre dans laquelle il sera possible, si nous nous en donnons les moyens, d'installer un nouveau cadre réglementaire et politique pour l'ère numérique. Un grand nombre de citoyens et de députés européens adhèrent au projet de réformer le droit d'auteur et le copyright. Le but de cette réforme est que chacun d'entre nous puisse tirer tous les bénéfices de l'ère numérique qu'il s'agisse de s'engager dans des activités créatives ou d'expression publique, ou d'en partager les produits. Dans les mois et années qui viennent, les questions clés seront : quels sont les vrais défis de cette réforme ? Comment y faire face ?
La Quadrature du Net publie aujourd'hui une plateforme de propositions pour la réforme du droit d'auteur et des politiques culturelles liées, disponible en français et anglais. Ce texte fournit une analyse des principaux enjeux et un ensemble cohérent de propositions. Ces propositions portent sur la réforme du droit d'auteur et du copyright, mais aussi sur les politiques liées en matière de culture et de médias. Ces éléments pourront être utilisés par les acteurs qui portent des réformes selon leurs propres orientations. On prendra garde cependant à l'interdépendance entre les diverses propositions. Le texte a été rédigé par Philippe Aigrain et a bénéficié des contributions de Lionel Maurel et Silvère Mercier et de la relecture critique des animateurs de La Quadrature du Net. Il est publié en parallèle sur le blog de l'auteur et sur le site de La Quadrature du Net.
";s:7:"content";s:2074:"
Après le rejet du traité ACTA par le parlement européen, une période s'ouvre dans laquelle il sera possible, si nous nous en donnons les moyens, d'installer un nouveau cadre réglementaire et politique pour l'ère numérique. Un grand nombre de citoyens et de députés européens adhèrent au projet de réformer le droit d'auteur et le copyright. Le but de cette réforme est que chacun d'entre nous puisse tirer tous les bénéfices de l'ère numérique qu'il s'agisse de s'engager dans des activités créatives ou d'expression publique, ou d'en partager les produits. Dans les mois et années qui viennent, les questions clés seront : quels sont les vrais défis de cette réforme ? Comment y faire face ?
La Quadrature du Net publie aujourd'hui une plateforme de propositions pour la réforme du droit d'auteur et des politiques culturelles liées, disponible en français et anglais. Ce texte fournit une analyse des principaux enjeux et un ensemble cohérent de propositions. Ces propositions portent sur la réforme du droit d'auteur et du copyright, mais aussi sur les politiques liées en matière de culture et de médias. Ces éléments pourront être utilisés par les acteurs qui portent des réformes selon leurs propres orientations. On prendra garde cependant à l'interdépendance entre les diverses propositions. Le texte a été rédigé par Philippe Aigrain et a bénéficié des contributions de Lionel Maurel et Silvère Mercier et de la relecture critique des animateurs de La Quadrature du Net. Il est publié en parallèle sur le blog de l'auteur et sur le site de La Quadrature du Net.
";s:7:"dateiso";s:15:"20120730_213905";}s:15:"20120710_134604";a:7:{s:5:"title";s:48:"CETA, le zombie d'ACTA, doit subir le même sort";s:4:"link";s:75:"http://www.laquadrature.net/fr/ceta-le-zombie-dacta-doit-subir-le-meme-sort";s:4:"guid";s:35:"5926 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 10 Jul 2012 11:46:04 +0000";s:11:"description";s:3436:"
Paris, 10 juillet 2012 — Une version fuitée de l'Accord Commercial Canada - UE (CETA) contient les pires passages d'ACTA. La Commission européenne tente une fois encore de court-circuiter le processus démocratique et d'imposer une brutale répression des communications en ligne. Le Commissaire De Gucht ne peut pas ignorer la décision du Parlement européen sur ACTA. CETA doit être abandonné (ou les parties répressives issues d'ACTA retirées), ou il connaîtra le même sort qu'ACTA au Parlement.
D'après une fuite des négociations de CETA (Accord commercial Canada - UE) datée de février 2012, la Commission européenne tenterait d'imposer exactement les mêmes clauses qui ont été rejetées la semaine dernière par le Parlement européen, lors du vote sur ACTA. CETA reproduit littéralement les pires passages d'ACTA, en particulier ceux se rapportant aux obligations générales de mise en application, dommages, injonctions, contournement des systèmes DRM, et mesures de contrôle aux frontières1. Le pire et le plus dangereux pour nos libertés en ligne, les sanctions pénales et la responsabilité des intermédiaires techniques, sont mot pour mot identiques dans ACTA et CETA.
En cohérence avec le vote de la semaine dernière, la Commission européenne doit abandonner les négociations de CETA (ou en effacer toutes les dispositions relatives au droit d'auteur), ou sera à nouveau humiliée lorsque le Parlement européen devra voter sur CETA.
« Le Commissaire de Gutch, responsable de la débâcle d'ACTA et pour CETA, ne peut pas continuer d'ignorer la volonté des citoyens européens, exprimée lors du rejet d'ACTA, par l'intermédiaire du Parlement. Ce qui a déjà été refusé ne devient pas acceptable simplement en changeant d'emballage. Cette manœuvre pour faire revenir ACTA par la petite porte démontre, en accord avec les déclarations de De Gutch après le vote du 4 juillet, qu'il n'a aucune considération pour les citoyens et le Parlement, et n'est que le jouet des lobbies des industries du copyright. Nous devons vaincre CETA comme nous avons vaincu ACTA », déclare Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Le Parlement européen doit assumer ses responsabilités et rappeler à la Commission que son vote contre le fond et la forme controversés d'ACTA s'applique à tous les autres accords commerciaux négociés au nom de l'UE.
Paris, 10 juillet 2012 — Une version fuitée de l'Accord Commercial Canada - UE (CETA) contient les pires passages d'ACTA. La Commission européenne tente une fois encore de court-circuiter le processus démocratique et d'imposer une brutale répression des communications en ligne. Le Commissaire De Gucht ne peut pas ignorer la décision du Parlement européen sur ACTA. CETA doit être abandonné (ou les parties répressives issues d'ACTA retirées), ou il connaîtra le même sort qu'ACTA au Parlement.
D'après une fuite des négociations de CETA (Accord commercial Canada - UE) datée de février 2012, la Commission européenne tenterait d'imposer exactement les mêmes clauses qui ont été rejetées la semaine dernière par le Parlement européen, lors du vote sur ACTA. CETA reproduit littéralement les pires passages d'ACTA, en particulier ceux se rapportant aux obligations générales de mise en application, dommages, injonctions, contournement des systèmes DRM, et mesures de contrôle aux frontières1. Le pire et le plus dangereux pour nos libertés en ligne, les sanctions pénales et la responsabilité des intermédiaires techniques, sont mot pour mot identiques dans ACTA et CETA.
En cohérence avec le vote de la semaine dernière, la Commission européenne doit abandonner les négociations de CETA (ou en effacer toutes les dispositions relatives au droit d'auteur), ou sera à nouveau humiliée lorsque le Parlement européen devra voter sur CETA.
« Le Commissaire de Gutch, responsable de la débâcle d'ACTA et pour CETA, ne peut pas continuer d'ignorer la volonté des citoyens européens, exprimée lors du rejet d'ACTA, par l'intermédiaire du Parlement. Ce qui a déjà été refusé ne devient pas acceptable simplement en changeant d'emballage. Cette manœuvre pour faire revenir ACTA par la petite porte démontre, en accord avec les déclarations de De Gutch après le vote du 4 juillet, qu'il n'a aucune considération pour les citoyens et le Parlement, et n'est que le jouet des lobbies des industries du copyright. Nous devons vaincre CETA comme nous avons vaincu ACTA », déclare Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Le Parlement européen doit assumer ses responsabilités et rappeler à la Commission que son vote contre le fond et la forme controversés d'ACTA s'applique à tous les autres accords commerciaux négociés au nom de l'UE.
";s:7:"dateiso";s:15:"20120710_134604";}s:15:"20120704_122219";a:7:{s:5:"title";s:60:"ACTA : Victoire totale pour les citoyens et la démocratie !";s:4:"link";s:86:"http://www.laquadrature.net/fr/acta-victoire-totale-pour-les-citoyens-et-la-democratie";s:4:"guid";s:35:"5889 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 04 Jul 2012 10:22:19 +0000";s:11:"description";s:3894:"
Strasbourg, 4 juillet 2012 – Le Parlement européen a rejeté ACTA1 par une large majorité, le détruisant définitivement. Ce rejet constitue une victoire majeure pour la multitude de citoyens et d'organisations connectés qui ont travaillé dur pendant plusieurs années, mais aussi un espoir d'ampleur globale pour une meilleure démocratie. Sur les ruines d'ACTA, nous devons désormais bâtir une réforme positive du droit d'auteur, qui devra prendre en compte nos droits plutôt que les combattre. La victoire contre ACTA doit retentir comme un avertissement pour les législateurs : les libertés fondamentales et l'Internet libre et ouvert doivent prévaloir sur les intérêts privés.
Les citoyens de l'Internet et du monde entier ont gagné ! Par 478 voix contre 392 lors du vote final, les membres du Parlement européen ont tué ACTA une fois pour toutes. Ensemble, connectés au travers d'un réseau de communication décentralisé, nous avons mis en échec ce traité dangereux, négocié en secret par un club d'intérêts privés et de fonctionnaires dogmatiques. La bataille contre ACTA a prouvé à quel point la sphère publique en réseau est devenue cruciale pour l'avenir de nos sociétés et de nos démocraties.
Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature du Net, déclare : « Les institutions européennes doivent reconnaître que l'alliance entre les citoyens, les organisations de la société civile et le Parlement européen est au fondement d'une nouvelle ère démocratique en Europe. Les politiques européennes du droit d'auteur doivent désormais être élaborées avec la participation des citoyens ».
La Quadrature du Net tient à remercier chaleureusement et à féliciter tous les citoyens, organisations ou réseaux qui ont œuvré collectivement à cette victoire ! Fêtons-la dignement et tâchons de tirer les leçons de ce succès, afin d'être encore plus forts lors des prochaines batailles !
« Au-delà d'ACTA, nous devons mettre un terme à l'escalade répressive imposant des dispositifs qui mettent à mal Internet et les libertés fondamentales. Les citoyens doivent exiger une réforme positive du droit d'auteur qui permettra d'encourager les pratiques culturelles en ligne, telles que le partage et le remix, plutôt que de les réprimer. La victoire contre ACTA doit marquer le début d'une nouvelle ère dans laquelle les décideurs publics font passer les libertés et l'Internet libre - notre bien commun - avant les intérêts privés » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
<3
1. ACTA, l'accord commercial anti contrefaçon, négocié en secret et imposant de sévères mesures répressives. Voir https://www.laquadrature.net/ACTA
Strasbourg, 4 juillet 2012 – Le Parlement européen a rejeté ACTA1 par une large majorité, le détruisant définitivement. Ce rejet constitue une victoire majeure pour la multitude de citoyens et d'organisations connectés qui ont travaillé dur pendant plusieurs années, mais aussi un espoir d'ampleur globale pour une meilleure démocratie. Sur les ruines d'ACTA, nous devons désormais bâtir une réforme positive du droit d'auteur, qui devra prendre en compte nos droits plutôt que les combattre. La victoire contre ACTA doit retentir comme un avertissement pour les législateurs : les libertés fondamentales et l'Internet libre et ouvert doivent prévaloir sur les intérêts privés.
Les citoyens de l'Internet et du monde entier ont gagné ! Par 478 voix contre 392 lors du vote final, les membres du Parlement européen ont tué ACTA une fois pour toutes. Ensemble, connectés au travers d'un réseau de communication décentralisé, nous avons mis en échec ce traité dangereux, négocié en secret par un club d'intérêts privés et de fonctionnaires dogmatiques. La bataille contre ACTA a prouvé à quel point la sphère publique en réseau est devenue cruciale pour l'avenir de nos sociétés et de nos démocraties.
Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature du Net, déclare : « Les institutions européennes doivent reconnaître que l'alliance entre les citoyens, les organisations de la société civile et le Parlement européen est au fondement d'une nouvelle ère démocratique en Europe. Les politiques européennes du droit d'auteur doivent désormais être élaborées avec la participation des citoyens ».
La Quadrature du Net tient à remercier chaleureusement et à féliciter tous les citoyens, organisations ou réseaux qui ont œuvré collectivement à cette victoire ! Fêtons-la dignement et tâchons de tirer les leçons de ce succès, afin d'être encore plus forts lors des prochaines batailles !
« Au-delà d'ACTA, nous devons mettre un terme à l'escalade répressive imposant des dispositifs qui mettent à mal Internet et les libertés fondamentales. Les citoyens doivent exiger une réforme positive du droit d'auteur qui permettra d'encourager les pratiques culturelles en ligne, telles que le partage et le remix, plutôt que de les réprimer. La victoire contre ACTA doit marquer le début d'une nouvelle ère dans laquelle les décideurs publics font passer les libertés et l'Internet libre - notre bien commun - avant les intérêts privés » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
<3
1. ACTA, l'accord commercial anti contrefaçon, négocié en secret et imposant de sévères mesures répressives. Voir https://www.laquadrature.net/ACTA
";s:7:"dateiso";s:15:"20120704_122219";}s:15:"20120703_131357";a:7:{s:5:"title";s:70:"Nous voulons partager des livres, de la musique, des films avec vous !";s:4:"link";s:97:"http://www.laquadrature.net/fr/nous-voulons-partager-des-livres-de-la-musique-des-films-avec-vous";s:4:"guid";s:35:"5882 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 03 Jul 2012 11:13:57 +0000";s:11:"description";s:21123:"
La Quadrature du Net a souhaité partager des œuvres avec les membres du Parlement européen et leurs assistants, avant le vote sur ACTA, afin de leur montrer l'urgente nécessité de réformer le droit d'auteur. Certaines de ces œuvres ont pour simple but de divertir, d'autres de transmettre la connaissance ou d'enrichir le débat public. Toutes innovent par leur contenu, leur mode de distribution, leur modèle économique et les relations entre les auteurs, les contributeurs et les utilisateurs. Chaque citoyen peut en faire autant, et partager une partie de la culture numérique avec ses représentants !
Dear Member of the European Parliament,
Dear Parliamentary assistant,
Dear Citizen,
We, citizens from the Internet, felt the urge to share with you these pieces of the digital culture we are building everyday through the free, open, neutral and therefore universal Internet.
You will find a collection of music, movies, and books dear to our heart and created with the same passion (we call it "Datalove"!) of sharing and reusing cultural works, and promoting such practices. This is the way culture is made!
We hope these works will help you understand that beyond voting NO to ACTA, it is urgent that the cultural practices enabled by digital technologies be encouraged through a deep positive reform of copyright, rather than repressed.
"Everyone has the right freely to participate in the cultural life of the community, to enjoy the arts and to share in scientific advancement and its benefits." - Article 27.1, Universal Declaration of Human Rights.
Happy viewing, listening, reading... and remixing!
An in-depth exploration of digital culture and its dissemination, "Sharing" (released in 2012) offers a counterpoint to the dominant view that file sharing is piracy. Instead, Philippe Aigrain looks at the benefits of file sharing, which allows unknown writers and artists to be appreciated more easily. Concentrating not only on the cultural enrichment caused by widely shared digital media, Sharing also discusses new financing models that would allow works to be shared freely by individuals without aim at profit. Source : http://www.sharing-thebook.com/
In computer science, "code" typically refers to the text of a computer program (the source code). In law, "code" can refer to the texts that constitute statutory law. In his book "Code and Other Laws of Cyberspace", Lawrence Lessig, a Harvard law professor, explores the ways in which code in both senses can be instruments for social control, leading to his dictum that "Code is law." This book, released in 2000, is especially relevant to understand how technical regulation of the Internet can lead to undermining rights and freedoms online.
"The Future of Ideas" is a continuation of his previous book Code and Other Laws of Cyberspace, which is about how computer programs can restrict freedom of ideas in cyberspace. While copyright helps artists get rewarded for their work, Lessig warns that a copyright regime that is too strict and grants copyright for too long a period of time (e.g. the current US legal climate) can destroy innovation, as the future always builds on the past. Lessig also discusses recent movements by corporate interests to promote longer and tighter protection of intellectual property in three layers: the code layer, the content layer, and the physical layer.
(version fr)
In "Free Culture", Lessig masterfully argues that never before in human history has the power to control creative progress been so concentrated in the hands of the powerful few, the so-called Big Media. Never before have the cultural powers- that-be been able to exert such control over what we can and can’t do with the culture around us. Our society defends free markets and free speech; why then does it permit such top-down control? To lose our long tradition of free culture, Lawrence Lessig shows us, is to lose our freedom to create, our freedom to build, and, ultimately, our freedom to imagine.. Free Culture was released in 2005 and remains a landmark piece for the copyright reform movement.
In "Remix" (released in 2008) Lawrence Lessig, a Harvard law professor and a respected voice in what he deems the "copyright wars", describes the disjuncture between the availability and relative simplicity of remix technologies and copyright law. Lessig insists that copyright law as it stands now is antiquated for digital media since every "time you use a creative work in a digital context, the technology is making a copy". Thus, amateur use and appropriation of digital technology is under unprecedented control that previously extended only to professional use.
With the radical changes in information production that the Internet has introduced, we stand at an important moment of transition, says Yochai Benkler in this ground-breaking book released in 2006. The phenomenon he describes as social production is reshaping markets, while at the same time offering new opportunities to enhance individual freedom, cultural diversity, political discourse, and justice. But these results are by no means inevitable: a systematic campaign to protect the entrenched industrial information economy of the last century threatens the promise of today’s emerging networked information environment.In this comprehensive social theory of the Internet and the networked information economy, Benkler describes how patterns of information, knowledge, and cultural production are changing—and shows that the way information and knowledge are made available can either limit or enlarge the ways people can create and express themselves. He describes the range of legal and policy choices that confront us and maintains that there is much to be gained—or lost—by the decisions we make today.
The Free Culture Forum was first organised as an international encounter on free culture and free knowledge that took place in Barcelona from October 30th to November 1st 2009. During the Forum more than a hundred organisations and individuals from all continents active in free culture worked together to produce a common declaration, or charter. The Forum ended up with a first version of the "Charter for Innovation, Creativity and Access to Knowledge". The present document is the interpretation of the Charter from the perspective of Free Knowledge. Note that this is work in progress.
We can no longer put off re-thinking the economic structures that have been producing, financing and funding culture up until now. Many of the old models have become anachronistic and detrimental to civil society. The aim of this document, first released in 2010, is to promote innovative strategies to defend and extend the sphere in which human creativity and knowledge can prosper freely and sustainably. This "How-To" is addressed to policy reformers, citizens and free/libre culture activists to provide them practical tools to actively operate this change.
During the MIDEM 2011, HADOPI presented its own study showing in page 45 that people who download the most are those are the cultural industries' best customers.
In its answer to a EU Commission's consultation on "creative content", La Quadrature calls on the EU to reconsider the EU's coercive and repressive copyright policies, while encouraging it to match words to deeds by fostering the rights of the public in the digital creative ecosystem. The document gives a hint of what should be done to start reforming copyright: repeal liberty-killer repressive schemes and Internet filtering; ban techincal restriction measures; shorten copyright terms; make the existing exceptions to copyright mandatory EU-wide; create new exceptions for not-for-profit sharing and re-use of cultural works, and give room to the development of new funding models
Movies
"RiP!: A Remix Manifesto" is a 2008 open source documentary film about "the changing concept of copyright" directed by Brett Gaylor.
Created over a period of six years, the documentary film features the collaborative remix work of hundreds of people who have contributed to the Open Source Cinema website, helping to create the "world's first open source documentary" as Gaylor put it. The project's working title was Basement Tapes, (referring to the album of the same name) but it was renamed RiP!: A Remix Manifesto prior to theatrical release. Gaylor encourages more people to create their own remixes from this movie, using media available from the Open Source Cinema website, or other websites like YouTube, Flickr, Hulu, or MySpace.
"Steal This Film" is a film series documenting the movement against intellectual property produced by The League of Noble Peers and released via the BitTorrent peer-to-peer protocol. Part One, shot in Sweden and released in August 2006, combines accounts from prominent players in the Swedish piracy culture (The Pirate Bay, Piratbyrån, and the Pirate Party) with found material, propaganda-like slogans and Vox Pops.
Nina Paley is an award-winning independent cartoonist and animator for her "Sita sings the blues" video. "Copying is not Theft", released in 2009, advocates to reconsider the act of copying in a new light, stressing the importance of copying for creativity, innovation and free speech.
"Star Wars Uncut" is a 2010 fan film remake of Star Wars Episode IV: A New Hope. It is a shot-for-shot recreation of the "Special Edition" version of the film made from 473 fifteen-second segments created and submitted from a variety of participants. The full film was made available on the Internet in August 2010 and can be watched for free. The project was conceived by Casey Pugh, a Web developer who was 25 at the time of the release.
"Can I Get An Amen?" is a 2004 audio installation that unfolds a critical perspective of perhaps the most sampled drum beat in the history of recorded music, "the Amen Break". It begins with the pop track "Amen Brother" by 60's soul band The Winstons, and traces the transformation of their drum solo from its original context as part of a 'B' side vinyl single into its use as a key aural ingredient in contemporary cultural expression. The work attempts to bring into scrutiny the techno-utopian notion that 'information wants to be free'- it questions its effectiveness as a democratizing agent. This as well as other issues are foregrounded through a history of the Amen Break and its peculiar relationship to current copyright law.
"The Grey Album" is a mashup album by Danger Mouse, released in 2004. It uses an a cappella version of rapper Jay-Z's The Black Album and couples it with instrumentals created from a multitude of unauthorized samples from The Beatles' LP The Beatles (more commonly known as The White Album). The Grey Album gained notoriety due to the response by EMI in attempting to halt its distribution, despite the fact that both Jay-Z and Paul McCartney said they felt fine with the project.
This is Mash-up mastermind Girl Talk's (real name: Gregg Gillis)'s fourth sample-heavy album. This 12-track compilation features nearly 400 samples of artists from Beck to the Beastie Boys, Radiohead to Portishead, the Arcade Fire to Alicia Key. "All Day", released in 2010, consists entirely of musical samples from other artists’ songs, often bringing together completely different musical genres side by side in harmony.
"Feed the Animals" was released on Illegal Art in 2008. It is composed almost entirely of sample taken from other artists' songs, plus minor original instrumentation by Girl Talk. Gillis stated that the album was created as one long piece of music and then subsequently broken into individual songs
Girl Talk detonates the notions of mash-up on his third album, the violently joyous "Night Ripper", released in 2006. Rather than squeeze two songs that sorta make sense together into a small box, Gillis crams six or eight or 14 or 20 songs into frenetic rows, slicing fragments off 1980s pop, Dirty South rap, booty bass, and grunge, among countless other genres. Then he pieces together the voracious music fan's dream: a hulking hyper-mix designed to make you dance, wear out predictable ideas, and defy hopeless record-reviewing (Source: Pitchfork).
Steinski’s "Rough Mix" (released in 2011) bursts with songs and artists discussed within Kembrew McLeod & Peter DiCola’s book "Creative License: The Law and Culture of Digital Sampling" (published in April 2011 by Duke University Press). It features hundreds of songs and samples mashed together by Steinski, the sonic cut-and-paste artist best known for a hugely influential series of early-1980s twelve-inch singles popularly known as “The Lessons.” Peppered throughout the mix are soundbites from McLeod’s co-produced documentary Copyright Criminals
";s:7:"content";s:21123:"
La Quadrature du Net a souhaité partager des œuvres avec les membres du Parlement européen et leurs assistants, avant le vote sur ACTA, afin de leur montrer l'urgente nécessité de réformer le droit d'auteur. Certaines de ces œuvres ont pour simple but de divertir, d'autres de transmettre la connaissance ou d'enrichir le débat public. Toutes innovent par leur contenu, leur mode de distribution, leur modèle économique et les relations entre les auteurs, les contributeurs et les utilisateurs. Chaque citoyen peut en faire autant, et partager une partie de la culture numérique avec ses représentants !
Dear Member of the European Parliament,
Dear Parliamentary assistant,
Dear Citizen,
We, citizens from the Internet, felt the urge to share with you these pieces of the digital culture we are building everyday through the free, open, neutral and therefore universal Internet.
You will find a collection of music, movies, and books dear to our heart and created with the same passion (we call it "Datalove"!) of sharing and reusing cultural works, and promoting such practices. This is the way culture is made!
We hope these works will help you understand that beyond voting NO to ACTA, it is urgent that the cultural practices enabled by digital technologies be encouraged through a deep positive reform of copyright, rather than repressed.
"Everyone has the right freely to participate in the cultural life of the community, to enjoy the arts and to share in scientific advancement and its benefits." - Article 27.1, Universal Declaration of Human Rights.
Happy viewing, listening, reading... and remixing!
An in-depth exploration of digital culture and its dissemination, "Sharing" (released in 2012) offers a counterpoint to the dominant view that file sharing is piracy. Instead, Philippe Aigrain looks at the benefits of file sharing, which allows unknown writers and artists to be appreciated more easily. Concentrating not only on the cultural enrichment caused by widely shared digital media, Sharing also discusses new financing models that would allow works to be shared freely by individuals without aim at profit. Source : http://www.sharing-thebook.com/
In computer science, "code" typically refers to the text of a computer program (the source code). In law, "code" can refer to the texts that constitute statutory law. In his book "Code and Other Laws of Cyberspace", Lawrence Lessig, a Harvard law professor, explores the ways in which code in both senses can be instruments for social control, leading to his dictum that "Code is law." This book, released in 2000, is especially relevant to understand how technical regulation of the Internet can lead to undermining rights and freedoms online.
"The Future of Ideas" is a continuation of his previous book Code and Other Laws of Cyberspace, which is about how computer programs can restrict freedom of ideas in cyberspace. While copyright helps artists get rewarded for their work, Lessig warns that a copyright regime that is too strict and grants copyright for too long a period of time (e.g. the current US legal climate) can destroy innovation, as the future always builds on the past. Lessig also discusses recent movements by corporate interests to promote longer and tighter protection of intellectual property in three layers: the code layer, the content layer, and the physical layer.
(version fr)
In "Free Culture", Lessig masterfully argues that never before in human history has the power to control creative progress been so concentrated in the hands of the powerful few, the so-called Big Media. Never before have the cultural powers- that-be been able to exert such control over what we can and can’t do with the culture around us. Our society defends free markets and free speech; why then does it permit such top-down control? To lose our long tradition of free culture, Lawrence Lessig shows us, is to lose our freedom to create, our freedom to build, and, ultimately, our freedom to imagine.. Free Culture was released in 2005 and remains a landmark piece for the copyright reform movement.
In "Remix" (released in 2008) Lawrence Lessig, a Harvard law professor and a respected voice in what he deems the "copyright wars", describes the disjuncture between the availability and relative simplicity of remix technologies and copyright law. Lessig insists that copyright law as it stands now is antiquated for digital media since every "time you use a creative work in a digital context, the technology is making a copy". Thus, amateur use and appropriation of digital technology is under unprecedented control that previously extended only to professional use.
With the radical changes in information production that the Internet has introduced, we stand at an important moment of transition, says Yochai Benkler in this ground-breaking book released in 2006. The phenomenon he describes as social production is reshaping markets, while at the same time offering new opportunities to enhance individual freedom, cultural diversity, political discourse, and justice. But these results are by no means inevitable: a systematic campaign to protect the entrenched industrial information economy of the last century threatens the promise of today’s emerging networked information environment.In this comprehensive social theory of the Internet and the networked information economy, Benkler describes how patterns of information, knowledge, and cultural production are changing—and shows that the way information and knowledge are made available can either limit or enlarge the ways people can create and express themselves. He describes the range of legal and policy choices that confront us and maintains that there is much to be gained—or lost—by the decisions we make today.
The Free Culture Forum was first organised as an international encounter on free culture and free knowledge that took place in Barcelona from October 30th to November 1st 2009. During the Forum more than a hundred organisations and individuals from all continents active in free culture worked together to produce a common declaration, or charter. The Forum ended up with a first version of the "Charter for Innovation, Creativity and Access to Knowledge". The present document is the interpretation of the Charter from the perspective of Free Knowledge. Note that this is work in progress.
We can no longer put off re-thinking the economic structures that have been producing, financing and funding culture up until now. Many of the old models have become anachronistic and detrimental to civil society. The aim of this document, first released in 2010, is to promote innovative strategies to defend and extend the sphere in which human creativity and knowledge can prosper freely and sustainably. This "How-To" is addressed to policy reformers, citizens and free/libre culture activists to provide them practical tools to actively operate this change.
During the MIDEM 2011, HADOPI presented its own study showing in page 45 that people who download the most are those are the cultural industries' best customers.
In its answer to a EU Commission's consultation on "creative content", La Quadrature calls on the EU to reconsider the EU's coercive and repressive copyright policies, while encouraging it to match words to deeds by fostering the rights of the public in the digital creative ecosystem. The document gives a hint of what should be done to start reforming copyright: repeal liberty-killer repressive schemes and Internet filtering; ban techincal restriction measures; shorten copyright terms; make the existing exceptions to copyright mandatory EU-wide; create new exceptions for not-for-profit sharing and re-use of cultural works, and give room to the development of new funding models
Movies
"RiP!: A Remix Manifesto" is a 2008 open source documentary film about "the changing concept of copyright" directed by Brett Gaylor.
Created over a period of six years, the documentary film features the collaborative remix work of hundreds of people who have contributed to the Open Source Cinema website, helping to create the "world's first open source documentary" as Gaylor put it. The project's working title was Basement Tapes, (referring to the album of the same name) but it was renamed RiP!: A Remix Manifesto prior to theatrical release. Gaylor encourages more people to create their own remixes from this movie, using media available from the Open Source Cinema website, or other websites like YouTube, Flickr, Hulu, or MySpace.
"Steal This Film" is a film series documenting the movement against intellectual property produced by The League of Noble Peers and released via the BitTorrent peer-to-peer protocol. Part One, shot in Sweden and released in August 2006, combines accounts from prominent players in the Swedish piracy culture (The Pirate Bay, Piratbyrån, and the Pirate Party) with found material, propaganda-like slogans and Vox Pops.
Nina Paley is an award-winning independent cartoonist and animator for her "Sita sings the blues" video. "Copying is not Theft", released in 2009, advocates to reconsider the act of copying in a new light, stressing the importance of copying for creativity, innovation and free speech.
"Star Wars Uncut" is a 2010 fan film remake of Star Wars Episode IV: A New Hope. It is a shot-for-shot recreation of the "Special Edition" version of the film made from 473 fifteen-second segments created and submitted from a variety of participants. The full film was made available on the Internet in August 2010 and can be watched for free. The project was conceived by Casey Pugh, a Web developer who was 25 at the time of the release.
"Can I Get An Amen?" is a 2004 audio installation that unfolds a critical perspective of perhaps the most sampled drum beat in the history of recorded music, "the Amen Break". It begins with the pop track "Amen Brother" by 60's soul band The Winstons, and traces the transformation of their drum solo from its original context as part of a 'B' side vinyl single into its use as a key aural ingredient in contemporary cultural expression. The work attempts to bring into scrutiny the techno-utopian notion that 'information wants to be free'- it questions its effectiveness as a democratizing agent. This as well as other issues are foregrounded through a history of the Amen Break and its peculiar relationship to current copyright law.
"The Grey Album" is a mashup album by Danger Mouse, released in 2004. It uses an a cappella version of rapper Jay-Z's The Black Album and couples it with instrumentals created from a multitude of unauthorized samples from The Beatles' LP The Beatles (more commonly known as The White Album). The Grey Album gained notoriety due to the response by EMI in attempting to halt its distribution, despite the fact that both Jay-Z and Paul McCartney said they felt fine with the project.
This is Mash-up mastermind Girl Talk's (real name: Gregg Gillis)'s fourth sample-heavy album. This 12-track compilation features nearly 400 samples of artists from Beck to the Beastie Boys, Radiohead to Portishead, the Arcade Fire to Alicia Key. "All Day", released in 2010, consists entirely of musical samples from other artists’ songs, often bringing together completely different musical genres side by side in harmony.
"Feed the Animals" was released on Illegal Art in 2008. It is composed almost entirely of sample taken from other artists' songs, plus minor original instrumentation by Girl Talk. Gillis stated that the album was created as one long piece of music and then subsequently broken into individual songs
Girl Talk detonates the notions of mash-up on his third album, the violently joyous "Night Ripper", released in 2006. Rather than squeeze two songs that sorta make sense together into a small box, Gillis crams six or eight or 14 or 20 songs into frenetic rows, slicing fragments off 1980s pop, Dirty South rap, booty bass, and grunge, among countless other genres. Then he pieces together the voracious music fan's dream: a hulking hyper-mix designed to make you dance, wear out predictable ideas, and defy hopeless record-reviewing (Source: Pitchfork).
Steinski’s "Rough Mix" (released in 2011) bursts with songs and artists discussed within Kembrew McLeod & Peter DiCola’s book "Creative License: The Law and Culture of Digital Sampling" (published in April 2011 by Duke University Press). It features hundreds of songs and samples mashed together by Steinski, the sonic cut-and-paste artist best known for a hugely influential series of early-1980s twelve-inch singles popularly known as “The Lessons.” Peppered throughout the mix are soundbites from McLeod’s co-produced documentary Copyright Criminals
";s:7:"dateiso";s:15:"20120703_131357";}s:15:"20120702_124818";a:7:{s:5:"title";s:62:"Finissons-en avec ACTA ! L'UE doit protéger nos biens communs";s:4:"link";s:89:"http://www.laquadrature.net/fr/finissons-en-avec-acta-lue-doit-proteger-nos-biens-communs";s:4:"guid";s:35:"5878 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 02 Jul 2012 10:48:18 +0000";s:11:"description";s:9380:"
ACTA menace les libertés fondamentales en ligne, la neutralité du Net, l'innovation, l'accès et le partage des technologies libres, de la culture, des médicaments génériques et des semences.
Le mercredi 4 juillet, le Parlement européen aura une occasion historique de rejeter l'ACTA dans son ensemble, de l'enterrer politiquement une fois pour toutes.
Les membres du Parlement européen de tous les groupes politiques doivent suivre les recommandations des cinq commissions parlementaires qui ont toutes invité à rejeter l'ACTA.
Un rejet définitif de l'ACTA constituerait une formidable victoire pour les citoyens du monde entier, ainsi que pour la démocratie et citoyenneté européenne.
Un tel vote doit également retentir comme un signal d'alarme pour les décideurs politiques à travers l'Europe, les incitant à rompre avec un cycle sans fin de politiques répressives. Il est temps de réformer les régimes de droit d'auteur et des brevets en faveur des citoyens et des contributeurs à la culture et à l'innovation.
L'accès et le partage des connaissances et de la culture sont essentiels pour la construction de sociétés ouvertes et démocratiques. Nous demandons aux législateurs européens de regarder au-delà du rejet de l'ACTA et de travailler à un nouveau cadre juridique qui nourrirait nos pratiques plutôt que les détruire, un cadre juridique adapté à l'ère numérique.
ACTA menace les libertés fondamentales en ligne, la neutralité du Net, l'innovation, l'accès et le partage des technologies libres, de la culture, des médicaments génériques et des semences.
Le mercredi 4 juillet, le Parlement européen aura une occasion historique de rejeter l'ACTA dans son ensemble, de l'enterrer politiquement une fois pour toutes.
Les membres du Parlement européen de tous les groupes politiques doivent suivre les recommandations des cinq commissions parlementaires qui ont toutes invité à rejeter l'ACTA.
Un rejet définitif de l'ACTA constituerait une formidable victoire pour les citoyens du monde entier, ainsi que pour la démocratie et citoyenneté européenne.
Un tel vote doit également retentir comme un signal d'alarme pour les décideurs politiques à travers l'Europe, les incitant à rompre avec un cycle sans fin de politiques répressives. Il est temps de réformer les régimes de droit d'auteur et des brevets en faveur des citoyens et des contributeurs à la culture et à l'innovation.
L'accès et le partage des connaissances et de la culture sont essentiels pour la construction de sociétés ouvertes et démocratiques. Nous demandons aux législateurs européens de regarder au-delà du rejet de l'ACTA et de travailler à un nouveau cadre juridique qui nourrirait nos pratiques plutôt que les détruire, un cadre juridique adapté à l'ère numérique.
";s:7:"dateiso";s:15:"20120702_124818";}s:15:"20120627_163012";a:7:{s:5:"title";s:83:"L'Arcep se condamne à l'inefficacité sur la Neutralité du Net. Il faut une loi !";s:4:"link";s:106:"http://www.laquadrature.net/fr/larcep-se-condamne-a-linefficacite-sur-la-neutralite-du-net-il-faut-une-loi";s:4:"guid";s:35:"5873 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 27 Jun 2012 14:30:12 +0000";s:11:"description";s:6506:"
Dans le cadre de ses commentaires sur le projet de rapport de l'Arcep relatif à la neutralité du Net, La Quadrature du Net publie aujourd'hui un aperçu des restrictions d'accès au Net imposées par les opérateurs français. Recueillies sur la plate-forme RespectMyNet, ces dernières montrent la banalisation des discriminations des communications (filtrage, blocage, priorisation), et l'urgente nécessité d'une loi venant protéger Internet des immixtions illégitimes des opérateurs.
La semaine dernière s'achevait une consultation de l'Arcep sur le projet d'un rapport sur la neutralité du Net, qui sera prochainement soumis au Parlement et au gouvernement. Dans ce document, l'Autorité fait le point sur les différents travaux engagés sur ce sujet, et estime avoir entre les mains tous les outils nécessaires pour protéger la neutralité, alors même que l'an dernier, un rapport parlementaire appelait à une loi en la matière.
L'illusoire transparence
De fait, La Quadrature ne partage pas l'optimisme de l'Arcep. Comme rappelé dans les commentaires transmis, l'approche actuelle aux niveaux français et européen est avant tout fondée sur la concurrence entre fournisseurs d'accès Internet, la transparence des restrictions imposées aux abonnés et le recours éventuel à l'imposition d'un niveau de « qualité de service minimum », une notion qui reste floue. Mise en avant depuis 2009 au niveau européen comme une alternative à l'imposition de la neutralité du Net par le législateur, cette approche corrective n'est en aucun cas suffisante, et condamne à des remises en cause durable de l'universalité d'Internet.
En effet, si l'on persiste dans la trajectoire actuelle, les importants effets de réseaux et l'inertie des choix d'infrastructure ou de modèles commerciaux font qu'il sera extrêmement difficile de remédier efficacement aux atteintes à la neutralité. Nous sommes surpris que le régulateur ne prenne pas en compte cette propriété bien connue des outils et réseaux informationnels.
Par ailleurs, le groupe de travail récemment mis en place par le gouvernement et l'Arcep pour mieux définir les obligations de transparence des opérateurs, donne le sentiment d'accorder un blanc-seing aux opérateurs, et paraît trop déconnecté de l'objectif de protection de la neutralité. C'est pourquoi La Quadrature du Net vient de mettre un terme à sa participation à ce groupe de travail.
L'Arcep désarmée
Quant aux 10 propositions de l'Arcep en matière de neutralité Net, elles semblent incapables de produire réellement leurs effets. D'une part parce qu'il manque au régulateur les outils permettant d'enquêter sur les restrictions d'accès et un pouvoir de sanction dissuasif dans ce domaine. Et d'autre part, parce que ces propositions n'ont pas de base juridique suffisamment solide.
Le recours des opérateurs Verizon et AT&T devant le Conseil d'État, visant à faire échec à toute tentative de l'Arcep de collecter des données sur le marché de l'interconnexion, donne un avant goût de ce qui attend cette dernière si elle tente d'appliquer ses propositions sur la neutralité. On notera, au passage, l'ironie cruelle de cette action en justice, menée par des opérateurs défendant justement la sacro-sainte « transparence » comme alternative à toute régulation pro-active !
L'urgence d'une loi sur la neutralité
Or, il y a beaucoup à faire. Les signalements recueillis sur RespectMyNet, présentés en annexe des commentaires de La Quadrature, montrent que les fournisseurs d'accès dominants violent allègrement la neutralité du Net en discriminant les communications de leurs utilisateurs (blocage, filtrage, priorisation des flux...). La situation reste critique. Certains abonnés rapportent même des cas de blocage du réseau d'anonymisation TOR ou d'outils de chiffrement tels que les VPN, des outils pourtant essentiels pour ceux qui souhaitent protéger la confidentialité de leurs communications.
Une loi est donc nécessaire, d'autant que le sujet fait l'objet d'une alliance trans-partisane entre la nouvelle majorité et l'opposition au Parlement, comme l'illustrent le rapport des députées Laure de La Raudière (UMP) et Corinne Erhel (PS) ou la proposition de loi de Christian Paul (PS). La Quadrature appelle donc le gouvernement, et en particulier les ministres Arnaud Montebourg et Fleur Pellerin, à prendre urgemment des mesures législatives concrètes, pour que la liberté de communication et l'innovation sur Internet soient garanties.
";s:7:"content";s:6524:"
Dans le cadre de ses commentaires sur le projet de rapport de l'Arcep relatif à la neutralité du Net, La Quadrature du Net publie aujourd'hui un aperçu des restrictions d'accès au Net imposées par les opérateurs français. Recueillies sur la plate-forme RespectMyNet, ces dernières montrent la banalisation des discriminations des communications (filtrage, blocage, priorisation), et l'urgente nécessité d'une loi venant protéger Internet des immixtions illégitimes des opérateurs.
La semaine dernière s'achevait une consultation de l'Arcep sur le projet d'un rapport sur la neutralité du Net, qui sera prochainement soumis au Parlement et au gouvernement. Dans ce document, l'Autorité fait le point sur les différents travaux engagés sur ce sujet, et estime avoir entre les mains tous les outils nécessaires pour protéger la neutralité, alors même que l'an dernier, un rapport parlementaire appelait à une loi en la matière.
L'illusoire transparence
De fait, La Quadrature ne partage pas l'optimisme de l'Arcep. Comme rappelé dans les commentaires transmis, l'approche actuelle aux niveaux français et européen est avant tout fondée sur la concurrence entre fournisseurs d'accès Internet, la transparence des restrictions imposées aux abonnés et le recours éventuel à l'imposition d'un niveau de « qualité de service minimum », une notion qui reste floue. Mise en avant depuis 2009 au niveau européen comme une alternative à l'imposition de la neutralité du Net par le législateur, cette approche corrective n'est en aucun cas suffisante, et condamne à des remises en cause durable de l'universalité d'Internet.
En effet, si l'on persiste dans la trajectoire actuelle, les importants effets de réseaux et l'inertie des choix d'infrastructure ou de modèles commerciaux font qu'il sera extrêmement difficile de remédier efficacement aux atteintes à la neutralité. Nous sommes surpris que le régulateur ne prenne pas en compte cette propriété bien connue des outils et réseaux informationnels.
Par ailleurs, le groupe de travail récemment mis en place par le gouvernement et l'Arcep pour mieux définir les obligations de transparence des opérateurs, donne le sentiment d'accorder un blanc-seing aux opérateurs, et paraît trop déconnecté de l'objectif de protection de la neutralité. C'est pourquoi La Quadrature du Net vient de mettre un terme à sa participation à ce groupe de travail.
L'Arcep désarmée
Quant aux 10 propositions de l'Arcep en matière de neutralité Net, elles semblent incapables de produire réellement leurs effets. D'une part parce qu'il manque au régulateur les outils permettant d'enquêter sur les restrictions d'accès et un pouvoir de sanction dissuasif dans ce domaine. Et d'autre part, parce que ces propositions n'ont pas de base juridique suffisamment solide.
Le recours des opérateurs Verizon et AT&T devant le Conseil d'État, visant à faire échec à toute tentative de l'Arcep de collecter des données sur le marché de l'interconnexion, donne un avant goût de ce qui attend cette dernière si elle tente d'appliquer ses propositions sur la neutralité. On notera, au passage, l'ironie cruelle de cette action en justice, menée par des opérateurs défendant justement la sacro-sainte « transparence » comme alternative à toute régulation pro-active !
L'urgence d'une loi sur la neutralité
Or, il y a beaucoup à faire. Les signalements recueillis sur RespectMyNet, présentés en annexe des commentaires de La Quadrature, montrent que les fournisseurs d'accès dominants violent allègrement la neutralité du Net en discriminant les communications de leurs utilisateurs (blocage, filtrage, priorisation des flux...). La situation reste critique. Certains abonnés rapportent même des cas de blocage du réseau d'anonymisation TOR ou d'outils de chiffrement tels que les VPN, des outils pourtant essentiels pour ceux qui souhaitent protéger la confidentialité de leurs communications.
Une loi est donc nécessaire, d'autant que le sujet fait l'objet d'une alliance trans-partisane entre la nouvelle majorité et l'opposition au Parlement, comme l'illustrent le rapport des députées Laure de La Raudière (UMP) et Corinne Erhel (PS) ou la proposition de loi de Christian Paul (PS). La Quadrature appelle donc le gouvernement, et en particulier les ministres Arnaud Montebourg et Fleur Pellerin, à prendre urgemment des mesures législatives concrètes, pour que la liberté de communication et l'innovation sur Internet soient garanties.
";s:7:"dateiso";s:15:"20120627_163012";}s:15:"20120626_174414";a:7:{s:5:"title";s:57:"Remporter une ÉNORME victoire contre l'ACTA et au-delà!";s:4:"link";s:84:"http://www.laquadrature.net/fr/remporter-une-enorme-victoire-contre-lacta-et-au-dela";s:4:"guid";s:35:"5869 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 26 Jun 2012 15:44:14 +0000";s:11:"description";s:5126:"
Paris, 26 juin 2012 - Ce mercredi 4 juillet, le Parlement européen aura l'occasion, en plénière, de rejeter ACTA dans son ensemble et de le détruire définitivement. Après quatre ans d'efforts acharnés des citoyens, un tel rejet créerait un fantastique symbole politique de portée globale. La Quadrature du Net invite tous les citoyens à contacter les eurodéputés pour les appeler à rejeter ACTA et, au-delà, à entamer le processus d'une réforme positive du droit d'auteur. Une victoire forte préparerait le terrain pour de futures réformes.
[Mise à jour 02/07] Encouragé par la Commission européenne et les lobbies de l'industrie, le groupe PPE va tenter de suspendre la procédure parlementaire en reportant le vote final sur ACTA jusqu'à la décision de la Cour de Justice de l'Union européenne.
L'adoption la semaine dernière, par la commission « Commerce international » (INTA) d'une recommandation de vote contre ACTA est très encourageante, mais l'étape finale à venir reste la plus importante : tous les membres du Parlement européen vont se prononcer en séance plénière le mercredi 4 juillet, à 12h, soit en faveur, soit contre ACTA. Les citoyens d'Internet doivent unir leurs forces pour cette occasion historique !
Si les chances de victoire sont maintenant élevées, rien n'est encore gagné. La semaine dernière, les lobbies de l'industrie et la Commission européenne (responsable des négociations pour l'Union européenne) ont tenté d'influencer1 les membres de la commission INTA, et sont déjà en train d'essayer de sauver la face. Nous devons gagner ce vote par une large majorité, afin d'empêcher le Parlement européen de revenir en arrière et de continuer la répression aveugle une fois ACTA rejeté.
En tant que plate-forme citoyenne, La Quadrature du Net met à disposition le PiPhone, un outil en ligne permettant d'appeler gratuitement les eurodéputés qui ne sont pas encore clairement contre ACTA, ainsi que quelques conseils et arguments clés. Les contacts personnalisés doivent toujours être privilégiés à des copier-coller de courriers-types !
En échangeant avec des eurodéputés ou leurs assistants, les citoyens sont invités à discuter de la nécessité, au-delà d'ACTA, d'une réforme du cadre européen du droit d'auteur. Nos pratiques culturelles en ligne doivent être encouragées plutôt que réprimées. La voix des citoyens, l'Internet libre et ouvert ainsi que nos pratiques culturelles sont plus importants que les intérêts d'une poignée de lobbies !
« Le débat sur ACTA pourrait marquer le début d'une nouvelle ère, où les citoyens organisés en réseau ont le pouvoir de contrer l'influence de puissants lobbies industriels et de politiciens prêts à sacrifier nos droits ainsi qu'un Internet libre. En engageant la conversation avec nos représentants en vue du vote de la semaine prochaine, nous atteindrons non seulement une victoire d'une formidable portée politique contre ACTA, mais nous aiderons aussi le législateur à comprendre comment Internet et la culture en ligne fonctionnent. Remportons cette énorme victoire contre ACTA ! » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 26 juin 2012 - Ce mercredi 4 juillet, le Parlement européen aura l'occasion, en plénière, de rejeter ACTA dans son ensemble et de le détruire définitivement. Après quatre ans d'efforts acharnés des citoyens, un tel rejet créerait un fantastique symbole politique de portée globale. La Quadrature du Net invite tous les citoyens à contacter les eurodéputés pour les appeler à rejeter ACTA et, au-delà, à entamer le processus d'une réforme positive du droit d'auteur. Une victoire forte préparerait le terrain pour de futures réformes.
[Mise à jour 02/07] Encouragé par la Commission européenne et les lobbies de l'industrie, le groupe PPE va tenter de suspendre la procédure parlementaire en reportant le vote final sur ACTA jusqu'à la décision de la Cour de Justice de l'Union européenne.
L'adoption la semaine dernière, par la commission « Commerce international » (INTA) d'une recommandation de vote contre ACTA est très encourageante, mais l'étape finale à venir reste la plus importante : tous les membres du Parlement européen vont se prononcer en séance plénière le mercredi 4 juillet, à 12h, soit en faveur, soit contre ACTA. Les citoyens d'Internet doivent unir leurs forces pour cette occasion historique !
Si les chances de victoire sont maintenant élevées, rien n'est encore gagné. La semaine dernière, les lobbies de l'industrie et la Commission européenne (responsable des négociations pour l'Union européenne) ont tenté d'influencer1 les membres de la commission INTA, et sont déjà en train d'essayer de sauver la face. Nous devons gagner ce vote par une large majorité, afin d'empêcher le Parlement européen de revenir en arrière et de continuer la répression aveugle une fois ACTA rejeté.
En tant que plate-forme citoyenne, La Quadrature du Net met à disposition le PiPhone, un outil en ligne permettant d'appeler gratuitement les eurodéputés qui ne sont pas encore clairement contre ACTA, ainsi que quelques conseils et arguments clés. Les contacts personnalisés doivent toujours être privilégiés à des copier-coller de courriers-types !
En échangeant avec des eurodéputés ou leurs assistants, les citoyens sont invités à discuter de la nécessité, au-delà d'ACTA, d'une réforme du cadre européen du droit d'auteur. Nos pratiques culturelles en ligne doivent être encouragées plutôt que réprimées. La voix des citoyens, l'Internet libre et ouvert ainsi que nos pratiques culturelles sont plus importants que les intérêts d'une poignée de lobbies !
« Le débat sur ACTA pourrait marquer le début d'une nouvelle ère, où les citoyens organisés en réseau ont le pouvoir de contrer l'influence de puissants lobbies industriels et de politiciens prêts à sacrifier nos droits ainsi qu'un Internet libre. En engageant la conversation avec nos représentants en vue du vote de la semaine prochaine, nous atteindrons non seulement une victoire d'une formidable portée politique contre ACTA, mais nous aiderons aussi le législateur à comprendre comment Internet et la culture en ligne fonctionnent. Remportons cette énorme victoire contre ACTA ! » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20120626_174414";}s:15:"20120621_122703";a:7:{s:5:"title";s:56:"[Victoire majeure] En avant pour le dernier round ACTA! ";s:4:"link";s:83:"http://www.laquadrature.net/fr/victoire-majeure-en-avant-pour-le-dernier-round-acta";s:4:"guid";s:35:"5853 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 21 Jun 2012 10:27:03 +0000";s:11:"description";s:5012:"
Bruxelles, le 21 juin 2012 – La principale commission du Parlement européen en charge d'ACTA vient d'adopter sa recommandation de vote à l'ensemble des eurodéputés. Malgré des pressions intenses, il est désormais recommandé au Parlement de rejeter ACTA lors du vote en plénière, prévu le 4 juillet1. Nous avons désormais de grandes chances de battre enfin ACTA et d'amorcer le débat sur une réforme positive du droit d'auteur ! Célébrons cette victoire, tout en gardant en tête le vote final, et construisons un monde post-ACTA ! <3
Des bénévoles européens et l'équipe de La Quadrature du Net ont passé la semaine au Parlement pour s'assurer que tous les groupes politiques, ainsi que les députés, soient correctement informés et prêts à faire face à leurs responsabilités lors du vote d'aujourd'hui. Les membres de la commission « Commerce international » (INTA) du Parlement européen n'ont pas cédé à la pression intense exercée par les lobbies de l'industrie et la Commission européenne, qui tentaient de sauver la face en évitant une défaite écrasante. Le Commissaire De Gucht, responsable des négociations d'ACTA, s'est même invité hier en commission INTA, dans une tentative désespérée visant à obtenir des députés qu'ils votent le report du vote final pendant quelques années. En vain.
Par 19 voix contre 12, INTA a adopté sa recommandation finale : le Parlement européen doit rejeter ACTA !
Le vote final se tiendra lors de la prochaine session plénière à Strasbourg, probablement le 4 juillet. Ce sera l'occasion pour tous les eurodéputés d'en finir avec ACTA, et de l'enterrer une fois pour toutes. Dès aujourd'hui, les citoyens doivent s'organiser pour contacter tous les membres du Parlement2 et leur recommander de suivre l'avis de la commission INTA (ainsi que celui des quatre autres commissions qui ont également appelé à rejeter ACTA).
« Vu la façon dont la Commission européenne et les groupes d'intérêt ont ignoré la position claire d'une majorité d'eurodéputés, il faut s'attendre à de nouvelles pressions et manœuvres. Chacun doit rester mobilisé en vue du vote en plénière » a déclaré Mélissa Richard, chargée de campagne pour La Quadrature du Net.
« Un rejet rapide et total d'ACTA par le Parlement européen est désormais en vue ! Avec ce symbole politique d'ampleur globale, nous pourrons ouvrir la voie à une réforme positive du droit d'auteur, afin d'encourager nos pratiques culturelles au lieu de les réprimer. Continuons de travailler à cette victoire tant attendue, et construisons un monde post-ACTA ! Mais d'abord, fêtons cela ! » a conclu Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
La Quadrature du Net remercie chaleureusement tous les citoyens qui ont pris part à ce succès, ainsi que tous les membres de la commission INTA qui les ont courageusement défendus. Nous devons poursuivre nos efforts !
1. La date exacte sera déterminée une semaine à l'avance par la conférence des présidents de l'UE.
Bruxelles, le 21 juin 2012 – La principale commission du Parlement européen en charge d'ACTA vient d'adopter sa recommandation de vote à l'ensemble des eurodéputés. Malgré des pressions intenses, il est désormais recommandé au Parlement de rejeter ACTA lors du vote en plénière, prévu le 4 juillet1. Nous avons désormais de grandes chances de battre enfin ACTA et d'amorcer le débat sur une réforme positive du droit d'auteur ! Célébrons cette victoire, tout en gardant en tête le vote final, et construisons un monde post-ACTA ! <3
Des bénévoles européens et l'équipe de La Quadrature du Net ont passé la semaine au Parlement pour s'assurer que tous les groupes politiques, ainsi que les députés, soient correctement informés et prêts à faire face à leurs responsabilités lors du vote d'aujourd'hui. Les membres de la commission « Commerce international » (INTA) du Parlement européen n'ont pas cédé à la pression intense exercée par les lobbies de l'industrie et la Commission européenne, qui tentaient de sauver la face en évitant une défaite écrasante. Le Commissaire De Gucht, responsable des négociations d'ACTA, s'est même invité hier en commission INTA, dans une tentative désespérée visant à obtenir des députés qu'ils votent le report du vote final pendant quelques années. En vain.
Par 19 voix contre 12, INTA a adopté sa recommandation finale : le Parlement européen doit rejeter ACTA !
Le vote final se tiendra lors de la prochaine session plénière à Strasbourg, probablement le 4 juillet. Ce sera l'occasion pour tous les eurodéputés d'en finir avec ACTA, et de l'enterrer une fois pour toutes. Dès aujourd'hui, les citoyens doivent s'organiser pour contacter tous les membres du Parlement2 et leur recommander de suivre l'avis de la commission INTA (ainsi que celui des quatre autres commissions qui ont également appelé à rejeter ACTA).
« Vu la façon dont la Commission européenne et les groupes d'intérêt ont ignoré la position claire d'une majorité d'eurodéputés, il faut s'attendre à de nouvelles pressions et manœuvres. Chacun doit rester mobilisé en vue du vote en plénière » a déclaré Mélissa Richard, chargée de campagne pour La Quadrature du Net.
« Un rejet rapide et total d'ACTA par le Parlement européen est désormais en vue ! Avec ce symbole politique d'ampleur globale, nous pourrons ouvrir la voie à une réforme positive du droit d'auteur, afin d'encourager nos pratiques culturelles au lieu de les réprimer. Continuons de travailler à cette victoire tant attendue, et construisons un monde post-ACTA ! Mais d'abord, fêtons cela ! » a conclu Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
La Quadrature du Net remercie chaleureusement tous les citoyens qui ont pris part à ce succès, ainsi que tous les membres de la commission INTA qui les ont courageusement défendus. Nous devons poursuivre nos efforts !
1. La date exacte sera déterminée une semaine à l'avance par la conférence des présidents de l'UE.
";s:7:"dateiso";s:15:"20120621_122703";}s:15:"20120620_122709";a:7:{s:5:"title";s:36:"La commission INTA doit rejeter ACTA";s:4:"link";s:67:"http://www.laquadrature.net/fr/la-commission-inta-doit-rejeter-acta";s:4:"guid";s:35:"5846 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 20 Jun 2012 10:27:09 +0000";s:11:"description";s:6875:"
ACTA menace les libertés fondamentales en ligne, la neutralité du Net, l'innovation, l'accès aux technologies libres et aux médicaments essentiels. Le Parlement européen a tous les éléments pour le rejeter et s'il décidait de repousser le vote final sur l'accord, il serait vu comme fuyant ses responsabilités politiques.
Ce jeudi 21 juin, les membres de la commission « Commerce international » (INTA) du Parlement européen vont décider de leur recommandation finale sur ACTA au reste du Parlement.
Jusqu'à présent, toutes les commissions ont recommandé le rejet d'ACTA. Nous appelons les membres d'INTA à faire de même et à voter contre tout amendement recommandant l'adoption d'ACTA ou le report du vote final par le Parlement. Repousser le vote est un stratagème trompeur mis en place depuis des semaines par la Commission européenne et les lobbies de l'industrie afin de sauver la face.
Les eurodéputés doivent assumer leurs responsabilités politiques et protéger les citoyens contre ce dangereux accord. Il est plus qu'urgent de rompre avec la logique répressive d'ACTA, et d'instaurer la distinction fondamentale entre la véritable et dangereuse contrefaçon de biens matériels, et les pratiques de partage qui contribuent à construire notre culture et une meilleure société.
ACTA menace les libertés fondamentales en ligne, la neutralité du Net, l'innovation, l'accès aux technologies libres et aux médicaments essentiels. Le Parlement européen a tous les éléments pour le rejeter et s'il décidait de repousser le vote final sur l'accord, il serait vu comme fuyant ses responsabilités politiques.
Ce jeudi 21 juin, les membres de la commission « Commerce international » (INTA) du Parlement européen vont décider de leur recommandation finale sur ACTA au reste du Parlement.
Jusqu'à présent, toutes les commissions ont recommandé le rejet d'ACTA. Nous appelons les membres d'INTA à faire de même et à voter contre tout amendement recommandant l'adoption d'ACTA ou le report du vote final par le Parlement. Repousser le vote est un stratagème trompeur mis en place depuis des semaines par la Commission européenne et les lobbies de l'industrie afin de sauver la face.
Les eurodéputés doivent assumer leurs responsabilités politiques et protéger les citoyens contre ce dangereux accord. Il est plus qu'urgent de rompre avec la logique répressive d'ACTA, et d'instaurer la distinction fondamentale entre la véritable et dangereuse contrefaçon de biens matériels, et les pratiques de partage qui contribuent à construire notre culture et une meilleure société.
";s:7:"dateiso";s:15:"20120620_122709";}s:15:"20120619_113519";a:7:{s:5:"title";s:68:"ACTA : La commission INTA va-t-elle trahir les citoyens européens ?";s:4:"link";s:94:"http://www.laquadrature.net/fr/acta-la-commission-inta-va-t-elle-trahir-les-citoyens-europeens";s:4:"guid";s:35:"5841 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 19 Jun 2012 09:35:19 +0000";s:11:"description";s:5497:"
Bruxelles, 19 juin 2012 — Ce jeudi 21 juin, la commission « Commerce international » (INTA) du Parlement européen adoptera son rapport sur ACTA. Sous pression de la Commission européenne et des lobbies de l'industrie1, les membres de la commission pourraient décider, peut-être lors d'un vote à bulletin secret, de recommander l'adoption d'ACTA ou un report de plusieurs années du vote final aidant ainsi les pro-ACTA à sauver les apparences. La participation des citoyens est cruciale pour garantir que, lors de ce vote, le Parlement respectera l'intérêt général et fera face à ses responsabilités politiques, en votant clairement pour un rejet d'ACTA.
Ce jeudi, le 21 juin, la commission « Commerce international » (INTA) va recommander au reste du Parlement européen d'approuver ou de rejeter ACTA. Pendant des mois, de nombreuses ONG et institutions publiques ont publié des analyses et commentaires, démontrant la dangerosité d'ACTA pour l'innovation, la liberté d'expression et la vie privée sur Internet. Des centaines de milliers de citoyens sont descendus dans les rues pour s'opposer à ACTA l'hiver dernier, appelant à la réforme d'un droit d'auteur dépassé. Ces actions ont conduit à un intense débat politique au sein du Parlement européen, et les différents rapports pour avis récemment adoptés par plusieurs commissions parlementaires ont appelé au rejet d'ACTA.
Pourtant, alors que le vote final se rapproche (il est prévu pour la semaine du 3 au 5 juillet2), tous ces efforts pourraient être balayés d'un revers de la main.
Malgré le projet de rapport de David Martin (UK, S&D) recommandant le rejet d'ACTA, certains membres d'INTA ont déposé des amendements proposant soit l'adoption d'ACTA, soit le report du vote final de plusieurs années, en attendant la décision de la Cour de justice de l'Union européenne sur la légalité de l'accord. Un tel report du vote réduirait à zéro toutes chances de voir ACTA rejeté dans un futur proche, et ouvrirait la voie à de nouvelles politiques répressives d'ici là.
Les citoyens doivent rappeler aux membres de la commission INTA que le report du vote est une stratégie mise en place par la Commission européenne et les lobbies du copyright pour sauver les apparences. Si le vote final est repoussé, le Parlement européen sera considéré comme jouant le jeu des pro-ACTA, renonçant à son pouvoir politique et à sa mission de défense des citoyens.
« Des rumeurs confirmées au Parlement européen suggèrent que le vote de jeudi pourrait se tenir à bulletin secret. Une telle manœuvre permettrait aux eurodéputés des groupes ayant pris officiellement position contre ACTA de fuir leurs responsabilités politiques. Des progrès considérables ont été faits ces derniers mois pour que les décideurs politiques comprennent l'urgente nécessité de rompre avec la répression et de réformer le droit d'auteur. Nous ne pouvons pas laisser quelques puissants lobbies et la Commission européenne ruiner ces efforts. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Tous les citoyens peuvent agir contre ACTA. Le PiPhone permet de contacter gratuitement les membres de la commission INTA et de les inciter à voter contre ACTA !
1. Les lobbies de l'industrie ont lancé un site en faveur d'ACTA et envoient de nombreux courriers aux eurodéputés. Voir http://www.actafacts.com/.
2. La date exacte sera fixée la semaine précédente lors de la conférence des présidents du Parlement européen.
";s:7:"content";s:5506:"
Bruxelles, 19 juin 2012 — Ce jeudi 21 juin, la commission « Commerce international » (INTA) du Parlement européen adoptera son rapport sur ACTA. Sous pression de la Commission européenne et des lobbies de l'industrie1, les membres de la commission pourraient décider, peut-être lors d'un vote à bulletin secret, de recommander l'adoption d'ACTA ou un report de plusieurs années du vote final aidant ainsi les pro-ACTA à sauver les apparences. La participation des citoyens est cruciale pour garantir que, lors de ce vote, le Parlement respectera l'intérêt général et fera face à ses responsabilités politiques, en votant clairement pour un rejet d'ACTA.
Ce jeudi, le 21 juin, la commission « Commerce international » (INTA) va recommander au reste du Parlement européen d'approuver ou de rejeter ACTA. Pendant des mois, de nombreuses ONG et institutions publiques ont publié des analyses et commentaires, démontrant la dangerosité d'ACTA pour l'innovation, la liberté d'expression et la vie privée sur Internet. Des centaines de milliers de citoyens sont descendus dans les rues pour s'opposer à ACTA l'hiver dernier, appelant à la réforme d'un droit d'auteur dépassé. Ces actions ont conduit à un intense débat politique au sein du Parlement européen, et les différents rapports pour avis récemment adoptés par plusieurs commissions parlementaires ont appelé au rejet d'ACTA.
Pourtant, alors que le vote final se rapproche (il est prévu pour la semaine du 3 au 5 juillet2), tous ces efforts pourraient être balayés d'un revers de la main.
Malgré le projet de rapport de David Martin (UK, S&D) recommandant le rejet d'ACTA, certains membres d'INTA ont déposé des amendements proposant soit l'adoption d'ACTA, soit le report du vote final de plusieurs années, en attendant la décision de la Cour de justice de l'Union européenne sur la légalité de l'accord. Un tel report du vote réduirait à zéro toutes chances de voir ACTA rejeté dans un futur proche, et ouvrirait la voie à de nouvelles politiques répressives d'ici là.
Les citoyens doivent rappeler aux membres de la commission INTA que le report du vote est une stratégie mise en place par la Commission européenne et les lobbies du copyright pour sauver les apparences. Si le vote final est repoussé, le Parlement européen sera considéré comme jouant le jeu des pro-ACTA, renonçant à son pouvoir politique et à sa mission de défense des citoyens.
« Des rumeurs confirmées au Parlement européen suggèrent que le vote de jeudi pourrait se tenir à bulletin secret. Une telle manœuvre permettrait aux eurodéputés des groupes ayant pris officiellement position contre ACTA de fuir leurs responsabilités politiques. Des progrès considérables ont été faits ces derniers mois pour que les décideurs politiques comprennent l'urgente nécessité de rompre avec la répression et de réformer le droit d'auteur. Nous ne pouvons pas laisser quelques puissants lobbies et la Commission européenne ruiner ces efforts. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Tous les citoyens peuvent agir contre ACTA. Le PiPhone permet de contacter gratuitement les membres de la commission INTA et de les inciter à voter contre ACTA !
1. Les lobbies de l'industrie ont lancé un site en faveur d'ACTA et envoient de nombreux courriers aux eurodéputés. Voir http://www.actafacts.com/.
2. La date exacte sera fixée la semaine précédente lors de la conférence des présidents du Parlement européen.
";s:7:"dateiso";s:15:"20120619_113519";}s:15:"20120618_124420";a:7:{s:5:"title";s:14:"Newsletter #44";s:4:"link";s:55:"http://www.laquadrature.net/fr/newsletter/newsletter-44";s:4:"guid";s:35:"5833 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 18 Jun 2012 10:44:20 +0000";s:11:"description";s:8930:"
Édito
Bonjour à toutes et à tous,
ACTA termine son parcours au Parlement européen, et pour autant rien n'est gagné : le vote final de l'accord est prévu pour la séance plénière du 3 au 5 juillet (la date exacte sera décidée une semaine à l'avance par la conférence des présidents). Mais la dernière étape, cruciale, des travaux parlementaires aura lieu le 21 juin, avec le vote définitif du rapport du député David Martin (UK, S&D) en commission « Commerce international » (INTA). Ce dernier appelle actuellement au rejet d'ACTA, mais peut être amendé de façon à recommander l'adoption d'ACTA ou le report du vote final. Les votes sur les précédents rapports pour avis, adoptés en commissions ITRE, JURI, LIBE et DEVE et appelant tous au rejet d'ACTA, se sont joués à très peu de voix : tout peut donc encore se passer lors de ce vote, et il serait extrêmement dangereux de relâcher notre attention aujourd'hui. Les lobbies de l'industrie et les députés pro-ACTA sont plus mobilisés que jamais (lancement d'un site pro-ACTA, envoi de lettres aux eurodéputés...) et sont loin d'avoir abandonné. Si nous perdons sur ce vote, nous risquons de tout perdre sur ACTA. Plus que jamais, il est essentiel de nous mobiliser et d'agir que ce soit en contactant les eurodéputés, en alertant nos proches, ou par tout autre moyen, chacun d'entre nous peut, et doit faire quelque chose.
Dans le domaine de la neutralité du Net, le BEREC, les régulateurs européens des télécoms viennent de publier une étude sur les restrictions d'accès imposées par les opérateurs télécoms. 50% des utilisateurs européens pourraient être victimes de blocages injustifiés de ports ou de services, souvent au bénéfice de services partenaires des opérateurs. En réaction, la commissaire européenne Neelie Kroes propose de rendre plus transparentes ces restrictions, afin de permettre aux consommateurs de changer de fournisseur en connaissance de cause. Ces mesures sont encore très insuffisantes seule une loi protégeant juridiquement la neutralité du Net permettra de garantir nos droits fondamentaux. L'exemple des Pays-Bas, qui ont récemment adopté la première loi dans ce domaine en Europe, doit être suivi sans plus attendre.
Enfin, La Quadrature a lancé une nouvelle campagne de financement pour 2012. Son thème est « Contre ACTA et au-delà », et donne un aperçu des actions que nous avons réalisées sur ce dossier, et de nos propositions de réformes positives. Les dons individuels représentent plus de la moité de nos ressources. Ce mode de fonctionnement garantit notre indépendance, mais rend incertaine la pérennité de notre financement et de notre action le budget dont nous disposons actuellement ne couvre nos frais de fonctionnement que jusqu'à la fin de l'été. Nous avons besoin de votre aide pour propager cette campagne afin de nous donner les moyens de continuer à agir.
Vous pouvez aider La Quadrature en diffusant ses publications sur vos blogs, par Twitter, Identi.ca, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à notre liste de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
D'autres façons concrètes d'aider sont proposées sur le wiki de la Quadrature. Enfin, si vous en avez les moyens, vous pouvez également nous soutenir en effectuant un don.
ACTA termine son parcours au Parlement européen, et pour autant rien n'est gagné : le vote final de l'accord est prévu pour la séance plénière du 3 au 5 juillet (la date exacte sera décidée une semaine à l'avance par la conférence des présidents). Mais la dernière étape, cruciale, des travaux parlementaires aura lieu le 21 juin, avec le vote définitif du rapport du député David Martin (UK, S&D) en commission « Commerce international » (INTA). Ce dernier appelle actuellement au rejet d'ACTA, mais peut être amendé de façon à recommander l'adoption d'ACTA ou le report du vote final. Les votes sur les précédents rapports pour avis, adoptés en commissions ITRE, JURI, LIBE et DEVE et appelant tous au rejet d'ACTA, se sont joués à très peu de voix : tout peut donc encore se passer lors de ce vote, et il serait extrêmement dangereux de relâcher notre attention aujourd'hui. Les lobbies de l'industrie et les députés pro-ACTA sont plus mobilisés que jamais (lancement d'un site pro-ACTA, envoi de lettres aux eurodéputés...) et sont loin d'avoir abandonné. Si nous perdons sur ce vote, nous risquons de tout perdre sur ACTA. Plus que jamais, il est essentiel de nous mobiliser et d'agir que ce soit en contactant les eurodéputés, en alertant nos proches, ou par tout autre moyen, chacun d'entre nous peut, et doit faire quelque chose.
Dans le domaine de la neutralité du Net, le BEREC, les régulateurs européens des télécoms viennent de publier une étude sur les restrictions d'accès imposées par les opérateurs télécoms. 50% des utilisateurs européens pourraient être victimes de blocages injustifiés de ports ou de services, souvent au bénéfice de services partenaires des opérateurs. En réaction, la commissaire européenne Neelie Kroes propose de rendre plus transparentes ces restrictions, afin de permettre aux consommateurs de changer de fournisseur en connaissance de cause. Ces mesures sont encore très insuffisantes seule une loi protégeant juridiquement la neutralité du Net permettra de garantir nos droits fondamentaux. L'exemple des Pays-Bas, qui ont récemment adopté la première loi dans ce domaine en Europe, doit être suivi sans plus attendre.
Enfin, La Quadrature a lancé une nouvelle campagne de financement pour 2012. Son thème est « Contre ACTA et au-delà », et donne un aperçu des actions que nous avons réalisées sur ce dossier, et de nos propositions de réformes positives. Les dons individuels représentent plus de la moité de nos ressources. Ce mode de fonctionnement garantit notre indépendance, mais rend incertaine la pérennité de notre financement et de notre action le budget dont nous disposons actuellement ne couvre nos frais de fonctionnement que jusqu'à la fin de l'été. Nous avons besoin de votre aide pour propager cette campagne afin de nous donner les moyens de continuer à agir.
Vous pouvez aider La Quadrature en diffusant ses publications sur vos blogs, par Twitter, Identi.ca, vos réseaux sociaux, listes de discussion… Bref, en « buzzant ».
Vous pouvez également participer à notre liste de discussion ou échanger sur notre chat (ou directement sur notre canal IRC : #laquadrature sur irc.freenode.net).
D'autres façons concrètes d'aider sont proposées sur le wiki de la Quadrature. Enfin, si vous en avez les moyens, vous pouvez également nous soutenir en effectuant un don.
";s:7:"dateiso";s:15:"20120618_124420";}s:15:"20120614_121421";a:7:{s:5:"title";s:52:"ACTA : Dernière étape cruciale avant le vote final";s:4:"link";s:79:"http://www.laquadrature.net/fr/acta-derniere-etape-cruciale-avant-le-vote-final";s:4:"guid";s:35:"5832 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 14 Jun 2012 10:14:21 +0000";s:11:"description";s:7076:"
Paris, 14 juin – Le 21 juin, la commission « Commerce international » (INTA) du Parlement européen décidera d'adopter ou non son rapport sur ACTA. Ce vote marque la dernière étape procédurale avant le vote final du Parlement. Malgré le fait que quatre commissions ont récemment recommandé le rejet d'ACTA, d'importantes pressions pourraient peser sur le rapport d'INTA de la part des lobbies pro-ACTA et de la Commission européenne. Les citoyens doivent rester mobilisés, afin de s'assurer que les membres d'INTA recommandent le rejet d'ACTA. Ce rapport pèsera lourdement lors du vote final à venir au Parlement européen, prévu pour début juillet (vote en plénière le 3, 4 ou 5 juillet1).
Quatre commissions ont récemment adopté des rapports pour avis sur ACTA, recommandant à la commission saisie au fond, INTA, d'appeler le Parlement dans son ensemble à rejeter ACTA. INTA, à son tour, doit voter sur son propre rapport lors de sa réunion de la semaine prochaine, le 21 juin. L'issue du vote sur la version définitive de ce rapport est l'étape cruciale avant le vote final du Parlement européen, prévu pour début juillet.
Pour le moment, le projet de rapport de David Martin (UK, S&D) recommande le rejet d'ACTA. Cependant, les conservateurs pro-ACTA (PPE, menés par le suédois Christopher Fjellner) et quelques-uns de leurs alliés (les conservateurs britanniques de l'ECR, menés par Syed Kamall) vont tenter d'amender la recommandation2. Ces manœuvres sont encouragées par les lobbies de l'industrie3 et la Commission européenne, qui souhaitent inverser le rapport INTA afin qu'il recommande l'adoption d'ACTA, ou au moins le report du vote final.
le plus grand nombre possible de membres du groupe conservateur (EPP) suivent l'exemple de leurs collègues polonais, et s'expriment en faveur du rejet, ou au moins s'abstiennent ;
les conservateurs britanniques (ECR), habituellement critiques envers les institutions de l'UE, ne suivent pas aveuglément la Commission européenne dans sa tentative d'orienter le Parlement vers un report du vote final de l'ACTA.
« Nous abordons les cent derniers mètres du marathon ACTA, et nous ne devons surtout pas perdre de vue notre objectif. Nous devons tout particulièrement prendre garde à ne pas considérer le travail comme terminé et la bataille gagnée : tout peut changer en un clin d'œil. Nos adversaires ont déjà eu recours à des ruses de dernière minute lors des précédents votes en commission4, et nous devons nous attendre à ce qu'ils recommencent. Il est crucial que nous restions mobilisés pour assurer nos chances d'achever ACTA lors du vote en session plénière, et d'ouvrir la voie à une réforme positive du droit d'auteur » a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 14 juin – Le 21 juin, la commission « Commerce international » (INTA) du Parlement européen décidera d'adopter ou non son rapport sur ACTA. Ce vote marque la dernière étape procédurale avant le vote final du Parlement. Malgré le fait que quatre commissions ont récemment recommandé le rejet d'ACTA, d'importantes pressions pourraient peser sur le rapport d'INTA de la part des lobbies pro-ACTA et de la Commission européenne. Les citoyens doivent rester mobilisés, afin de s'assurer que les membres d'INTA recommandent le rejet d'ACTA. Ce rapport pèsera lourdement lors du vote final à venir au Parlement européen, prévu pour début juillet (vote en plénière le 3, 4 ou 5 juillet1).
Quatre commissions ont récemment adopté des rapports pour avis sur ACTA, recommandant à la commission saisie au fond, INTA, d'appeler le Parlement dans son ensemble à rejeter ACTA. INTA, à son tour, doit voter sur son propre rapport lors de sa réunion de la semaine prochaine, le 21 juin. L'issue du vote sur la version définitive de ce rapport est l'étape cruciale avant le vote final du Parlement européen, prévu pour début juillet.
Pour le moment, le projet de rapport de David Martin (UK, S&D) recommande le rejet d'ACTA. Cependant, les conservateurs pro-ACTA (PPE, menés par le suédois Christopher Fjellner) et quelques-uns de leurs alliés (les conservateurs britanniques de l'ECR, menés par Syed Kamall) vont tenter d'amender la recommandation2. Ces manœuvres sont encouragées par les lobbies de l'industrie3 et la Commission européenne, qui souhaitent inverser le rapport INTA afin qu'il recommande l'adoption d'ACTA, ou au moins le report du vote final.
le plus grand nombre possible de membres du groupe conservateur (EPP) suivent l'exemple de leurs collègues polonais, et s'expriment en faveur du rejet, ou au moins s'abstiennent ;
les conservateurs britanniques (ECR), habituellement critiques envers les institutions de l'UE, ne suivent pas aveuglément la Commission européenne dans sa tentative d'orienter le Parlement vers un report du vote final de l'ACTA.
« Nous abordons les cent derniers mètres du marathon ACTA, et nous ne devons surtout pas perdre de vue notre objectif. Nous devons tout particulièrement prendre garde à ne pas considérer le travail comme terminé et la bataille gagnée : tout peut changer en un clin d'œil. Nos adversaires ont déjà eu recours à des ruses de dernière minute lors des précédents votes en commission4, et nous devons nous attendre à ce qu'ils recommencent. Il est crucial que nous restions mobilisés pour assurer nos chances d'achever ACTA lors du vote en session plénière, et d'ouvrir la voie à une réforme positive du droit d'auteur » a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20120614_121421";}s:15:"20120608_164305";a:7:{s:5:"title";s:78:"Les gouvernements de l'UE poussent une alliance globale pour la censure du Net";s:4:"link";s:108:"http://www.laquadrature.net/fr/les-gouvernements-de-lue-poussent-une-alliance-globale-pour-la-censure-du-net";s:4:"guid";s:35:"5819 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 08 Jun 2012 14:43:05 +0000";s:11:"description";s:3563:"
Paris, 8 juin 2012 – Dans une décision adoptée à l'unanimité, les États membres de l'Union européenne ont décidé d'encourager l'usage généralisé de la censure de sites Internet, au prétexte de lutter contre la représentation d'abus sexuels sur mineurs. Cette initiative dangereuse doit être dénoncée, tant par les législateurs que par les citoyens : l'Europe ne peut pas abandonner son engagement à défendre l'État de droit en légitimant la censure d'Internet au niveau international.
Le Conseil de l'UE vient d'adopter ses conclusions sur une « alliance globale contre les abus sexuels sur mineur en ligne. » Dans un ajout de dernière minute, ce dernier appelle à :
« faciliter les mesures de suppression ou, lorsqu'approprié, le blocage de sites Internet diffusant de la pédopornographie. » (traduction par nos soins)
À ce jour, grâce au Parlement européen, l'Union européenne a réussi à éviter de faire l'apologie du blocage de sites Internet dans la lutte contre les abus sur mineur, ces mesures étant inefficaces et même contre-productives. Le Parlement européen a même imposé d'importants garde-fous aux États membres qui avaient choisi d'employer ces mesures nationalement.
Cette nouvelle initiative marque une régression dangereuse  : quels que soient les objectifs visés, le blocage de sites est extrêmement dangereux pour les libertés en ligne, conduit à la censure de contenus par ailleurs parfaitement légitimes, et viole les principes les plus élémentaires de l'État de droit1.
« Il est stupéfiant de voir qu'aucun gouvernement de l'Union européenne ne s'est opposé à l'adoption de ces conclusions, qui légitiment la censure d'Internet partout dans le monde, et auront de ce fait des conséquences désastreuses pour les libertés en ligne. En dépit des fortes réserves exprimées par le Parlement européen, les gouvernements ont choisi d'imposer le blocage de sites en adoptant ce document. Une telle censure est inefficace pour résoudre ces problèmes, et ouvre la voie à d'autres attaques préjudiciables pour un Internet libre. Seule une mobilisation citoyenne permettra de mettre nos gouvernements devant leurs responsabilités et de protéger l'universalité d'Internet » déclare Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 8 juin 2012 – Dans une décision adoptée à l'unanimité, les États membres de l'Union européenne ont décidé d'encourager l'usage généralisé de la censure de sites Internet, au prétexte de lutter contre la représentation d'abus sexuels sur mineurs. Cette initiative dangereuse doit être dénoncée, tant par les législateurs que par les citoyens : l'Europe ne peut pas abandonner son engagement à défendre l'État de droit en légitimant la censure d'Internet au niveau international.
Le Conseil de l'UE vient d'adopter ses conclusions sur une « alliance globale contre les abus sexuels sur mineur en ligne. » Dans un ajout de dernière minute, ce dernier appelle à :
« faciliter les mesures de suppression ou, lorsqu'approprié, le blocage de sites Internet diffusant de la pédopornographie. » (traduction par nos soins)
À ce jour, grâce au Parlement européen, l'Union européenne a réussi à éviter de faire l'apologie du blocage de sites Internet dans la lutte contre les abus sur mineur, ces mesures étant inefficaces et même contre-productives. Le Parlement européen a même imposé d'importants garde-fous aux États membres qui avaient choisi d'employer ces mesures nationalement.
Cette nouvelle initiative marque une régression dangereuse  : quels que soient les objectifs visés, le blocage de sites est extrêmement dangereux pour les libertés en ligne, conduit à la censure de contenus par ailleurs parfaitement légitimes, et viole les principes les plus élémentaires de l'État de droit1.
« Il est stupéfiant de voir qu'aucun gouvernement de l'Union européenne ne s'est opposé à l'adoption de ces conclusions, qui légitiment la censure d'Internet partout dans le monde, et auront de ce fait des conséquences désastreuses pour les libertés en ligne. En dépit des fortes réserves exprimées par le Parlement européen, les gouvernements ont choisi d'imposer le blocage de sites en adoptant ce document. Une telle censure est inefficace pour résoudre ces problèmes, et ouvre la voie à d'autres attaques préjudiciables pour un Internet libre. Seule une mobilisation citoyenne permettra de mettre nos gouvernements devant leurs responsabilités et de protéger l'universalité d'Internet » déclare Jérémie Zimmermann, cofondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20120608_164305";}s:15:"20120605_113615";a:7:{s:5:"title";s:85:"Les régulateurs européens des télécoms sonnent l'alarme sur la Neutralité du Net";s:4:"link";s:110:"http://www.laquadrature.net/fr/les-regulateurs-europeens-des-telecoms-sonnent-lalarme-sur-la-neutralite-du-net";s:4:"guid";s:35:"5812 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 05 Jun 2012 09:36:15 +0000";s:11:"description";s:13043:"
Bruxelles, 30 mai 2012 - Dans la première étude officielle sur les restrictions d'accès Internet imposées par les opérateurs télécoms, les régulateurs européens des communications de l'Union Européenne (BEREC) dépeignent une situation très préoccupante. Internet tel que nous le connaissons est menacé, et la réticence de la Commission européenne à agir dans ce domaine est totalement irresponsable. À l'image des Pays-Bas, où le Parlement a adopté une loi sur la Neutralité du Net au début du mois de mai, l'Union européenne doit inscrire la Neutralité du Net dans sa législation.
Avec cette étude du BEREC1, sur la gestion du trafic et les restrictions d'accès à Internet récemment publiée, les législateurs européens disposent à présent de la preuve que la situation requiert une action résolue. La politique poussée depuis 2009 par la Commission, qui repose sur une foi aveugle dans la compétition et la transparence sur les pratiques des opérateurs, a clairement montré ses limites.
« Comme le démontre clairement cette étude du BEREC, les opérateurs restreignent de plus en plus les communications de leurs abonnés. Certains ports ou protocoles font l'objet de blocages injustifiés, et les services de certains partenaires des opérateurs sont privilégiés au détriment du reste d'Internet. À cause de ces discriminations, le Net est fragmenté et les innovateurs en tous genres entravés, alors même que les grosses entreprises américaines telles que Google et Facebook passent des accords avec les fournisseurs d'accès. Dans ce contexte, la politique de transparence portée par la Commission européenne revient à accorder un blanc-seing à ces pratiques. », a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Réagissant à cette étude du BEREC, Neelies Kroes a reconnu l'existence du problème, notamment en ce qui concerne l'utilisation de technologies intrusives pour surveiller le trafic Internet des utilisateurs. Elle a également renouvelé ses propositions de l'année dernière pour rendre plus transparentes les restrictions appliquées par les fournisseurs, et permettre aux consommateurs d'en changer plus facilement. Toutefois, comme l'a souligné La Quadrature à de nombreuses reprises au cours des dernières années, cette approche est insuffisante2. Si la Commission souhaite réellement protéger les droits fondamentaux en ligne et encourager l'investissement dans les réseaux3, elle doit proposer de légiférer sur le sujet et garantir juridiquement la neutralité d'Internet.
« Même si les propositions de la commissaire européenne Nellie Kroes font référence au principe fondateur de la Neutralité du Net, elles n'auront aucun effet si elles ne se traduisent pas par une action résolue. La Neutralité du Net doit être inscrite dans la législation européenne, et fournir un cadre strict ouvrant la voie à une régulation adaptée et efficace. Comme Mme Kroes le rappelle timidement, il faut effectivement empêcher les opérateurs d'utiliser le terme « Internet » s'ils bloquent, restreignent, ou différencient certains services ou applications. Les pratiques de gestion de trafic invasives pour la vie privée doivent elles aussi être interdites. Tous les éléments sont sur la table, il est maintenant temps de passer aux actes. » conclut Zimmermann.
L'absence de volonté de la part de la Commission pour garantir la Neutralité du Net démontre que le Parlement européen et les législateurs nationaux auront un rôle majeur à jouer dans la mise en place de mesures significatives au cours des mois à venir. Les citoyens auront également un rôle-clé.
Le BEREC ouvrira une consultation sur divers guides de bonnes pratiques en rapport avec les résultats de son étude sur la gestion de trafic. La date limite pour y répondre est fixée au 31 juillet 2012.
Chronologie de la Neutralité du Net en Europe
13 mars 2012 - Le BEREC publie une étude préliminaire faisant état de violations du principe de Neutralité du Net dans toute l'Europe. La Quadrature du Net avait répondu (lien en anglais) à la consultation du BEREC, sur la base des constations rapportées sur la plateforme RespectMyNet.
13 décembre 2011 - Les États membres de l'Union européenne adoptent des conclusions soulignant la nécessité de « préserver l'aspect neutre et ouvert d'Internet, et considérer la Neutralité du Net comme un objectif politique ».
17 novembre 2011 - Le Parlement européen adopte une résolution appellant la Commission à évaluer rapidement le besoin d'une nouvelle régulation.
7 octobre 2011 - Dans un avis explosif sur la Neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée.
22 septembre 2001 - La Quadrature et Bits of Freedom lancent RespectMyNet.eu, une plateforme permettant aux citoyens de mettre en évidence les restrictions d'accès imposées par les opérateurs.
19 avril 2011 - La Commission publie un rapport extrêmement décevant sur la Neutralité du Net.
Éléments essentiels de l'étude du BEREC
(traduction par nos soins)
Des exemples de traitements différenciés pour le trafic excessif rapportés pour les opérateurs fixes, tels que la priorisation de certains types de trafics ou d'applications aux heures d'affluence (tels que le HTTP, le DNS, la VoIP, le jeu online, la messagerie instantanée, etc.). Pour le réseau mobile, nous constatons des cas où des applications ou des sites web ne sont pas comptabilisés dans la limite mensuelle des données (trafic http, portails de services clients ou applications telles que Facebook.).
En ce qui concernce le P2P, des restrictions à diverses échelles sont rapportées pour 49 opérateurs de réseau fixe (sur 266) et pour 41 opérateurs de réseau mobile (sur 115). En ce qui concerne la VOiP, des restrictions à diverses échelles sont rapportées pour 28 opérateurs de réseau mobile (sur 115). Au moins 20% des abonnés sont concernés par de telles restrictions.
De nombreux opérateurs justifient la mise en œuvre de ces mesures de gestion du trafic par la nécessité de gérer les épisodes de congestion. Les fournisseurs de réseaux IP modernes ont toujours eu recours à des pratiques de gestion de la congestion au sein de leurs propres réseaux.
Ces techniques varient de pratiques traitant tous les types de trafic sans discrimination (généralement désignées par le terme "fair sharing", ou des méthodes similaires) à des pratiques ne restreignant et/ou ne bloquant que certaines applications (typiquement en utilisant des technologies d'inspection des paquets).
Environ un tiers des opérateurs de réseau fixes indiquent dans leurs réponses que des services spécialisés (ou service « gérés ») affectent, dans une certaine mesure, le service « best-effort » des utilisateurs se connectant au même réseau.
1. Les régulateurs nationaux des télécoms sont regroupés au niveau européen au sein de l'office des régulateurs européens des communications électroniques (ORECE en français)
2. Les régulateurs européens ont déjà exercé des pressions sur les opérateurs au sein de groupes de travail et de recommandations, et prévu une action coordonnée au niveau européen par l'intermédiaire du BEREC. Mais des démarches en cours, en particulier en France, montrent que les outils réglementaires existants sont insuffisants pour protéger un Internet libre et neutre. L'ARCEP, le régulateur français, a ainsi mis en place deux groupes de travail au cours des derniers mois : un sur la qualité de service, et un autre sur la transparence. Ce dernier montre l'inquiétante faiblesse du pouvoir de régulation des autorités publiques pour remédier à ces pratiques, bien qu'ils comprennent souvent la necéssité de protéger la neutralité du réseau.
3. D'après Kroes, les limitations des quantités de donnéees téléchargées « fournissent une incitation pour faire payer les volumes des données en fonction des coûts » (traduction par nos soins). De telles affirmations sont pourtant contredites par les études sur le prix de la bande passante. Voir http://www.pingzine.com/global-bandwidth-costs-decreasing/ et http://arstechnica.com/tech-policy/2011/03/att-officially-announces-data... Comme pour la régulation de l'itinérance, la Commission doit protéger les consommateurs contre les modèles économiques préjudiciables.
";s:7:"content";s:13049:"
Bruxelles, 30 mai 2012 - Dans la première étude officielle sur les restrictions d'accès Internet imposées par les opérateurs télécoms, les régulateurs européens des communications de l'Union Européenne (BEREC) dépeignent une situation très préoccupante. Internet tel que nous le connaissons est menacé, et la réticence de la Commission européenne à agir dans ce domaine est totalement irresponsable. À l'image des Pays-Bas, où le Parlement a adopté une loi sur la Neutralité du Net au début du mois de mai, l'Union européenne doit inscrire la Neutralité du Net dans sa législation.
Avec cette étude du BEREC1, sur la gestion du trafic et les restrictions d'accès à Internet récemment publiée, les législateurs européens disposent à présent de la preuve que la situation requiert une action résolue. La politique poussée depuis 2009 par la Commission, qui repose sur une foi aveugle dans la compétition et la transparence sur les pratiques des opérateurs, a clairement montré ses limites.
« Comme le démontre clairement cette étude du BEREC, les opérateurs restreignent de plus en plus les communications de leurs abonnés. Certains ports ou protocoles font l'objet de blocages injustifiés, et les services de certains partenaires des opérateurs sont privilégiés au détriment du reste d'Internet. À cause de ces discriminations, le Net est fragmenté et les innovateurs en tous genres entravés, alors même que les grosses entreprises américaines telles que Google et Facebook passent des accords avec les fournisseurs d'accès. Dans ce contexte, la politique de transparence portée par la Commission européenne revient à accorder un blanc-seing à ces pratiques. », a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
Réagissant à cette étude du BEREC, Neelies Kroes a reconnu l'existence du problème, notamment en ce qui concerne l'utilisation de technologies intrusives pour surveiller le trafic Internet des utilisateurs. Elle a également renouvelé ses propositions de l'année dernière pour rendre plus transparentes les restrictions appliquées par les fournisseurs, et permettre aux consommateurs d'en changer plus facilement. Toutefois, comme l'a souligné La Quadrature à de nombreuses reprises au cours des dernières années, cette approche est insuffisante2. Si la Commission souhaite réellement protéger les droits fondamentaux en ligne et encourager l'investissement dans les réseaux3, elle doit proposer de légiférer sur le sujet et garantir juridiquement la neutralité d'Internet.
« Même si les propositions de la commissaire européenne Nellie Kroes font référence au principe fondateur de la Neutralité du Net, elles n'auront aucun effet si elles ne se traduisent pas par une action résolue. La Neutralité du Net doit être inscrite dans la législation européenne, et fournir un cadre strict ouvrant la voie à une régulation adaptée et efficace. Comme Mme Kroes le rappelle timidement, il faut effectivement empêcher les opérateurs d'utiliser le terme « Internet » s'ils bloquent, restreignent, ou différencient certains services ou applications. Les pratiques de gestion de trafic invasives pour la vie privée doivent elles aussi être interdites. Tous les éléments sont sur la table, il est maintenant temps de passer aux actes. » conclut Zimmermann.
L'absence de volonté de la part de la Commission pour garantir la Neutralité du Net démontre que le Parlement européen et les législateurs nationaux auront un rôle majeur à jouer dans la mise en place de mesures significatives au cours des mois à venir. Les citoyens auront également un rôle-clé.
Le BEREC ouvrira une consultation sur divers guides de bonnes pratiques en rapport avec les résultats de son étude sur la gestion de trafic. La date limite pour y répondre est fixée au 31 juillet 2012.
Chronologie de la Neutralité du Net en Europe
13 mars 2012 - Le BEREC publie une étude préliminaire faisant état de violations du principe de Neutralité du Net dans toute l'Europe. La Quadrature du Net avait répondu (lien en anglais) à la consultation du BEREC, sur la base des constations rapportées sur la plateforme RespectMyNet.
13 décembre 2011 - Les États membres de l'Union européenne adoptent des conclusions soulignant la nécessité de « préserver l'aspect neutre et ouvert d'Internet, et considérer la Neutralité du Net comme un objectif politique ».
17 novembre 2011 - Le Parlement européen adopte une résolution appellant la Commission à évaluer rapidement le besoin d'une nouvelle régulation.
7 octobre 2011 - Dans un avis explosif sur la Neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée.
22 septembre 2001 - La Quadrature et Bits of Freedom lancent RespectMyNet.eu, une plateforme permettant aux citoyens de mettre en évidence les restrictions d'accès imposées par les opérateurs.
19 avril 2011 - La Commission publie un rapport extrêmement décevant sur la Neutralité du Net.
Éléments essentiels de l'étude du BEREC
(traduction par nos soins)
Des exemples de traitements différenciés pour le trafic excessif rapportés pour les opérateurs fixes, tels que la priorisation de certains types de trafics ou d'applications aux heures d'affluence (tels que le HTTP, le DNS, la VoIP, le jeu online, la messagerie instantanée, etc.). Pour le réseau mobile, nous constatons des cas où des applications ou des sites web ne sont pas comptabilisés dans la limite mensuelle des données (trafic http, portails de services clients ou applications telles que Facebook.).
En ce qui concernce le P2P, des restrictions à diverses échelles sont rapportées pour 49 opérateurs de réseau fixe (sur 266) et pour 41 opérateurs de réseau mobile (sur 115). En ce qui concerne la VOiP, des restrictions à diverses échelles sont rapportées pour 28 opérateurs de réseau mobile (sur 115). Au moins 20% des abonnés sont concernés par de telles restrictions.
De nombreux opérateurs justifient la mise en œuvre de ces mesures de gestion du trafic par la nécessité de gérer les épisodes de congestion. Les fournisseurs de réseaux IP modernes ont toujours eu recours à des pratiques de gestion de la congestion au sein de leurs propres réseaux.
Ces techniques varient de pratiques traitant tous les types de trafic sans discrimination (généralement désignées par le terme "fair sharing", ou des méthodes similaires) à des pratiques ne restreignant et/ou ne bloquant que certaines applications (typiquement en utilisant des technologies d'inspection des paquets).
Environ un tiers des opérateurs de réseau fixes indiquent dans leurs réponses que des services spécialisés (ou service « gérés ») affectent, dans une certaine mesure, le service « best-effort » des utilisateurs se connectant au même réseau.
1. Les régulateurs nationaux des télécoms sont regroupés au niveau européen au sein de l'office des régulateurs européens des communications électroniques (ORECE en français)
2. Les régulateurs européens ont déjà exercé des pressions sur les opérateurs au sein de groupes de travail et de recommandations, et prévu une action coordonnée au niveau européen par l'intermédiaire du BEREC. Mais des démarches en cours, en particulier en France, montrent que les outils réglementaires existants sont insuffisants pour protéger un Internet libre et neutre. L'ARCEP, le régulateur français, a ainsi mis en place deux groupes de travail au cours des derniers mois : un sur la qualité de service, et un autre sur la transparence. Ce dernier montre l'inquiétante faiblesse du pouvoir de régulation des autorités publiques pour remédier à ces pratiques, bien qu'ils comprennent souvent la necéssité de protéger la neutralité du réseau.
3. D'après Kroes, les limitations des quantités de donnéees téléchargées « fournissent une incitation pour faire payer les volumes des données en fonction des coûts » (traduction par nos soins). De telles affirmations sont pourtant contredites par les études sur le prix de la bande passante. Voir http://www.pingzine.com/global-bandwidth-costs-decreasing/ et http://arstechnica.com/tech-policy/2011/03/att-officially-announces-data... Comme pour la régulation de l'itinérance, la Commission doit protéger les consommateurs contre les modèles économiques préjudiciables.
";s:7:"dateiso";s:15:"20120605_113615";}s:15:"20120530_151801";a:7:{s:5:"title";s:94:"ACTA : recommandations de vote de La Quadrature du Net pour les commissions LIBE, ITRE et JURI";s:4:"link";s:122:"http://www.laquadrature.net/fr/acta-recommandations-de-vote-de-la-quadrature-du-net-pour-les-commissions-libe-itre-et-juri";s:4:"guid";s:35:"5797 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 30 May 2012 13:18:01 +0000";s:11:"description";s:6433:"
La Quadrature du Net a envoyé hier une lettre de recommandations à trois commissions du Parlement européen, les appelant à voter le rejet de l'ACTA demain.
Les commissions « Affaires juridiques » (JURI), « Libertés civiles » (LIBE) et « Industrie » (ITRE) voteront leurs rapports pour avis sur ACTA le 31 mai (en savoir plus sur la procédure suivie par ACTA). Pour replacer ces votes dans leur contexte, voir notre communiqué de la semaine dernière.
La Quadrature a évalué les amendements proposés dans les commissions JURI et ITRE, et en a tiré les plus importants :
Quant au rapport de la commission JURI, aucun amendement n'a été déposé. Ce rapport pro-ACTA, négligeant de nombreux éléments cruciaux de l'accord, doit impérativement être rejeté.
Tous les citoyens peuvent agir pour le rejet d'ACTA en contactant les membres de ces commissions en amont des votes.
Letter to LIBE committee
Dear member of the LIBE committee,
On Thursday, you will hold a vote on rapporteur Dimitrios Droutsas' excellent draft report regarding the impact of the anti-counterfeiting trade agreement (ACTA) on fundamental rights.
Through this vote, you must ensure that the LIBE committee acknowledge the ruthless copyright and patent enforcement embodied by ACTA is a threat for fundamental rights, and that the agreement must therefore be rejected.
As a consequence, we call on you to:
reject amendments 21, 22, 23, which minimise the lack of safeguards in ACTA or else falsely suggest that ACTA's dangers can be addresses by the Commission and/or Member States in the course of implementation.
adopt amendments 42, which calls on the Trade committee to recommend that the Parliament withhold consent to ACTA, as well as amendments 24, 36 which stress the dangers of privatised copyright enforcement and stress the need for a revised approach to copyright enforcement.
We trust that through your vote you will acknowledge and relay the many criticisms of ACTA coming from citizens, academics, NGOs and EU bodies.
Respectfully,
LQDN
Letter to ITRE committee
Dear member of the ITRE committee,
On Thursday, you will hold a vote on rapporteur Amelia Andersdotter's excellent draft report regarding the impact of the anti-counterfeiting trade agreement (ACTA) on growth and innovation.
This vote is a unique opportunity for you to make clear that you have heard the voice of the many small businesses and trade associations who have argued that ACTA would favor big right-holders over innovators and creators.
Through this vote, you must ensure that the ITRE committee acknowledge the ruthless and expansive copyright and patent enforcement embodied by ACTA is a threat for a vibrant knowledge economy, and that the agreement must therefore be rejected.
As a consequence, we call on you to:
reject amendments 32, 39, 40, 41 which minimise the lack of safeguards in ACTA or else refuse to clearly call for a rejection of ACTA.
adopt amendments 2, 24, 38, which point to some of ACTA's most important flaws, and urge for a more balanced approach to copyright and patent enforcement.
We trust that through your vote you will acknowledge and relay the many criticisms of ACTA coming from citizens, academics, NGOs and EU bodies.
Respectfully,
LQDN.
Letter to JURI committee
Dear member of the JURI committee,
On Thursday, your committee will hold a vote on rapporteur Marielle Gallo's draft opinion report on the Anti-counterfeiting Trade Agreement (ACTA).
Unsurprisingly, this draft is a fierceful defence of ACTA relying on untransparent assumptions and gross misinterpretations of the agreement, as we pointed in a memo sent last month (memo available here: http://is.gd/RYsoWQ). In particular, her conclusion that ACTA respects EU law is contradicted by several independent analysis carried on by scholars, NGOs and public institutions, such as most recently the European Data Protection Supervisor (see: http://is.gd/YkqYf3).
JURI members must oppose Mrs. Gallo's endorsement of ACTA, a vaguely worded agreement circumventing democratic procedures to push a repressive trend in the field of copyright, patents and trademarks. This agreement would set in stone today's contentious policies and block any possibility for EU and national lawmakers to propose positive reforms in these fields.
We trust that you will be responsive to the many concerns expressed against ACTA by opposing the rapporteur's draft report.
Respectfully,
LQDN.
";s:7:"content";s:6433:"
La Quadrature du Net a envoyé hier une lettre de recommandations à trois commissions du Parlement européen, les appelant à voter le rejet de l'ACTA demain.
Les commissions « Affaires juridiques » (JURI), « Libertés civiles » (LIBE) et « Industrie » (ITRE) voteront leurs rapports pour avis sur ACTA le 31 mai (en savoir plus sur la procédure suivie par ACTA). Pour replacer ces votes dans leur contexte, voir notre communiqué de la semaine dernière.
La Quadrature a évalué les amendements proposés dans les commissions JURI et ITRE, et en a tiré les plus importants :
Quant au rapport de la commission JURI, aucun amendement n'a été déposé. Ce rapport pro-ACTA, négligeant de nombreux éléments cruciaux de l'accord, doit impérativement être rejeté.
Tous les citoyens peuvent agir pour le rejet d'ACTA en contactant les membres de ces commissions en amont des votes.
Letter to LIBE committee
Dear member of the LIBE committee,
On Thursday, you will hold a vote on rapporteur Dimitrios Droutsas' excellent draft report regarding the impact of the anti-counterfeiting trade agreement (ACTA) on fundamental rights.
Through this vote, you must ensure that the LIBE committee acknowledge the ruthless copyright and patent enforcement embodied by ACTA is a threat for fundamental rights, and that the agreement must therefore be rejected.
As a consequence, we call on you to:
reject amendments 21, 22, 23, which minimise the lack of safeguards in ACTA or else falsely suggest that ACTA's dangers can be addresses by the Commission and/or Member States in the course of implementation.
adopt amendments 42, which calls on the Trade committee to recommend that the Parliament withhold consent to ACTA, as well as amendments 24, 36 which stress the dangers of privatised copyright enforcement and stress the need for a revised approach to copyright enforcement.
We trust that through your vote you will acknowledge and relay the many criticisms of ACTA coming from citizens, academics, NGOs and EU bodies.
Respectfully,
LQDN
Letter to ITRE committee
Dear member of the ITRE committee,
On Thursday, you will hold a vote on rapporteur Amelia Andersdotter's excellent draft report regarding the impact of the anti-counterfeiting trade agreement (ACTA) on growth and innovation.
This vote is a unique opportunity for you to make clear that you have heard the voice of the many small businesses and trade associations who have argued that ACTA would favor big right-holders over innovators and creators.
Through this vote, you must ensure that the ITRE committee acknowledge the ruthless and expansive copyright and patent enforcement embodied by ACTA is a threat for a vibrant knowledge economy, and that the agreement must therefore be rejected.
As a consequence, we call on you to:
reject amendments 32, 39, 40, 41 which minimise the lack of safeguards in ACTA or else refuse to clearly call for a rejection of ACTA.
adopt amendments 2, 24, 38, which point to some of ACTA's most important flaws, and urge for a more balanced approach to copyright and patent enforcement.
We trust that through your vote you will acknowledge and relay the many criticisms of ACTA coming from citizens, academics, NGOs and EU bodies.
Respectfully,
LQDN.
Letter to JURI committee
Dear member of the JURI committee,
On Thursday, your committee will hold a vote on rapporteur Marielle Gallo's draft opinion report on the Anti-counterfeiting Trade Agreement (ACTA).
Unsurprisingly, this draft is a fierceful defence of ACTA relying on untransparent assumptions and gross misinterpretations of the agreement, as we pointed in a memo sent last month (memo available here: http://is.gd/RYsoWQ). In particular, her conclusion that ACTA respects EU law is contradicted by several independent analysis carried on by scholars, NGOs and public institutions, such as most recently the European Data Protection Supervisor (see: http://is.gd/YkqYf3).
JURI members must oppose Mrs. Gallo's endorsement of ACTA, a vaguely worded agreement circumventing democratic procedures to push a repressive trend in the field of copyright, patents and trademarks. This agreement would set in stone today's contentious policies and block any possibility for EU and national lawmakers to propose positive reforms in these fields.
We trust that you will be responsive to the many concerns expressed against ACTA by opposing the rapporteur's draft report.
Respectfully,
LQDN.
";s:7:"dateiso";s:15:"20120530_151801";}s:15:"20120523_132041";a:7:{s:5:"title";s:46:"ACTA : action requise pour les votes décisifs";s:4:"link";s:74:"http://www.laquadrature.net/fr/acta-action-requise-pour-les-votes-decisifs";s:4:"guid";s:35:"5780 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 23 May 2012 11:20:41 +0000";s:11:"description";s:6779:"
Paris, 22 mai 2012 – La semaine prochaine le Parlement européen votera, au sein des commissions parlementaires, sur ACTA. Les citoyens soucieux de voir cet accord rejeté doivent agir auprès des membres des commissions des affaires juridiques (JURI), de l'industrie (ITRE), et des libertés publiques (LIBE), qui se prononceront le 31 mai.
Prévu pour la séance plénière du 3 au 5 juillet, le vote final d'ACTA au Parlement européen se rapproche et sera déterminé par le rapport final de la commission INTA. De leur côté, les différentes commissions parlementaires travaillant sur ACTA s'apprêtent à voter leurs rapports1, pour les transmettre à INTA. Les derniers échanges au Parlement européen ont démontré que les lobbyistes des derniers défenseurs d'ACTA, tentent encore de faire pression. Le projet de rapport de la commission « Industrie » (ITRE), particulièrement positif jusqu'ici, risque par exemple d'être neutralisé lors du vote.
Les citoyens ont une influence décisive sur les débats au Parlement européen. Il faut maintenir la pression lors des votes des avis en commissions et lors du vote du rapport définitif, afin que le Parlement n'ait d'autre option, pendant la plénière, que de rejeter massivement ACTA. Un rejet franc et massif, porté par une forte mobilisation citoyenne, permettra d'ouvrir la voie à une réforme positive du droit d'auteur.
Commission des « Affaires juridiques » (JURI) - Vote le 31 mai
Le projet d'avis de la rapporteure Marielle Gallo est entièrement favorable à ACTA, et sera présenté au vote le 31 mai. Il sera voté sans amendements, ultime manœuvre de la rapporteure, connue pour ses positions répressives en matière de droit d'auteur. Le projet d'avis de Mme Gallo doit être rejeté en JURI.
Commission « Industrie » (ITRE) - Vote le 31 mai
La présentation de l'excellent rapport d'Amelia Andersdotter, le 24 avril, a donné lieu à des échanges tendus2. Ces échanges illustrent les efforts renouvelés de l'industrie du divertissement pour influencer les eurodéputés et contrer les citoyens opposés à ACTA.
Le vote du rapport et de ses amendements aura lieu le 31 mai. Certains de ces amendements proposent la modification, pour la neutraliser, de sa recommandation appelant actuellement au rejet pur et simple d'ACTA. La mobilisation citoyenne est cruciale pour s'assurer que la commission ITRE vote en faveur du rapport initial et appelle au rejet d'ACTA. Les amendements 39, 40 et 41 doivent être rejetés..
Commission « Libertés civiles » (LIBE) - Vote le 31 mai
Le rapporteur Dimitrios Droutsas présentera au vote, le 31 mai, son excellent projet de rapport, concluant à la non compatibilité d'ACTA avec la Charte des droits fondamentaux de l'Union européenne. Les citoyens doivent s'assurer que le rapport LIBE sera voté en l'état et ne sera pas neutralisé par d'éventuels amendements. L'amendement 42, recommandant que ACTA soit rejeté, doit être adopté.
Une fois les avis des commissions JURI, ITRE, LIBE et DEVE votés, ils seront transmis à la commission principale, INTA (commerce international), qui votera à son tour sur son propre rapport et ses amendements. La finalisation et le vote du rapport INTA sera l'ultime et décisive étape qui orientera, en fonction de sa recommandation, l'adoption ou le rejet d'ACTA par l'ensemble du Parlement, et donc l'Union Européenne. Si nous restons vigilants et mobilisés, nous gagnerons.
Résumé des prochaines étapes :
Mercredi 30 mai échange de vues en JURI
Jeudi 31 mai : Votes des rapports LIBE, JURI et ITRE
Lundi 4 juin : Vote du rapport DEVE
Mercredi 21 juin : Vote du rapport INTA
Mardi 3 ou mercredi 4 ou jeudi 5 juillet : Vote final en plénière
2. Un nombre surprenant de partisans d'ACTA ont pris la parole pour appeler le Parlement européen à adopter l'accord ou, du moins, à repousser le vote après une hypothétique décision de la Cour de Justice de l'Union européenne. À lire : ACTA en commissions parlementaires : la participation citoyenne est urgente.
";s:7:"content";s:6779:"
Paris, 22 mai 2012 – La semaine prochaine le Parlement européen votera, au sein des commissions parlementaires, sur ACTA. Les citoyens soucieux de voir cet accord rejeté doivent agir auprès des membres des commissions des affaires juridiques (JURI), de l'industrie (ITRE), et des libertés publiques (LIBE), qui se prononceront le 31 mai.
Prévu pour la séance plénière du 3 au 5 juillet, le vote final d'ACTA au Parlement européen se rapproche et sera déterminé par le rapport final de la commission INTA. De leur côté, les différentes commissions parlementaires travaillant sur ACTA s'apprêtent à voter leurs rapports1, pour les transmettre à INTA. Les derniers échanges au Parlement européen ont démontré que les lobbyistes des derniers défenseurs d'ACTA, tentent encore de faire pression. Le projet de rapport de la commission « Industrie » (ITRE), particulièrement positif jusqu'ici, risque par exemple d'être neutralisé lors du vote.
Les citoyens ont une influence décisive sur les débats au Parlement européen. Il faut maintenir la pression lors des votes des avis en commissions et lors du vote du rapport définitif, afin que le Parlement n'ait d'autre option, pendant la plénière, que de rejeter massivement ACTA. Un rejet franc et massif, porté par une forte mobilisation citoyenne, permettra d'ouvrir la voie à une réforme positive du droit d'auteur.
Commission des « Affaires juridiques » (JURI) - Vote le 31 mai
Le projet d'avis de la rapporteure Marielle Gallo est entièrement favorable à ACTA, et sera présenté au vote le 31 mai. Il sera voté sans amendements, ultime manœuvre de la rapporteure, connue pour ses positions répressives en matière de droit d'auteur. Le projet d'avis de Mme Gallo doit être rejeté en JURI.
Commission « Industrie » (ITRE) - Vote le 31 mai
La présentation de l'excellent rapport d'Amelia Andersdotter, le 24 avril, a donné lieu à des échanges tendus2. Ces échanges illustrent les efforts renouvelés de l'industrie du divertissement pour influencer les eurodéputés et contrer les citoyens opposés à ACTA.
Le vote du rapport et de ses amendements aura lieu le 31 mai. Certains de ces amendements proposent la modification, pour la neutraliser, de sa recommandation appelant actuellement au rejet pur et simple d'ACTA. La mobilisation citoyenne est cruciale pour s'assurer que la commission ITRE vote en faveur du rapport initial et appelle au rejet d'ACTA. Les amendements 39, 40 et 41 doivent être rejetés..
Commission « Libertés civiles » (LIBE) - Vote le 31 mai
Le rapporteur Dimitrios Droutsas présentera au vote, le 31 mai, son excellent projet de rapport, concluant à la non compatibilité d'ACTA avec la Charte des droits fondamentaux de l'Union européenne. Les citoyens doivent s'assurer que le rapport LIBE sera voté en l'état et ne sera pas neutralisé par d'éventuels amendements. L'amendement 42, recommandant que ACTA soit rejeté, doit être adopté.
Une fois les avis des commissions JURI, ITRE, LIBE et DEVE votés, ils seront transmis à la commission principale, INTA (commerce international), qui votera à son tour sur son propre rapport et ses amendements. La finalisation et le vote du rapport INTA sera l'ultime et décisive étape qui orientera, en fonction de sa recommandation, l'adoption ou le rejet d'ACTA par l'ensemble du Parlement, et donc l'Union Européenne. Si nous restons vigilants et mobilisés, nous gagnerons.
Résumé des prochaines étapes :
Mercredi 30 mai échange de vues en JURI
Jeudi 31 mai : Votes des rapports LIBE, JURI et ITRE
Lundi 4 juin : Vote du rapport DEVE
Mercredi 21 juin : Vote du rapport INTA
Mardi 3 ou mercredi 4 ou jeudi 5 juillet : Vote final en plénière
2. Un nombre surprenant de partisans d'ACTA ont pris la parole pour appeler le Parlement européen à adopter l'accord ou, du moins, à repousser le vote après une hypothétique décision de la Cour de Justice de l'Union européenne. À lire : ACTA en commissions parlementaires : la participation citoyenne est urgente.
";s:7:"dateiso";s:15:"20120523_132041";}s:15:"20120518_164703";a:7:{s:5:"title";s:55:"Libertés sur Internet : le gouvernement doit s'engager";s:4:"link";s:82:"http://www.laquadrature.net/fr/libertes-sur-internet-le-gouvernement-doit-sengager";s:4:"guid";s:35:"5772 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 18 May 2012 14:47:03 +0000";s:11:"description";s:5895:"
Texte publié sur le blog de Philippe Aigrain, co-fondateur de La Quadrature du Net
Un nouveau gouvernement vient d’être formé. Aurélie Filippetti y a été nommée ministre de la Culture et de la Communication. Elle hérite de la campagne une situation assez chaotique. Rappelons qu’avant le début de cette campagne, un travail de fond avait été conduit dans des groupes du Laboratoire des idées du Parti socialiste, mais aussi au sein d’EELV et du Parti de gauche, avec à chaque fois la participation d’experts extérieurs et d’acteurs culturels. Ces groupes avaient élaboré sur les relations internet / culture des projets assez clairs et cohérents entre eux, associant :
l’abrogration d’HADOPI et de certaines dispositions de la DADVSI ;
la légalisation du partage non-marchand entre individus précisément délimité ;
la mise en place de nouveaux financements contributifs (principalement issus des internautes mais aussi abondés par des prélèvements sur les FAI) visant à la fois une rémunération supplémentaire pour les auteurs et autres contributeurs aux œuvres et une source de financement additionnel pour la production de nouvelles œuvres ;
un engagement fort pour la capacitation culturelle, à travers l’éducation culturelle et artistique, l’éducation populaire, et les pratiques amateur ;
des licences collectives pour la mise à disposition commerciale en ligne pour encourager la disponibilité commerciale de toutes les œuvres selon des termes équitables ;
une approche du livre et de l’écriture numérique qui prend en compte ses nouvelles potentialités au lieu de bétonner les positions acquises d’éditeurs conservateurs ;
la défense efficace de la neutralité du net ;
diverses mesures pour encourager les producteurs et intermédiaires à valeur ajoutée ;
et enfin, le soutien à la numérisation et à la diffusion libre par les bibliothèques et archives des œuvres du domaine public ou orphelines.
Dès la primaire socialiste, on a assisté à des valses-hésitations, avec des déclarations contradictoires sur fond de mobilisation frénétique des lobbys externes et de leurs représentants ou amis internes. Jamais la fracture culturelle entre les porteurs de dossier ayant construit une compréhension de fond du sujet, et ceux qui ignorant tout d’internet et des nouvelles pratiques culturelles ne recherchaient que la garantie du soutien de quelques artistes, d’un ministre, de dirigeants de sociétés de gestion et de lobbys de producteurs n’a parue si vive. Il y a quelques jours encore, des « représentants » du candidat ou président élu mais non encore en fonction ont négocié avec l’HADOPI la continuation de son activité et de l’usage de son budget, en totale contradiction avec les politiques annoncées au même moment et alors même qu’un Parlement qui n’est pas encore élu va débattre d’un collectif budgétaire.
Il faut aujourd’hui surtout espérer que l’on va enfin laisser travailler ceux pour qui c’est la création vivante et le partage de la culture par tous qui comptent. Qu’ils vont enfin pouvoir sortir de l’urgence permanente créée chaque jour par les lobbyistes, prendre le temps et la distance de la réflexion, du débat sur les faits. Nos exigences à cet égard doivent être modestes et mesurées :
Que la commission annoncée pour explorer les voies de « l’exception culturelle 2.0 » soit constituée uniquement de personnalités indépendantes de tout intérêt économique (qu’il s’agisse de ceux des industries culturelles ou des intermédiaires d’internet), à charge pour elle d’auditionner qui elle estimera utile. L’indépendance doit s’entendre ici dans un sens fort, il ne suffit pas d’avoir quitté les postes qu’on occupait hier pour pouvoir s’en targuer ;
Que toutes les options, et en particulier celles qui reposent sur la reconnaissance du partage non-marchand et la mise en place de nouveaux financements contributifs qui a été interdite de débat dans toutes les commissions publiques jusqu’à présent, soient discutées à égale légitimité, étudiées par des experts indépendants et soumises à l’appréciation du public ;
Que ces débats soient reliés aux projets de réforme du copyright et du droit d’auteur qui vont apparaître dans l’agenda européen dès qu’on aura pris la mesure de ce que signifie le rejet d’ACTA.
Ces travaux prendront du temps. Mais le nouveau gouvernement a une responsabilité urgente en attendant. Il doit immédiatement annoncer qu’il ne soumettra pas ACTA à ratification. Plus de la moitié des pays européens n’ont soit pas signé ACTA, soit suspendu sa ratification. Lorsqu’on discute avec les députés européens de ces pays, une question vient immédiatement : quand le nouveau gouvernement français va-t-il annoncer qu’il se rallie à l’opposition à ACTA ? Nos propres gouvernements, disent-ils, attendent cette décision. Ne les faites pas attendre. C’est la position constante et affichée des partis qui ont soutenu le nouveau président au deuxième tour de s’opposer à ACTA. Il s’agit juste de le rappeler, mais vite, s’il vous plaît.
";s:7:"content";s:5895:"
Texte publié sur le blog de Philippe Aigrain, co-fondateur de La Quadrature du Net
Un nouveau gouvernement vient d’être formé. Aurélie Filippetti y a été nommée ministre de la Culture et de la Communication. Elle hérite de la campagne une situation assez chaotique. Rappelons qu’avant le début de cette campagne, un travail de fond avait été conduit dans des groupes du Laboratoire des idées du Parti socialiste, mais aussi au sein d’EELV et du Parti de gauche, avec à chaque fois la participation d’experts extérieurs et d’acteurs culturels. Ces groupes avaient élaboré sur les relations internet / culture des projets assez clairs et cohérents entre eux, associant :
l’abrogration d’HADOPI et de certaines dispositions de la DADVSI ;
la légalisation du partage non-marchand entre individus précisément délimité ;
la mise en place de nouveaux financements contributifs (principalement issus des internautes mais aussi abondés par des prélèvements sur les FAI) visant à la fois une rémunération supplémentaire pour les auteurs et autres contributeurs aux œuvres et une source de financement additionnel pour la production de nouvelles œuvres ;
un engagement fort pour la capacitation culturelle, à travers l’éducation culturelle et artistique, l’éducation populaire, et les pratiques amateur ;
des licences collectives pour la mise à disposition commerciale en ligne pour encourager la disponibilité commerciale de toutes les œuvres selon des termes équitables ;
une approche du livre et de l’écriture numérique qui prend en compte ses nouvelles potentialités au lieu de bétonner les positions acquises d’éditeurs conservateurs ;
la défense efficace de la neutralité du net ;
diverses mesures pour encourager les producteurs et intermédiaires à valeur ajoutée ;
et enfin, le soutien à la numérisation et à la diffusion libre par les bibliothèques et archives des œuvres du domaine public ou orphelines.
Dès la primaire socialiste, on a assisté à des valses-hésitations, avec des déclarations contradictoires sur fond de mobilisation frénétique des lobbys externes et de leurs représentants ou amis internes. Jamais la fracture culturelle entre les porteurs de dossier ayant construit une compréhension de fond du sujet, et ceux qui ignorant tout d’internet et des nouvelles pratiques culturelles ne recherchaient que la garantie du soutien de quelques artistes, d’un ministre, de dirigeants de sociétés de gestion et de lobbys de producteurs n’a parue si vive. Il y a quelques jours encore, des « représentants » du candidat ou président élu mais non encore en fonction ont négocié avec l’HADOPI la continuation de son activité et de l’usage de son budget, en totale contradiction avec les politiques annoncées au même moment et alors même qu’un Parlement qui n’est pas encore élu va débattre d’un collectif budgétaire.
Il faut aujourd’hui surtout espérer que l’on va enfin laisser travailler ceux pour qui c’est la création vivante et le partage de la culture par tous qui comptent. Qu’ils vont enfin pouvoir sortir de l’urgence permanente créée chaque jour par les lobbyistes, prendre le temps et la distance de la réflexion, du débat sur les faits. Nos exigences à cet égard doivent être modestes et mesurées :
Que la commission annoncée pour explorer les voies de « l’exception culturelle 2.0 » soit constituée uniquement de personnalités indépendantes de tout intérêt économique (qu’il s’agisse de ceux des industries culturelles ou des intermédiaires d’internet), à charge pour elle d’auditionner qui elle estimera utile. L’indépendance doit s’entendre ici dans un sens fort, il ne suffit pas d’avoir quitté les postes qu’on occupait hier pour pouvoir s’en targuer ;
Que toutes les options, et en particulier celles qui reposent sur la reconnaissance du partage non-marchand et la mise en place de nouveaux financements contributifs qui a été interdite de débat dans toutes les commissions publiques jusqu’à présent, soient discutées à égale légitimité, étudiées par des experts indépendants et soumises à l’appréciation du public ;
Que ces débats soient reliés aux projets de réforme du copyright et du droit d’auteur qui vont apparaître dans l’agenda européen dès qu’on aura pris la mesure de ce que signifie le rejet d’ACTA.
Ces travaux prendront du temps. Mais le nouveau gouvernement a une responsabilité urgente en attendant. Il doit immédiatement annoncer qu’il ne soumettra pas ACTA à ratification. Plus de la moitié des pays européens n’ont soit pas signé ACTA, soit suspendu sa ratification. Lorsqu’on discute avec les députés européens de ces pays, une question vient immédiatement : quand le nouveau gouvernement français va-t-il annoncer qu’il se rallie à l’opposition à ACTA ? Nos propres gouvernements, disent-ils, attendent cette décision. Ne les faites pas attendre. C’est la position constante et affichée des partis qui ont soutenu le nouveau président au deuxième tour de s’opposer à ACTA. Il s’agit juste de le rappeler, mais vite, s’il vous plaît.
";s:7:"dateiso";s:15:"20120518_164703";}s:15:"20120516_201459";a:7:{s:5:"title";s:60:"Le nouveau gouvernement doit protéger la neutralité du Net";s:4:"link";s:89:"http://www.laquadrature.net/fr/le-nouveau-gouvernement-doit-proteger-la-neutralite-du-net";s:4:"guid";s:35:"5770 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 16 May 2012 18:14:59 +0000";s:11:"description";s:3587:"
Paris, 16 mai 2012 - Alors que vient d'être nommée Fleur Pellerin au poste de ministre déléguée chargée des PME, de l'innovation et de l'économie numérique, La Quadrature du Net l'appelle, ainsi que l'ensemble du nouveau gouvernement, à œuvrer rapidement pour protéger dans la loi le principe de neutralité du Net.
Fleur Pellerin, nommée aujourd'hui ministre déléguée chargée des PME, de l'innovation et de l'économie numérique, devra faire ses preuves et mettre rapidement en œuvre l'engagement de François Hollande en faveur de la neutralité du Net, en faisant inscrire ce principe dans la loi.
Ce principe essentiel pour la participation citoyenne et l'innovation en ligne est régulièrement bafoué en France et dans le reste de l'Europe, comme le montre la plate-forme Respect My Net1. Or, alors même que les régulateurs européens des télécoms lui ont récemment fourni des preuves que les opérateurs discriminent de manière illégitime les communications Internet de leurs abonnés, la commissaire européenne Neelie Kroes freine toute action au niveau européen.
« Le nouveau gouvernement français doit suivre l'exemple des Pays Bas, où a été adoptée la semaine dernière une loi protégeant la neutralité du Net. Les citoyens ne comprendraient pas qu'il cède aux lobbies des télécoms, en laissant les opérateurs porter atteinte à la liberté de communication des utilisateurs, à l'universalité d'Internet et à l'innovation. Trop de temps a déjà été perdu. Internet est un bien commun au service de tous et doit être consacré dans la loi », a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En 2011, dans un rapport de référence, une mission trans-partisane de l'Assemblée nationale appelait à donner une « portée normative adéquate au principe de neutralité » et à réserver l’appellation « Internet » aux seules offres d'accès respectant le principe de neutralité.
1. La plate-forme RespectMyNet recense les atteintes à la neutralité du Net signalées par des abonnés partout en Europe. Pour avoir un aperçu des restrictions d'accès imposées par les fournisseurs d'accès français et confirmer les cas recensés, rendez-vous sur cette page.
";s:7:"content";s:3587:"
Paris, 16 mai 2012 - Alors que vient d'être nommée Fleur Pellerin au poste de ministre déléguée chargée des PME, de l'innovation et de l'économie numérique, La Quadrature du Net l'appelle, ainsi que l'ensemble du nouveau gouvernement, à œuvrer rapidement pour protéger dans la loi le principe de neutralité du Net.
Fleur Pellerin, nommée aujourd'hui ministre déléguée chargée des PME, de l'innovation et de l'économie numérique, devra faire ses preuves et mettre rapidement en œuvre l'engagement de François Hollande en faveur de la neutralité du Net, en faisant inscrire ce principe dans la loi.
Ce principe essentiel pour la participation citoyenne et l'innovation en ligne est régulièrement bafoué en France et dans le reste de l'Europe, comme le montre la plate-forme Respect My Net1. Or, alors même que les régulateurs européens des télécoms lui ont récemment fourni des preuves que les opérateurs discriminent de manière illégitime les communications Internet de leurs abonnés, la commissaire européenne Neelie Kroes freine toute action au niveau européen.
« Le nouveau gouvernement français doit suivre l'exemple des Pays Bas, où a été adoptée la semaine dernière une loi protégeant la neutralité du Net. Les citoyens ne comprendraient pas qu'il cède aux lobbies des télécoms, en laissant les opérateurs porter atteinte à la liberté de communication des utilisateurs, à l'universalité d'Internet et à l'innovation. Trop de temps a déjà été perdu. Internet est un bien commun au service de tous et doit être consacré dans la loi », a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En 2011, dans un rapport de référence, une mission trans-partisane de l'Assemblée nationale appelait à donner une « portée normative adéquate au principe de neutralité » et à réserver l’appellation « Internet » aux seules offres d'accès respectant le principe de neutralité.
1. La plate-forme RespectMyNet recense les atteintes à la neutralité du Net signalées par des abonnés partout en Europe. Pour avoir un aperçu des restrictions d'accès imposées par les fournisseurs d'accès français et confirmer les cas recensés, rendez-vous sur cette page.
";s:7:"dateiso";s:15:"20120516_201459";}s:15:"20120509_103021";a:7:{s:5:"title";s:76:"Neutralité du Net : l'UE et la France doivent suivre l'exemple des Pays-Bas";s:4:"link";s:102:"http://www.laquadrature.net/fr/neutralite-du-net-lue-et-la-france-doivent-suivre-lexemple-des-pays-bas";s:4:"guid";s:35:"5735 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 09 May 2012 08:30:21 +0000";s:11:"description";s:2504:"
Paris, 9 mai 2012 – Les Pays-Bas sont devenus le premier pays de l'Union européenne à adopter une loi protégeant la neutralité du Net. L'Europe et la France doivent maintenant suivre son exemple.
Après le vote dans la chambre basse du Parlement l'an dernier, le Sénat néerlandais vient d'adopter définitivement la loi sur la neutralité du Net1. Celle-ci interdit aux opérateurs télécoms de mette en œuvre des mesures discriminatoires dans la gestion du trafic Internet, en bloquant certains contenus, services ou applications. Elle contient également des dispositions encadrant l'utilisation de technologies de surveillance par les opérateurs, comme le Deep Packet Inspection.
« La société civile néerlandaise doit être félicitée pour cette avancée importante dans la protection de l'Internet libre et ouvert. La neutralité du Net est indispensable pour la croissance et l'innovation en ligne, mais aussi et surtout pour la liberté de communication de milliards d'utilisateurs d'Internet de par le monde. L'Europe doit suivre cet exemple en rompant avec son approche attentiste et en adoptant une législation adéquate pour protéger la neutralité du Net. Trop de temps a été perdu, et la situation s'est largement détériorée. Il est temps d'agir ! », a déclaré Jérémie Zimmermann, porte-parole de l’organisation citoyenne La Quadrature du Net.
La Quadrature tient à féliciter ses amis de Bits of Freedom ainsi que tous les citoyens qui ont participé à cette victoire.
Paris, 9 mai 2012 – Les Pays-Bas sont devenus le premier pays de l'Union européenne à adopter une loi protégeant la neutralité du Net. L'Europe et la France doivent maintenant suivre son exemple.
Après le vote dans la chambre basse du Parlement l'an dernier, le Sénat néerlandais vient d'adopter définitivement la loi sur la neutralité du Net1. Celle-ci interdit aux opérateurs télécoms de mette en œuvre des mesures discriminatoires dans la gestion du trafic Internet, en bloquant certains contenus, services ou applications. Elle contient également des dispositions encadrant l'utilisation de technologies de surveillance par les opérateurs, comme le Deep Packet Inspection.
« La société civile néerlandaise doit être félicitée pour cette avancée importante dans la protection de l'Internet libre et ouvert. La neutralité du Net est indispensable pour la croissance et l'innovation en ligne, mais aussi et surtout pour la liberté de communication de milliards d'utilisateurs d'Internet de par le monde. L'Europe doit suivre cet exemple en rompant avec son approche attentiste et en adoptant une législation adéquate pour protéger la neutralité du Net. Trop de temps a été perdu, et la situation s'est largement détériorée. Il est temps d'agir ! », a déclaré Jérémie Zimmermann, porte-parole de l’organisation citoyenne La Quadrature du Net.
La Quadrature tient à féliciter ses amis de Bits of Freedom ainsi que tous les citoyens qui ont participé à cette victoire.
";s:7:"dateiso";s:15:"20120509_103021";}s:15:"20120508_172039";a:7:{s:5:"title";s:96:"Le rapporteur en charge des droits fondamentaux juge l'ACTA contraire aux valeurs démocratiques";s:4:"link";s:125:"http://www.laquadrature.net/fr/le-rapporteur-en-charge-des-droits-fondamentaux-juge-lacta-contraire-aux-valeurs-democratiques";s:4:"guid";s:35:"5729 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 08 May 2012 15:20:39 +0000";s:11:"description";s:6621:"
Paris, 8 mai 2012 - Ce matin, l'eurodéputé Dimitrios Droutsas a présenté son projet de rapport relatif à l'impact de l'ACTA sur les droits fondamentaux devant ses collègues de la commission « Libertés publiques, justice et affaires intérieures » (LIBE) du Parlement européen. Ce projet de rapport, qui met clairement en exergue le danger que représente l'ACTA pour les droits fondamentaux et la démocratie, constitue un élément de plus qui doit conduire le Parlement européen à rejeter l'ACTA.
Le 26 avril, le Contrôleur européen des données personnelles (CEDP) présentait son second avis contre l'ACTA à la commission « Libertés publiques » (LIBE). Cet avis, qui démolit à nouveau l'accord, avait reçu un accueil très favorable de la part des membres de la commission.
Aujourd'hui, durant la présentation de son projet de rapport à la commission LIBE, le rapporteur Dimitrios Droutsas a à son tour démontré que l'ACTA représentait une menace pour les libertés fondamentales, et qu'il empêcherait tout débat démocratique sur la politique du droit d'auteur en Europe. Durant la réunion, alors qu'un grand nombre de membres de la commission insistaient pour que le rapport appelle fermement au rejet de l'ACTA, le rapporteur a consenti à y inclure une phrase affirmant l'incompatibilité d'ACTA avec la Charte des droits fondamentaux de l'Union européenne, afin de préciser sa position.
« Le projet de rapport de M. Droutsas rappelle que l'UE a un rôle à jouer pour protéger et promouvoir les droits de l'Homme, en son sein comme au niveau international, et montre que l'ACTA est manifestement incompatible avec cet objectif. Le document souligne également, à juste titre, la nécessité d'ouvrir un grand débat sur l'avenir du droit d'auteur, afin de dépasser une fois pour toutes le dangereux antagonisme entre le régime actuel et les nouvelles pratiques culturelles se développant sur Internet, comme le partage de la culture. » a déclaré Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Après la publication de l'avis du Contrôleur européen des données personnelles atomisant l'ACTA, ce projet de rapport est un nouveau camouflet pour la Commission européenne et les extrémistes du droit d'auteur, au sein du Parlement européen, qui continuent sans relâche à appeler à l'adoption de l'ACTA. La commission en charge des libertés publiques doit approuver le rapport de M. Droutsas recommandant au Parlement de rejeter l'ACTA, et afficher clairement la nécessité d'un débat ouvert et démocratique sur l'avenir du droit d'auteur. » a déclaré Jérémie Zimmermann, porte-parole de La Quadrature du Net.
La commission LIBE votera son rapport le 31 mai.
Principaux extraits du projet de rapport de LIBE
4. (...) [The] level of protection that the EU ('the European model') is pursuing must be also upheld in its external dimension as the EU must be 'exemplary' in matters of fundamental rights and should not be perceived as allowing 'fundamental rights laundering'. (...)
5. Considers that 'dignity, autonomy and self-development' of human beings are deeply ingrained in this European model and recalls that privacy, data protection, together with freedom of expression have always been considered as core elements of this model as fundamental rights as well as political objectives; underlines that this must be taken into account when balancing against the right to protection of intellectual property and the right to conduct a business, rights also protected by the Charter.
13. (...) the lack of specificity of the provisions, of sufficient limitations and safeguards casts a doubt on the necessary level of legal certainty required from the Agreement (eg: safeguards against misuse of personal data or to protect the right of defence).
15. Considers that when fundamental rights are at stake ambiguity must be avoided and at the least reduced to a minimum; moreover and without assigning any wrongful intentions to the ACTA implementation measures takes the view that in the current state of affairs precaution should be exercised as regards ACTA in light of the serious and remaining question-marks surrounding the balance reached within the agreement between IPRs and other core fundamental rights and its level of legal certainty.
(...) Artists, together with activists, political dissidents and citizens willing to engage in the public debate, should not in any way find their ability to communicate, create, protest and take action inhibited. Especially not today, when, around the world, we are experiencing, and we welcome, a vast, uncontrolled expansion of voices which are finally able to be heard. As the sole direct representative of 400 million European citizens, the European Parliament has the responsibility to safeguard that this expansion will remain unhindered.
The culture of file-sharing, enabled by the remarkable technological advance of the last decades, certainly poses direct challenges to the way we have dealt with compensation of artists and proper enforcement of intellectual rights for the past decades. Our task, as policymakers, is to overcome this challenge by striking an acceptable balance between the possibilities that technology unravels and the continuation of artistic creation, which is an emblematic token of Europe’s place in the world.
We are therefore, at a defining moment of this debate, an exciting juncture of change. In this sense, your Rapporteur believes that ACTA comes at a very premature stage and a possible adoption of the Treaty would essentially freeze the possibility of having a public deliberation that is worthy of our democratic heritage.
";s:7:"content";s:6624:"
Paris, 8 mai 2012 - Ce matin, l'eurodéputé Dimitrios Droutsas a présenté son projet de rapport relatif à l'impact de l'ACTA sur les droits fondamentaux devant ses collègues de la commission « Libertés publiques, justice et affaires intérieures » (LIBE) du Parlement européen. Ce projet de rapport, qui met clairement en exergue le danger que représente l'ACTA pour les droits fondamentaux et la démocratie, constitue un élément de plus qui doit conduire le Parlement européen à rejeter l'ACTA.
Le 26 avril, le Contrôleur européen des données personnelles (CEDP) présentait son second avis contre l'ACTA à la commission « Libertés publiques » (LIBE). Cet avis, qui démolit à nouveau l'accord, avait reçu un accueil très favorable de la part des membres de la commission.
Aujourd'hui, durant la présentation de son projet de rapport à la commission LIBE, le rapporteur Dimitrios Droutsas a à son tour démontré que l'ACTA représentait une menace pour les libertés fondamentales, et qu'il empêcherait tout débat démocratique sur la politique du droit d'auteur en Europe. Durant la réunion, alors qu'un grand nombre de membres de la commission insistaient pour que le rapport appelle fermement au rejet de l'ACTA, le rapporteur a consenti à y inclure une phrase affirmant l'incompatibilité d'ACTA avec la Charte des droits fondamentaux de l'Union européenne, afin de préciser sa position.
« Le projet de rapport de M. Droutsas rappelle que l'UE a un rôle à jouer pour protéger et promouvoir les droits de l'Homme, en son sein comme au niveau international, et montre que l'ACTA est manifestement incompatible avec cet objectif. Le document souligne également, à juste titre, la nécessité d'ouvrir un grand débat sur l'avenir du droit d'auteur, afin de dépasser une fois pour toutes le dangereux antagonisme entre le régime actuel et les nouvelles pratiques culturelles se développant sur Internet, comme le partage de la culture. » a déclaré Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Après la publication de l'avis du Contrôleur européen des données personnelles atomisant l'ACTA, ce projet de rapport est un nouveau camouflet pour la Commission européenne et les extrémistes du droit d'auteur, au sein du Parlement européen, qui continuent sans relâche à appeler à l'adoption de l'ACTA. La commission en charge des libertés publiques doit approuver le rapport de M. Droutsas recommandant au Parlement de rejeter l'ACTA, et afficher clairement la nécessité d'un débat ouvert et démocratique sur l'avenir du droit d'auteur. » a déclaré Jérémie Zimmermann, porte-parole de La Quadrature du Net.
La commission LIBE votera son rapport le 31 mai.
Principaux extraits du projet de rapport de LIBE
4. (...) [The] level of protection that the EU ('the European model') is pursuing must be also upheld in its external dimension as the EU must be 'exemplary' in matters of fundamental rights and should not be perceived as allowing 'fundamental rights laundering'. (...)
5. Considers that 'dignity, autonomy and self-development' of human beings are deeply ingrained in this European model and recalls that privacy, data protection, together with freedom of expression have always been considered as core elements of this model as fundamental rights as well as political objectives; underlines that this must be taken into account when balancing against the right to protection of intellectual property and the right to conduct a business, rights also protected by the Charter.
13. (...) the lack of specificity of the provisions, of sufficient limitations and safeguards casts a doubt on the necessary level of legal certainty required from the Agreement (eg: safeguards against misuse of personal data or to protect the right of defence).
15. Considers that when fundamental rights are at stake ambiguity must be avoided and at the least reduced to a minimum; moreover and without assigning any wrongful intentions to the ACTA implementation measures takes the view that in the current state of affairs precaution should be exercised as regards ACTA in light of the serious and remaining question-marks surrounding the balance reached within the agreement between IPRs and other core fundamental rights and its level of legal certainty.
(...) Artists, together with activists, political dissidents and citizens willing to engage in the public debate, should not in any way find their ability to communicate, create, protest and take action inhibited. Especially not today, when, around the world, we are experiencing, and we welcome, a vast, uncontrolled expansion of voices which are finally able to be heard. As the sole direct representative of 400 million European citizens, the European Parliament has the responsibility to safeguard that this expansion will remain unhindered.
The culture of file-sharing, enabled by the remarkable technological advance of the last decades, certainly poses direct challenges to the way we have dealt with compensation of artists and proper enforcement of intellectual rights for the past decades. Our task, as policymakers, is to overcome this challenge by striking an acceptable balance between the possibilities that technology unravels and the continuation of artistic creation, which is an emblematic token of Europe’s place in the world.
We are therefore, at a defining moment of this debate, an exciting juncture of change. In this sense, your Rapporteur believes that ACTA comes at a very premature stage and a possible adoption of the Treaty would essentially freeze the possibility of having a public deliberation that is worthy of our democratic heritage.
";s:7:"dateiso";s:15:"20120508_172039";}s:15:"20120430_120403";a:7:{s:5:"title";s:74:"Une étude appelle les régulateurs européens à libérer les ondes radio";s:4:"link";s:100:"http://www.laquadrature.net/fr/une-etude-appelle-les-regulateurs-europeens-a-liberer-les-ondes-radio";s:4:"guid";s:35:"5681 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 30 Apr 2012 10:04:03 +0000";s:11:"description";s:10087:"
La Commission européenne a publié une étude importante sur le partage de l'accès au spectre radio. Menée par SCF Associates Ltd, elle appelle à une réforme de la politique des communications sans-fil visant à libérer l'accès aux ondes, notamment afin d'ouvrir la voie à la création de réseaux « super WIFI ». Alors que ne cesse de se creuser le retard de l'Union européenne sur les États Unis en la matière, cette étude doit susciter une véritable prise de conscience chez les décideurs publics.
L'occasion manquée de l'Union européenne pour réformer sa politique des fréquences
En début d'année, le législateur européen a échoué à s'engager fermement en faveur de l'ouverture des fréquences à l'occasion de l'adoption d'un programme en matière de politique du spectre radio (ou RSPP, pour Radio Spectrum Policy Programme).
Les choses se présentaient pourtant plutôt bien. Au printemps 2011, le Parlement européen avait adopté d'importants amendements appelant la Commission européenne et les États membres à autoriser la création de réseaux « super WIFI » en ouvrant l'accès à de nouvelles fréquences du spectre radio1, et en particulier aux « espaces blancs » ou fréquences interstitielles (les bandes de fréquences inutilisées par les radio-diffuseurs2).
Ces amendements étaient particulièrement novateurs. De tels accès ouverts aux fréquences radio permettraient en effet à tous, citoyens, communautés, ou entreprises, de mettre en place leurs propres réseaux Internet, et d'envoyer et de recevoir le contenu, les applications ou services de leur choix sans risque d'être ralentis ou bloqués par un opérateur. En plus de protéger la neutralité du Net, l'ouverture des fréquences faciliterait le déploiement à moindre coût des réseaux haut-débit dans les zones rurales ou difficile d'accès, et de réduire ainsi la « fracture numérique ».
Malheureusement, les vieilles habitudes ont la vie dure. Lors des négociations avec le Parlement sur le RSPP, les États membres ont vidé de leur sens ces amendements, refusant tout engagement contraignant en faveur de la libéralisation des ondes radio, et protégeant ainsi le contrôle des opérateurs titulaires de licences sur cette ressource cruciale.
L'étude montre l'urgente nécessité d'un changement de politique
Alors que la Commission européenne s'apprête à adopter une communication sur le « partage de l'accès au spectre radio » cet été, la publication de cette étude rappelle la nécessité de rompre avec l'approche dépassée des politiques actuelles. Elle interpelle les décideurs publics européens au moment même où les États Unis finalisent leur nouveau cadre réglementaire pour l'accès aux espaces blancs.
Selon les auteurs de l'étude, alors même que le trafic Internet sans-fil connaît une forte augmentation, les principes de régulation qui mettent l'accent sur l'évitement des interférences entre utilisateurs conduisent à une importante sous-utilisation du spectre. L'étude montre par exemple que sur Paris, seules 7% des fréquences situées entre 400MHz et 3Ghz sont effectivement utilisées ! Il est donc temps de rompre avec ces postulats dépassés, qui servent à justifier un contrôle accru des utilisateurs et des types d'usages, pour privilégier une approche plus flexible, permettant d'ouvrir l'accès aux fréquences à un bien plus grand nombre d'acteurs et de services.
L'étude met aussi clairement en lumière le fait que plus l'accès aux fréquences est partagé, plus les bénéfices socio-économiques de la politique du spectre sont importants. Rappelant le succès du WIFI, qui supporte aujourd'hui beaucoup plus d'utilisateurs qu'initialement envisagé et auquel les opérateurs mobiles ont de plus en plus recours pour décharger leurs propres réseaux, les auteurs appellent à l'extension de mode d'accès « non-soumis à licence » à de nouvelles bandes de fréquences. Ils proposent ainsi que 100MHz de fréquences soient ouverts à de nouveaux accès non-soumis à licence, et que 400MHz soient ouverts à des accès partagés entre un plus grand nombre d’utilisateurs et de services au lieu d'être alloués selon un modèle d'exclusivité3. Tout comme le Parlement européen, l'étude appelle également à la mise en place rapide d'un cadre adéquat pour l'utilisation des espaces blancs et pour le développement de technologies de radio cognitive, qui permettent la coexistence de plusieurs utilisateurs sur la même fréquence radio. Il est grand temps que les décideurs européens et français se saisissent du dossier.
« L'Union européenne ne peut plus feindre d'ignorer l'urgente nécessité d'une réforme ambitieuse des politiques du spectre. L'approche actuelle, qui s'appuie largement sur les licences exclusives, n'est pas efficiente et est totalement incapable d'absorber la croissance du trafic de données. S'en tenir au statu quo reviendrait à signer un chèque en blanc aux opérateurs mobiles pour leur permettre de mettre en œuvre des restrictions d'accès au Net, et donc de violer la neutralité du Net au prétexte de lutter contre la congestion. L'Union européenne doit agir rapidement pour libérer l'accès aux fréquences afin que citoyens et entrepreneurs puissent construire à moindre coût des réseaux qui répondent à leurs besoins et ainsi déployer des services innovants. À l'occasion de ses travaux sur le spectre, la Commission européenne doit afficher un soutien clair à l'ouverture des fréquences en rappelant leur potentiel pour lutter contre la fracture numérique et lancer une nouvelle vague d'innovation dans les communications sans-fil », déclare Félix Tréguer, chargé de mission à La Quadrature du Net.
3. Le scénario le plus optimiste propose 400MHz de nouvel « accès partagé », incluant 100MHz de bandes de fréquences ouvertes (dont une moitié sous la bande des 1GHz, et une autre moitié à celle de 1,4GHz, pour la diffusion sans-fil (WiFi, WiFi longue distance, WIMax).
";s:7:"content";s:10090:"
La Commission européenne a publié une étude importante sur le partage de l'accès au spectre radio. Menée par SCF Associates Ltd, elle appelle à une réforme de la politique des communications sans-fil visant à libérer l'accès aux ondes, notamment afin d'ouvrir la voie à la création de réseaux « super WIFI ». Alors que ne cesse de se creuser le retard de l'Union européenne sur les États Unis en la matière, cette étude doit susciter une véritable prise de conscience chez les décideurs publics.
L'occasion manquée de l'Union européenne pour réformer sa politique des fréquences
En début d'année, le législateur européen a échoué à s'engager fermement en faveur de l'ouverture des fréquences à l'occasion de l'adoption d'un programme en matière de politique du spectre radio (ou RSPP, pour Radio Spectrum Policy Programme).
Les choses se présentaient pourtant plutôt bien. Au printemps 2011, le Parlement européen avait adopté d'importants amendements appelant la Commission européenne et les États membres à autoriser la création de réseaux « super WIFI » en ouvrant l'accès à de nouvelles fréquences du spectre radio1, et en particulier aux « espaces blancs » ou fréquences interstitielles (les bandes de fréquences inutilisées par les radio-diffuseurs2).
Ces amendements étaient particulièrement novateurs. De tels accès ouverts aux fréquences radio permettraient en effet à tous, citoyens, communautés, ou entreprises, de mettre en place leurs propres réseaux Internet, et d'envoyer et de recevoir le contenu, les applications ou services de leur choix sans risque d'être ralentis ou bloqués par un opérateur. En plus de protéger la neutralité du Net, l'ouverture des fréquences faciliterait le déploiement à moindre coût des réseaux haut-débit dans les zones rurales ou difficile d'accès, et de réduire ainsi la « fracture numérique ».
Malheureusement, les vieilles habitudes ont la vie dure. Lors des négociations avec le Parlement sur le RSPP, les États membres ont vidé de leur sens ces amendements, refusant tout engagement contraignant en faveur de la libéralisation des ondes radio, et protégeant ainsi le contrôle des opérateurs titulaires de licences sur cette ressource cruciale.
L'étude montre l'urgente nécessité d'un changement de politique
Alors que la Commission européenne s'apprête à adopter une communication sur le « partage de l'accès au spectre radio » cet été, la publication de cette étude rappelle la nécessité de rompre avec l'approche dépassée des politiques actuelles. Elle interpelle les décideurs publics européens au moment même où les États Unis finalisent leur nouveau cadre réglementaire pour l'accès aux espaces blancs.
Selon les auteurs de l'étude, alors même que le trafic Internet sans-fil connaît une forte augmentation, les principes de régulation qui mettent l'accent sur l'évitement des interférences entre utilisateurs conduisent à une importante sous-utilisation du spectre. L'étude montre par exemple que sur Paris, seules 7% des fréquences situées entre 400MHz et 3Ghz sont effectivement utilisées ! Il est donc temps de rompre avec ces postulats dépassés, qui servent à justifier un contrôle accru des utilisateurs et des types d'usages, pour privilégier une approche plus flexible, permettant d'ouvrir l'accès aux fréquences à un bien plus grand nombre d'acteurs et de services.
L'étude met aussi clairement en lumière le fait que plus l'accès aux fréquences est partagé, plus les bénéfices socio-économiques de la politique du spectre sont importants. Rappelant le succès du WIFI, qui supporte aujourd'hui beaucoup plus d'utilisateurs qu'initialement envisagé et auquel les opérateurs mobiles ont de plus en plus recours pour décharger leurs propres réseaux, les auteurs appellent à l'extension de mode d'accès « non-soumis à licence » à de nouvelles bandes de fréquences. Ils proposent ainsi que 100MHz de fréquences soient ouverts à de nouveaux accès non-soumis à licence, et que 400MHz soient ouverts à des accès partagés entre un plus grand nombre d’utilisateurs et de services au lieu d'être alloués selon un modèle d'exclusivité3. Tout comme le Parlement européen, l'étude appelle également à la mise en place rapide d'un cadre adéquat pour l'utilisation des espaces blancs et pour le développement de technologies de radio cognitive, qui permettent la coexistence de plusieurs utilisateurs sur la même fréquence radio. Il est grand temps que les décideurs européens et français se saisissent du dossier.
« L'Union européenne ne peut plus feindre d'ignorer l'urgente nécessité d'une réforme ambitieuse des politiques du spectre. L'approche actuelle, qui s'appuie largement sur les licences exclusives, n'est pas efficiente et est totalement incapable d'absorber la croissance du trafic de données. S'en tenir au statu quo reviendrait à signer un chèque en blanc aux opérateurs mobiles pour leur permettre de mettre en œuvre des restrictions d'accès au Net, et donc de violer la neutralité du Net au prétexte de lutter contre la congestion. L'Union européenne doit agir rapidement pour libérer l'accès aux fréquences afin que citoyens et entrepreneurs puissent construire à moindre coût des réseaux qui répondent à leurs besoins et ainsi déployer des services innovants. À l'occasion de ses travaux sur le spectre, la Commission européenne doit afficher un soutien clair à l'ouverture des fréquences en rappelant leur potentiel pour lutter contre la fracture numérique et lancer une nouvelle vague d'innovation dans les communications sans-fil », déclare Félix Tréguer, chargé de mission à La Quadrature du Net.
3. Le scénario le plus optimiste propose 400MHz de nouvel « accès partagé », incluant 100MHz de bandes de fréquences ouvertes (dont une moitié sous la bande des 1GHz, et une autre moitié à celle de 1,4GHz, pour la diffusion sans-fil (WiFi, WiFi longue distance, WIMax).
";s:7:"dateiso";s:15:"20120430_120403";}s:15:"20120426_155400";a:7:{s:5:"title";s:59:"La commission JURI reporte le vote de l'avis Gallo sur ACTA";s:4:"link";s:89:"http://www.laquadrature.net/fr/la-commission-juri-reporte-le-vote-de-lavis-gallo-sur-acta";s:4:"guid";s:35:"5678 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 26 Apr 2012 13:54:00 +0000";s:11:"description";s:4598:"
Bruxelles, 26 avril 2012 - Marielle Gallo, rapporteure d'ACTA pour la commission « Affaires juridiques » du Parlement européen, s'engage dans une nouvelle manœuvre politicienne pour gagner du temps et repousser le vote sur ACTA. En agissant de la sorte, alors que la tendance actuelle est rejet d'ACTA, elle espère désamorcer le débat politique.
Une fois encore, la rapporteure d'ACTA pour la commission « Affaires juridiques » (JURI), Marielle Gallo (France, EPP), connue pour ses positions extrêmes en matière de droit d'auteur, démontre son talent pour les manœuvres politiciennes. Après avoir appelé à un vote rapide de son projet de rapport favorable à l'ACTA, sans laisser aux députés la possibilité de déposer des amendements, elle a appelé ce matin à un report du vote. Elle affirme que l'avis du contrôleur européen des données personnelles, qui est extrêmement critique envers le chapitre numérique d'ACTA, doit être pris en compte pour affiner son projet de rapport.
Les autres députés de la commission JURI ont malheureusement approuvé cette proposition1, tout comme ils ont approuvé l'envoi d'une lettre à Karel De Gucht, le Commissaire européen au Commerce, pour lui demander des clarifications quant au cadre légal relatif à l'ACTA, comme le proposait Marielle Gallo2. Cette décision est totalement inutile, puisque la réponse de la Commission ne sera pas contraignante, politiquement biaisée, et donc vide de sens.
En raison de ce report, la commission JURI n'aura probablement pas la possibilité de voter son rapport avant3 que la commission « Commerce international » (INTA) n'adopte le sien.
« Voici le véritable objectif de Marielle Gallo : repousser le vote final pour après l'été, en espérant un essoufflement de la mobilisation citoyenne contre cet accord. Craint-elle à ce point la réaction de ses collègues vis-à-vis de son rapport qu'elle en est réduite à de telles manœuvres technocratiques ? » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Les eurodéputés doivent s'opposer à tout nouveau retard dans la procédure ACTA. De leur côté, les citoyens doivent contacter leurs représentants pour s'assurer que le Parlement européen rejettera ACTA lors de sa plénière de juillet.
1. Le report a été accepté par la commission JURI 15 voix contre 9
2. Proposition acceptée avec 22 voix pour et 2 abstentions
3. Les discussions concernant le contenu de la lettre se tiendront au cours des prochaines réunions de la commission
";s:7:"content";s:4598:"
Bruxelles, 26 avril 2012 - Marielle Gallo, rapporteure d'ACTA pour la commission « Affaires juridiques » du Parlement européen, s'engage dans une nouvelle manœuvre politicienne pour gagner du temps et repousser le vote sur ACTA. En agissant de la sorte, alors que la tendance actuelle est rejet d'ACTA, elle espère désamorcer le débat politique.
Une fois encore, la rapporteure d'ACTA pour la commission « Affaires juridiques » (JURI), Marielle Gallo (France, EPP), connue pour ses positions extrêmes en matière de droit d'auteur, démontre son talent pour les manœuvres politiciennes. Après avoir appelé à un vote rapide de son projet de rapport favorable à l'ACTA, sans laisser aux députés la possibilité de déposer des amendements, elle a appelé ce matin à un report du vote. Elle affirme que l'avis du contrôleur européen des données personnelles, qui est extrêmement critique envers le chapitre numérique d'ACTA, doit être pris en compte pour affiner son projet de rapport.
Les autres députés de la commission JURI ont malheureusement approuvé cette proposition1, tout comme ils ont approuvé l'envoi d'une lettre à Karel De Gucht, le Commissaire européen au Commerce, pour lui demander des clarifications quant au cadre légal relatif à l'ACTA, comme le proposait Marielle Gallo2. Cette décision est totalement inutile, puisque la réponse de la Commission ne sera pas contraignante, politiquement biaisée, et donc vide de sens.
En raison de ce report, la commission JURI n'aura probablement pas la possibilité de voter son rapport avant3 que la commission « Commerce international » (INTA) n'adopte le sien.
« Voici le véritable objectif de Marielle Gallo : repousser le vote final pour après l'été, en espérant un essoufflement de la mobilisation citoyenne contre cet accord. Craint-elle à ce point la réaction de ses collègues vis-à-vis de son rapport qu'elle en est réduite à de telles manœuvres technocratiques ? » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Les eurodéputés doivent s'opposer à tout nouveau retard dans la procédure ACTA. De leur côté, les citoyens doivent contacter leurs représentants pour s'assurer que le Parlement européen rejettera ACTA lors de sa plénière de juillet.
1. Le report a été accepté par la commission JURI 15 voix contre 9
2. Proposition acceptée avec 22 voix pour et 2 abstentions
3. Les discussions concernant le contenu de la lettre se tiendront au cours des prochaines réunions de la commission
";s:7:"dateiso";s:15:"20120426_155400";}s:15:"20120425_133943";a:7:{s:5:"title";s:75:"ACTA en commissions parlementaires : la participation citoyenne est urgente";s:4:"link";s:104:"http://www.laquadrature.net/fr/acta-en-commissions-parlementaires-la-participation-citoyenne-est-urgente";s:4:"guid";s:35:"5670 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 25 Apr 2012 11:39:43 +0000";s:11:"description";s:5128:"
Bruxelles, 25 avril 2012 - La procédure relative à l'ACTA suit son cours au sein des commissions du Parlement européen. Sous la forte pression des lobbies du copyright, les partisans de l'ACTA se réveillent et font entendre leur voix. À l'approche des votes des commissions « Affaires juridiques » (JURI) et « Industrie » (ITRE), il est plus que temps que les citoyens persuadent leurs eurodéputés que cet accord dangereux doit être rejeté, et que le droit d'auteur doit être réformé en profondeur.
Lors de la réunion de la commission « Industrie » (ITRE) hier, un nombre surprenant de partisans de l'ACTA ont pris la parole : selon ces députés conservateurs (groupe PPE), l'ACTA doit être adopté, ou du moins son rejet doit être repoussé jusqu'à la décision de la Cour de justice de l'Union européenne1, dans un an ou deux... Ces échanges sont emblématiques des efforts renouvelés de l'industrie du divertissement2 pour influencer les eurodéputés et contrer les citoyens demandant le rejet de l'ACTA.
Dans ce contexte, les étapes à venir seront décisives : la commission ITRE est sur le point de finaliser la liste des amendements au remarquable projet d'avis de la rapporteure Amelia Andersdotter. Des amendements pro-ACTA sont attendus, ils tenteront de modifier ce rapport vers une recommandation pour l'adoption de l'ACTA. Le vote aura lieu dans les prochaines semaines.
En parallèle, la commission « Affaires juridiques » (JURI) discutera du projet d'avis de la rapporteure Marielle Gallo, connue pour sa position pro-copyright. Ce mauvais avis recommande l'adoption de l'ACTA et pourrait être soumis au vote dès demain. Les citoyens doivent intervenir une fois encore, et appeler les membres de la commission JURI à rejeter le projet de Marielle Gallo sur l'ACTA. Ils doivent aussi leur demander de travailler à une réforme positive du droit d'auteur, qui mettra enfin un point final à cette dangereuse « guerre du partage ».
« Dès que les citoyens arrêtent de prêter attention à l'obscure procédure suivie par l'ACTA au Parlement européen, ils ouvrent une brêche dans laquelle les lobbies du copyright s'engouffrent. Pour rejeter l'ACTA une bonne fois pour toutes, nous devons rester vigilants à chaque étape de la procédure parlementaire. C'est seulement à ce prix qu'une réforme positive du droit d'auteur pourra un jour être mise en œuvre, qui prendra enfin en compte les nouvelles pratiques culturelles et les nouvelles technologies, plutôt que d'essayer vainement de les combattre. » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Grâce au Piphone, vous pouvez contacter gratuitement vos députés des commissions JURI et ITRE, et vous assurer qu'ils prennent votre avis en compte lorsqu'ils voteront sur le rapport ACTA.
Bruxelles, 25 avril 2012 - La procédure relative à l'ACTA suit son cours au sein des commissions du Parlement européen. Sous la forte pression des lobbies du copyright, les partisans de l'ACTA se réveillent et font entendre leur voix. À l'approche des votes des commissions « Affaires juridiques » (JURI) et « Industrie » (ITRE), il est plus que temps que les citoyens persuadent leurs eurodéputés que cet accord dangereux doit être rejeté, et que le droit d'auteur doit être réformé en profondeur.
Lors de la réunion de la commission « Industrie » (ITRE) hier, un nombre surprenant de partisans de l'ACTA ont pris la parole : selon ces députés conservateurs (groupe PPE), l'ACTA doit être adopté, ou du moins son rejet doit être repoussé jusqu'à la décision de la Cour de justice de l'Union européenne1, dans un an ou deux... Ces échanges sont emblématiques des efforts renouvelés de l'industrie du divertissement2 pour influencer les eurodéputés et contrer les citoyens demandant le rejet de l'ACTA.
Dans ce contexte, les étapes à venir seront décisives : la commission ITRE est sur le point de finaliser la liste des amendements au remarquable projet d'avis de la rapporteure Amelia Andersdotter. Des amendements pro-ACTA sont attendus, ils tenteront de modifier ce rapport vers une recommandation pour l'adoption de l'ACTA. Le vote aura lieu dans les prochaines semaines.
En parallèle, la commission « Affaires juridiques » (JURI) discutera du projet d'avis de la rapporteure Marielle Gallo, connue pour sa position pro-copyright. Ce mauvais avis recommande l'adoption de l'ACTA et pourrait être soumis au vote dès demain. Les citoyens doivent intervenir une fois encore, et appeler les membres de la commission JURI à rejeter le projet de Marielle Gallo sur l'ACTA. Ils doivent aussi leur demander de travailler à une réforme positive du droit d'auteur, qui mettra enfin un point final à cette dangereuse « guerre du partage ».
« Dès que les citoyens arrêtent de prêter attention à l'obscure procédure suivie par l'ACTA au Parlement européen, ils ouvrent une brêche dans laquelle les lobbies du copyright s'engouffrent. Pour rejeter l'ACTA une bonne fois pour toutes, nous devons rester vigilants à chaque étape de la procédure parlementaire. C'est seulement à ce prix qu'une réforme positive du droit d'auteur pourra un jour être mise en œuvre, qui prendra enfin en compte les nouvelles pratiques culturelles et les nouvelles technologies, plutôt que d'essayer vainement de les combattre. » a déclaré Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Grâce au Piphone, vous pouvez contacter gratuitement vos députés des commissions JURI et ITRE, et vous assurer qu'ils prennent votre avis en compte lorsqu'ils voteront sur le rapport ACTA.
";s:7:"dateiso";s:15:"20120425_133943";}s:15:"20120424_131005";a:7:{s:5:"title";s:71:"Le controleur européen des données personnelles atomise ACTA. Encore.";s:4:"link";s:98:"http://www.laquadrature.net/fr/le-controleur-europeen-des-donnees-personnelles-atomise-acta-encore";s:4:"guid";s:35:"5662 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 24 Apr 2012 11:10:05 +0000";s:11:"description";s:2987:"
Bruxelles, le 24 avril 2012 - Dans un avis décisif, le Contrôleur européen de la protection des données (CEPD) a déclaré que le chapitre numérique d'ACTA menacerait la vie privée et la liberté d'expression en ligne.
« Dans ce nouvel avis, le CEPD démontre que la "coopération" prévue par l'ACTA entre les acteurs du Net et l'industrie du copyright doit être interprétée dans le contexte de la répression du partage en ligne. Selon le protecteur des données, cette privatisation de la répression aurait de sévères conséquences sur la liberté d’expression et la protection de la vie privée des citoyens. Alors que la Commission européenne et les eurodéputés pro-ACTA tentent de faire croire qu'ACTA est inoffensif pour les libertés individuelles, voici une analyse indépendante de plus qui démontre au contraire qu'ACTA peut entraîner la surveillance et le filtrage des communications. Les citoyens doivent utiliser cette opinion comme un argument décisif pour convaincre les eurodéputés de rejeter l'ACTA, à chaque étape de leurs travaux en commissions, et une bonne fois pour toutes en plénière » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En février 2010, le CEPD avait publié un premier avis contre ACTA.
Dans le second avis publié aujourd'hui, le CEPD souligne en particulier que :
beaucoup des mesures "volontaires" de coopération prévues par ACTA impliqueraient une collecte des données personnelles par les fournisseurs d'accès et les fournisseurs de services, ce qui va au-delà de l'acquis communautaire ;
les mesures autorisant la surveillance généralisée des utilisateurs en ligne et/ou des communications électroniques, contre le partage non-marchand de fichiers seraient disproportionnées et violeraient l'article 8 de la Convention européenne des droits de l'Homme, et les articles 7 et 8 de la Charte des droits fondamentaux de l'Union européenne ;
ACTA ne prévoit pas suffisamment de limitations et de garde-fous, comme une protection judiciaire effective, un procès équitable, le principe de présomption d'innocence, et le droit à la protection de la vie privée et des données personnelles.
Bruxelles, le 24 avril 2012 - Dans un avis décisif, le Contrôleur européen de la protection des données (CEPD) a déclaré que le chapitre numérique d'ACTA menacerait la vie privée et la liberté d'expression en ligne.
« Dans ce nouvel avis, le CEPD démontre que la "coopération" prévue par l'ACTA entre les acteurs du Net et l'industrie du copyright doit être interprétée dans le contexte de la répression du partage en ligne. Selon le protecteur des données, cette privatisation de la répression aurait de sévères conséquences sur la liberté d’expression et la protection de la vie privée des citoyens. Alors que la Commission européenne et les eurodéputés pro-ACTA tentent de faire croire qu'ACTA est inoffensif pour les libertés individuelles, voici une analyse indépendante de plus qui démontre au contraire qu'ACTA peut entraîner la surveillance et le filtrage des communications. Les citoyens doivent utiliser cette opinion comme un argument décisif pour convaincre les eurodéputés de rejeter l'ACTA, à chaque étape de leurs travaux en commissions, et une bonne fois pour toutes en plénière » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En février 2010, le CEPD avait publié un premier avis contre ACTA.
Dans le second avis publié aujourd'hui, le CEPD souligne en particulier que :
beaucoup des mesures "volontaires" de coopération prévues par ACTA impliqueraient une collecte des données personnelles par les fournisseurs d'accès et les fournisseurs de services, ce qui va au-delà de l'acquis communautaire ;
les mesures autorisant la surveillance généralisée des utilisateurs en ligne et/ou des communications électroniques, contre le partage non-marchand de fichiers seraient disproportionnées et violeraient l'article 8 de la Convention européenne des droits de l'Homme, et les articles 7 et 8 de la Charte des droits fondamentaux de l'Union européenne ;
ACTA ne prévoit pas suffisamment de limitations et de garde-fous, comme une protection judiciaire effective, un procès équitable, le principe de présomption d'innocence, et le droit à la protection de la vie privée et des données personnelles.
";s:7:"dateiso";s:15:"20120424_131005";}s:15:"20120424_125712";a:7:{s:5:"title";s:43:"L'avis pro-ACTA de Gallo doit être rejeté";s:4:"link";s:71:"http://www.laquadrature.net/fr/lavis-pro-acta-de-gallo-doit-etre-rejete";s:4:"guid";s:35:"5661 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 24 Apr 2012 10:57:12 +0000";s:11:"description";s:4744:"
Bruxelles, 24 avril 2012 - Le projet de rapport pour avis de Marielle Gallo, appelant à l'adoption de l'ACTA, pourrait être sur le point d'être adopté par la commission « Affaires juridiques » du Parlement européen. Cet avis, rempli d'approximations et d'erreurs d'analyses, sera soumis au vote de la commission jeudi. Ses membres doivent s'opposer à ce projet de rapport. Et les citoyens faire entendre leur voix.
Sans surprise, ce dernier est une farouche défense de l'ACTA, reposant sur de grossières erreurs d'interprétation du texte. Le rapport se conclut en appelant la commission « Commerce international » (INTA) à recommander l'approbation de l'ACTA.
De nombreux arguments de Mme Gallo ne résistent pas à une lecture attentive, comme le montre cette note envoyée par la Quadrature aux membres de la commission JURI. En essayant de présenter l'ACTA comme un accord légitime, Marielle Gallo fait de nombreuses erreurs d'analyse et conclut que l'ACTA respecte la législation européenne. Cette position est contredite par de nombreuses analyses indépendantes d'intellectuels, d'ONG, et d'institutions publiques.
Mme Gallo base son rapport sur deux avis du service juridique du Parlement européen qui, dit-elle, ont été « rendues publics ». Ces avis ont cependant été fortement censurés, et beaucoup de pages ont été publiées blanches. Le Parlement européen a refusé de les publier dans leur intégralité, affirmant qu'une telle publication « interférerait gravement avec la procédure complexe de ratification »1. Quelle transparence !
Les défauts de ce projet de rapport sont réellement inquiétants, d'autant plus que la commission JURI a refusé à ses membres de déposer des amendements. Lors de la présentation du projet de rapport pour avis de Mme Gallo, les membres de la commission n'auront pas d'autre choix que de rejeter le texte tel quel. Les citoyens et les eurodéputés doivent par ailleurs rester vigilants quant aux conditions de vote...
« Marielle Gallo, connue pour ses positions extrêmes sur le droit d'auteur, persiste à nier les dangers que représente la privatisation de la censure pour les droits fondamentaux. Même si sa défense acharnée de l'ACTA n'est pas une surprise, les autres membres de la commission JURI doivent impérativement s'opposer à son dogmatisme et rejeter son rapport. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne de la Quadrature du Net.
Grâce au PiPhone, vous pouvez contacter gratuitement vos députés de la commission JURI jusqu'à jeudi, et vous assurer qu'ils prennent votre avis en compte lorsqu'ils voteront sur le rapport sur l'ACTA.
1. Voir : http://acta.ffii.org/?p=904 Plus récemment, le Vice-président du Parlement européen a déclaré que le Parlement était soumis à « certaines obligations concernant la ratification réussie de l'ACTA » : http://acta.ffii.org/?p=1216
";s:7:"content";s:4747:"
Bruxelles, 24 avril 2012 - Le projet de rapport pour avis de Marielle Gallo, appelant à l'adoption de l'ACTA, pourrait être sur le point d'être adopté par la commission « Affaires juridiques » du Parlement européen. Cet avis, rempli d'approximations et d'erreurs d'analyses, sera soumis au vote de la commission jeudi. Ses membres doivent s'opposer à ce projet de rapport. Et les citoyens faire entendre leur voix.
Sans surprise, ce dernier est une farouche défense de l'ACTA, reposant sur de grossières erreurs d'interprétation du texte. Le rapport se conclut en appelant la commission « Commerce international » (INTA) à recommander l'approbation de l'ACTA.
De nombreux arguments de Mme Gallo ne résistent pas à une lecture attentive, comme le montre cette note envoyée par la Quadrature aux membres de la commission JURI. En essayant de présenter l'ACTA comme un accord légitime, Marielle Gallo fait de nombreuses erreurs d'analyse et conclut que l'ACTA respecte la législation européenne. Cette position est contredite par de nombreuses analyses indépendantes d'intellectuels, d'ONG, et d'institutions publiques.
Mme Gallo base son rapport sur deux avis du service juridique du Parlement européen qui, dit-elle, ont été « rendues publics ». Ces avis ont cependant été fortement censurés, et beaucoup de pages ont été publiées blanches. Le Parlement européen a refusé de les publier dans leur intégralité, affirmant qu'une telle publication « interférerait gravement avec la procédure complexe de ratification »1. Quelle transparence !
Les défauts de ce projet de rapport sont réellement inquiétants, d'autant plus que la commission JURI a refusé à ses membres de déposer des amendements. Lors de la présentation du projet de rapport pour avis de Mme Gallo, les membres de la commission n'auront pas d'autre choix que de rejeter le texte tel quel. Les citoyens et les eurodéputés doivent par ailleurs rester vigilants quant aux conditions de vote...
« Marielle Gallo, connue pour ses positions extrêmes sur le droit d'auteur, persiste à nier les dangers que représente la privatisation de la censure pour les droits fondamentaux. Même si sa défense acharnée de l'ACTA n'est pas une surprise, les autres membres de la commission JURI doivent impérativement s'opposer à son dogmatisme et rejeter son rapport. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne de la Quadrature du Net.
Grâce au PiPhone, vous pouvez contacter gratuitement vos députés de la commission JURI jusqu'à jeudi, et vous assurer qu'ils prennent votre avis en compte lorsqu'ils voteront sur le rapport sur l'ACTA.
1. Voir : http://acta.ffii.org/?p=904 Plus récemment, le Vice-président du Parlement européen a déclaré que le Parlement était soumis à « certaines obligations concernant la ratification réussie de l'ACTA » : http://acta.ffii.org/?p=1216
";s:7:"dateiso";s:15:"20120424_125712";}s:15:"20120419_170254";a:7:{s:5:"title";s:42:"La mobilisation contre l'ACTA, et au-delà";s:4:"link";s:70:"http://www.laquadrature.net/fr/la-mobilisation-contre-lacta-et-au-dela";s:4:"guid";s:35:"5655 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 19 Apr 2012 15:02:54 +0000";s:11:"description";s:14046:"
Paris, 19 avril 2012 – Au cours des prochaines semaines, le Parlement européen va poursuivre ses travaux sur l'ACTA, l'accord commercial anti-contrefaçon, jusqu'au vote final prévu cet été. C'est une période cruciale pour l'opposition citoyenne à l'accord. Elle devra faire face à une pression accrue des lobbies du copyright sur le Parlement. Au-delà de l'ACTA, c'est toute la politique du droit d'auteur européen qui doit être revue. Seule une véritable réforme pourra réellement protéger les droits fondamentaux sur Internet, et rompre avec les répressions aveugles pour promouvoir une économie de la culture adaptée à Internet. Voici un point d'étape sur la situation, en vue de la campagne à venir au Parlement européen.
Lundi dernier, le rapporteur britannique David Martin (S&D) a rendu public son projet de rapport relatif à l'ACTA. Bien qu'il y appelle le Parlement européen à rejeter ce dangereux accord, le rapporteur invite tout de même la Commission à proposer de nouvelles mesures répressives pour protéger le droit d'auteur, des brevets et des marques. Compte tenu des projets de la Commission, qui s'apprête à réviser la directive anti-partage IPRED et à accentuer la répression des infractions en ligne au droit d'auteur, il est clair que la victoire contre l'ACTA ne signifie pas la fin de la lutte pour le partage de la culture.
Ces attaques ne sont toutefois pas le seul fait de la Commission. Avec IPRED, la directive services en ligne (ou directive « e-Commerce »), et d'autres initiatives, l'industrie du divertissement va tout faire pour reprendre en main le débat, et s'opposer à tout changement significatif contre toute réforme visant à faire évoluer le droit d'auteur. Ces lobbies envoient d'ores-et-déjà des lettres au Parlement, pressant nos élus d'adopter l'ACTA1.
Tout en poursuivant la campagne en faveur du rejet de l'ACTA au Parlement européen, nous devons agir pour que le législateur européen revoie sa conception extrémiste en matière de droit d'auteur, de brevets et de droit des marques.
Ci-dessous, un point d'étape sur le débat au Parlement européen :
Commission « Commerce international » (INTA)
Au sein de la commission « Commerce international » (INTA) - en charge de guider les travaux sur l'ACTA - le rapporteur du texte pour le Parlement européen, l'eurodéputé David Martin (UK, S&D), a rendu public son projet de rapport, appelant le Parlement à rejeter l'ACTA2. Après avoir rappelé les principaux dangers de l'ACTA, comme la privatisation de la répression des infractions au droit d'auteur sur Internet, il souligne que « les bénéfices attendus de cet accord international sont largement inférieurs aux menaces qu'il fait peser sur les libertés civiles ».
Ce projet de rapport fait toutefois le jeu des lobbies du copyright, en appelant la Commission à « faire de nouvelles propositions pour protéger la propriété intellectuelle ».
C'est pourquoi les citoyens doivent contacter les membres de la Commission INTA et les appeler à rejeter l'ACTA, afin de mettre un terme à l'extension continue du droit d'auteur, des brevets, et des marques dans tous les accords commerciaux, comme ceux adoptés ou actuellement négociés par l'Union européenne avec l'Inde, la Corée, la Colombie et le Pérou...
David Martin présentera son projet de rapport le 25 avril. La commission INTA devrait adopter le rapport le 30 mai ou le 20 juin, après avoir pris en compte les rapports pour avis des autres commissions (voir ci-dessous).
Commission « Développement » (DEVE)
Au sein de la commission « Développement » (DEVE), le rapporteur Jan Zahradil (République Tchèque, ECR), a présenté un très mauvais projet de rapport pour avis en janvier. Ce dernier doit absolument être amendé pour prendre en compte les questions cruciales relatives aux conséquences de l'ACTA sur les pays en développement, et notamment les inquiétudes concernant l'accès aux médicaments et la liberté d'expression en ligne.
Au delà de l'ACTA, les membres de DEVE doivent aussi comprendre à quel point les mesures d'application du droit d'auteur et des brevets peuvent compromettent l'accès à la culture, aux médicaments et aux technologies, freinant ainsi le développement socio-économique des pays émergents.
La commission DEVE doit normalement décider cette semaine de la suite à donner à son rapport. Ses prochaines réunions sont prévues pour les 23 et 24 avril et pour le 14 mai.
Commission « Libertés civiles »(LIBE)
Au sein de la commission « Libertés civiles » (LIBE), qui doit rendre un rapport sur l'impact de l'ACTA sur les droits fondamentaux, le rapporteur Dimitrios Droutsas (Grèce, S&D) a déclaré la semaine dernière qu'il était convaincu que l'ACTA constituait une menace pour les libertés. Là encore, les citoyens doivent contacter les membres de la commission pour s'assurer que les autres membres de LIBE partagent son point de vue.
Le rapport de la commission LIBE doit notamment interpréter le texte de l'ACTA, dont l’ambiguïté est dangereuse, à la lumière des récentes évolutions des politiques en matière de droit d'auteur sur Internet. Devront ainsi être passées en revue les sanctions pénales, la responsabilité des intermédiaires et les appels à la « coopération » entre les acteurs de l'Internet et l'industrie du divertissement, qui constituerait une forme de censure privatisée3. Pour ouvrir la voie à une vraie réforme du droit d'auteur, le rapport de LIBE doit affirmer son opposition à des mesures extra-judiciaires pour protéger un droit d'auteur devenu inadapté.
Il est possible que le rapporteur Droutsas demande un court délai dans la procédure, de manière à laisser du temps pour le dépôt d'amendements. La présentation du rapport à la commission aurait lieu la semaine prochaine ou le 8 mai, pour un vote le 30 ou 31 mai.
Commission « Industrie » (ITRE)
Au sein de la commission « Industrie » (ITRE), la rapporteure Amelia Andersdötter (Suède, Greens/EFA) a rendu un projet de rapport pour avis encourageant. Elle souligne que l'ACTA « semble contraire à l'ambition (...) de faire de l'Europe le théâtre d'une innovation de pointe, ainsi que (...) de promouvoir la neutralité du Net et l'accès des PME au marché numérique en ligne »4. D'autres eurodéputés connus pour leurs positions allant à l'encontre de la protection des libertés sur Internet, comme Daniel Caspary (Allemagne, PPE), veulent cependant amender le rapport, probablement pour y insérer des arguments favorables à l'ACTA.
D'avantage encore que les autres citoyens, les innovateurs et entrepreneurs doivent appeler la commission ITRE pour s'assurer que tous ses membres comprennent pourquoi l'ACTA va à l'encontre de la croissance et de l'innovation, comme l'a d'ailleurs récemment rappelé l'industrie européenne des télécoms et d'Internet. Au delà de l'ACTA, les membres d'ITRE doivent être invités à dénoncer la pression grandissante qui pèse sur les fournisseurs de services en ligne pour qu'ils endossent le rôle de police privée du droit d'auteur.
La commission ITRE débattra sur son rapport le 25 avril, et devrait voter le 8 mai.
Commission des « Affaires juridiques » (JURI)
Au sein de la commission « Affaires juridiques » (JURI), la rapporteure Marielle Gallo (France, EPP), connue pour sa position extrême sur le renforcement du droit d'auteur, a récemment rendu public son projet de rapport pour avis. Sans surprise, ce dernier défend âprement l'ACTA, et appelle la commission INTA à recommander l'adoption de l'accord. Malheureusement, la commission a décidé de ne pas ouvrir ce projet de rapport à des amendements, et elle devra donc l'adopter ou le rejeter en l'état.
Les citoyens peuvent appeler les membres de la commission JURI à rejeter le projet de rapport de Mme Gallo. D'une part, ce dernier fait l'impasse sur les dispositions de l'ACTA qui vont au-delà du droit de l'Union européenne (par exemple pour les sanctions pénales, ou les mesures aux frontières). D'autre part, il se refuse à dénoncer le contournement démocratique évident de ce prétendu « accord commercial », négocié à l'écart des organisations internationales légitimes et des Parlements légitimes, et qui impose une répression brutale aux pays tiers.
Le vote de la commission JURI sur le projet de rapport pour avis de Mme Gallo devrait avoir lieu le 26 avril.
2. Pour les accord internationaux, les États membres doivent obtenir au préalable le « consentement » du Parlement européen avant de ratifier l'accord en question. Voir l'article 218.6 du Traité sur le fonctionnement de l'Union européenne : http://euwiki.org/TFEU#Article_218
Paris, 19 avril 2012 – Au cours des prochaines semaines, le Parlement européen va poursuivre ses travaux sur l'ACTA, l'accord commercial anti-contrefaçon, jusqu'au vote final prévu cet été. C'est une période cruciale pour l'opposition citoyenne à l'accord. Elle devra faire face à une pression accrue des lobbies du copyright sur le Parlement. Au-delà de l'ACTA, c'est toute la politique du droit d'auteur européen qui doit être revue. Seule une véritable réforme pourra réellement protéger les droits fondamentaux sur Internet, et rompre avec les répressions aveugles pour promouvoir une économie de la culture adaptée à Internet. Voici un point d'étape sur la situation, en vue de la campagne à venir au Parlement européen.
Lundi dernier, le rapporteur britannique David Martin (S&D) a rendu public son projet de rapport relatif à l'ACTA. Bien qu'il y appelle le Parlement européen à rejeter ce dangereux accord, le rapporteur invite tout de même la Commission à proposer de nouvelles mesures répressives pour protéger le droit d'auteur, des brevets et des marques. Compte tenu des projets de la Commission, qui s'apprête à réviser la directive anti-partage IPRED et à accentuer la répression des infractions en ligne au droit d'auteur, il est clair que la victoire contre l'ACTA ne signifie pas la fin de la lutte pour le partage de la culture.
Ces attaques ne sont toutefois pas le seul fait de la Commission. Avec IPRED, la directive services en ligne (ou directive « e-Commerce »), et d'autres initiatives, l'industrie du divertissement va tout faire pour reprendre en main le débat, et s'opposer à tout changement significatif contre toute réforme visant à faire évoluer le droit d'auteur. Ces lobbies envoient d'ores-et-déjà des lettres au Parlement, pressant nos élus d'adopter l'ACTA1.
Tout en poursuivant la campagne en faveur du rejet de l'ACTA au Parlement européen, nous devons agir pour que le législateur européen revoie sa conception extrémiste en matière de droit d'auteur, de brevets et de droit des marques.
Ci-dessous, un point d'étape sur le débat au Parlement européen :
Commission « Commerce international » (INTA)
Au sein de la commission « Commerce international » (INTA) - en charge de guider les travaux sur l'ACTA - le rapporteur du texte pour le Parlement européen, l'eurodéputé David Martin (UK, S&D), a rendu public son projet de rapport, appelant le Parlement à rejeter l'ACTA2. Après avoir rappelé les principaux dangers de l'ACTA, comme la privatisation de la répression des infractions au droit d'auteur sur Internet, il souligne que « les bénéfices attendus de cet accord international sont largement inférieurs aux menaces qu'il fait peser sur les libertés civiles ».
Ce projet de rapport fait toutefois le jeu des lobbies du copyright, en appelant la Commission à « faire de nouvelles propositions pour protéger la propriété intellectuelle ».
C'est pourquoi les citoyens doivent contacter les membres de la Commission INTA et les appeler à rejeter l'ACTA, afin de mettre un terme à l'extension continue du droit d'auteur, des brevets, et des marques dans tous les accords commerciaux, comme ceux adoptés ou actuellement négociés par l'Union européenne avec l'Inde, la Corée, la Colombie et le Pérou...
David Martin présentera son projet de rapport le 25 avril. La commission INTA devrait adopter le rapport le 30 mai ou le 20 juin, après avoir pris en compte les rapports pour avis des autres commissions (voir ci-dessous).
Commission « Développement » (DEVE)
Au sein de la commission « Développement » (DEVE), le rapporteur Jan Zahradil (République Tchèque, ECR), a présenté un très mauvais projet de rapport pour avis en janvier. Ce dernier doit absolument être amendé pour prendre en compte les questions cruciales relatives aux conséquences de l'ACTA sur les pays en développement, et notamment les inquiétudes concernant l'accès aux médicaments et la liberté d'expression en ligne.
Au delà de l'ACTA, les membres de DEVE doivent aussi comprendre à quel point les mesures d'application du droit d'auteur et des brevets peuvent compromettent l'accès à la culture, aux médicaments et aux technologies, freinant ainsi le développement socio-économique des pays émergents.
La commission DEVE doit normalement décider cette semaine de la suite à donner à son rapport. Ses prochaines réunions sont prévues pour les 23 et 24 avril et pour le 14 mai.
Commission « Libertés civiles »(LIBE)
Au sein de la commission « Libertés civiles » (LIBE), qui doit rendre un rapport sur l'impact de l'ACTA sur les droits fondamentaux, le rapporteur Dimitrios Droutsas (Grèce, S&D) a déclaré la semaine dernière qu'il était convaincu que l'ACTA constituait une menace pour les libertés. Là encore, les citoyens doivent contacter les membres de la commission pour s'assurer que les autres membres de LIBE partagent son point de vue.
Le rapport de la commission LIBE doit notamment interpréter le texte de l'ACTA, dont l’ambiguïté est dangereuse, à la lumière des récentes évolutions des politiques en matière de droit d'auteur sur Internet. Devront ainsi être passées en revue les sanctions pénales, la responsabilité des intermédiaires et les appels à la « coopération » entre les acteurs de l'Internet et l'industrie du divertissement, qui constituerait une forme de censure privatisée3. Pour ouvrir la voie à une vraie réforme du droit d'auteur, le rapport de LIBE doit affirmer son opposition à des mesures extra-judiciaires pour protéger un droit d'auteur devenu inadapté.
Il est possible que le rapporteur Droutsas demande un court délai dans la procédure, de manière à laisser du temps pour le dépôt d'amendements. La présentation du rapport à la commission aurait lieu la semaine prochaine ou le 8 mai, pour un vote le 30 ou 31 mai.
Commission « Industrie » (ITRE)
Au sein de la commission « Industrie » (ITRE), la rapporteure Amelia Andersdötter (Suède, Greens/EFA) a rendu un projet de rapport pour avis encourageant. Elle souligne que l'ACTA « semble contraire à l'ambition (...) de faire de l'Europe le théâtre d'une innovation de pointe, ainsi que (...) de promouvoir la neutralité du Net et l'accès des PME au marché numérique en ligne »4. D'autres eurodéputés connus pour leurs positions allant à l'encontre de la protection des libertés sur Internet, comme Daniel Caspary (Allemagne, PPE), veulent cependant amender le rapport, probablement pour y insérer des arguments favorables à l'ACTA.
D'avantage encore que les autres citoyens, les innovateurs et entrepreneurs doivent appeler la commission ITRE pour s'assurer que tous ses membres comprennent pourquoi l'ACTA va à l'encontre de la croissance et de l'innovation, comme l'a d'ailleurs récemment rappelé l'industrie européenne des télécoms et d'Internet. Au delà de l'ACTA, les membres d'ITRE doivent être invités à dénoncer la pression grandissante qui pèse sur les fournisseurs de services en ligne pour qu'ils endossent le rôle de police privée du droit d'auteur.
La commission ITRE débattra sur son rapport le 25 avril, et devrait voter le 8 mai.
Commission des « Affaires juridiques » (JURI)
Au sein de la commission « Affaires juridiques » (JURI), la rapporteure Marielle Gallo (France, EPP), connue pour sa position extrême sur le renforcement du droit d'auteur, a récemment rendu public son projet de rapport pour avis. Sans surprise, ce dernier défend âprement l'ACTA, et appelle la commission INTA à recommander l'adoption de l'accord. Malheureusement, la commission a décidé de ne pas ouvrir ce projet de rapport à des amendements, et elle devra donc l'adopter ou le rejeter en l'état.
Les citoyens peuvent appeler les membres de la commission JURI à rejeter le projet de rapport de Mme Gallo. D'une part, ce dernier fait l'impasse sur les dispositions de l'ACTA qui vont au-delà du droit de l'Union européenne (par exemple pour les sanctions pénales, ou les mesures aux frontières). D'autre part, il se refuse à dénoncer le contournement démocratique évident de ce prétendu « accord commercial », négocié à l'écart des organisations internationales légitimes et des Parlements légitimes, et qui impose une répression brutale aux pays tiers.
Le vote de la commission JURI sur le projet de rapport pour avis de Mme Gallo devrait avoir lieu le 26 avril.
2. Pour les accord internationaux, les États membres doivent obtenir au préalable le « consentement » du Parlement européen avant de ratifier l'accord en question. Voir l'article 218.6 du Traité sur le fonctionnement de l'Union européenne : http://euwiki.org/TFEU#Article_218
";s:7:"dateiso";s:15:"20120419_170254";}s:15:"20120417_143058";a:7:{s:5:"title";s:82:"ACTA : Un projet de rapport encourageant, mais toujours sous influence des lobbies";s:4:"link";s:110:"http://www.laquadrature.net/fr/acta-un-projet-de-rapport-encourageant-mais-toujours-sous-influence-des-lobbies";s:4:"guid";s:35:"5646 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 17 Apr 2012 12:30:58 +0000";s:11:"description";s:7681:"
Paris, 17 avril 2012 - David Martin, le rapporteur d'ACTA au Parlement européen, a publié son projet de rapport recommandant à ses collègues le rejet de l'ACTA. Il s'agit d'une étape importante pour venir à bout de ce dangereux accord. Bien qu'il prenne position contre ACTA, le rapporteur soutient néanmoins la guerre contre le partage de la culture, qui sévit depuis près de 15 ans. Il évite aussi soigneusement d'évoquer toute réforme positive du droit d'auteur, pourtant nécessaire afin de protéger les libertés fondamentales en ligne et favoriser l'accès à la culture et à la connaissance.
Le rapporteur David Martin
Après avoir annoncé la semaine dernière, qu'il recommanderait le rejet de l'ACTA, le rapporteur David Martin (UK, S&D) tient ses engagements : son projet de rapport1 appelle le Parlement à refuser de « donner son consentement » à ACTA2 et souligne que « les bénéfices attendus de cet accord international sont largement inférieurs aux menaces qu'il fait peser sur les libertés civiles »3.
Tout en soulignant les principaux dangers de l'ACTA4, David Martin réconforte cependant les lobbies du copyright, des brevets et du droits des marques. En effet, plutôt que d'appeler à réformer l'approche répressive de l'UE en matière de droit d'auteur afin de protéger les droits fondamentaux et adapter l'économie culturelle aux technologies numériques et aux pratiques sociales, David Martin s'attarde longuement sur les dangers supposés de « la contrefaçon et du piratage ».
La confusion entre la contrefaçon réelle et dangereuse de produits physiques et le partage d'œuvres numériques, sans but de profit et entre individus, est une confusion typique véhiculée par les lobbies du copyright. Une telle confusion suggère de manière trompeuse qu'aucun changement fondamental de politique n'est nécessaire, et que l'approche répressive est justifiée par la défense de l'intérêt général.
La conclusion du projet de rapport de M. Martin appelle la Commission européenne de « faire de nouvelles propositions pour protéger la propriété interllectuelle »5. Cela est aussi une source d'inquiétude au regard des projets de la Commission, qui s'apprête à réviser la Directive anti-partage IPRED pour accentuer la répression des infractions en ligne au droit d'auteur.
« Ce projet de rapport marque une étape importante et montre que l'action collective des citoyens a déjà eu un impact déterminant sur le Parlement européen. Les citoyens doivent rester mobilisés dans les semaines à venir afin de s'assurer que le Parlement rejettera définitivement l'ACTA. Remporter la bataille contre l'ACTA ne suffira pas pour autant à mettre fin à la guerre contre le partage. Le projet de rapport de David Martin montre que le discours de l'industrie est enraciné dans le processus politique, et il faudra l'effort constant de la société civile pour faire prévaloir l'intérêt général. Au-delà de l'ACTA, c'est toute la politique de droit d'auteur et d'innovation qui doit être revue, afin de protéger les libertés en ligne et la circulation de la culture et de la connaissance », dit Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En savoir plus sur la procédure suivie par l'ACTA au Parlement européen.
Voir aussi le web-dossier de La Quadrature sur l'ACTA.
2. Pour les accord internationaux, les États membres doivent obtenir au préalable le « consentement » du Parlement européen avant de ratifier le projet en question. Voir l'article 218.6 du Traité sur le fonctionnement de l'Union européenne : http://euwiki.org/TFEU#Article_218
4. D'après le projet de rapport, «les conséquences involontaires du texte sont un motif sérieux d'inquiétude. Sur la pénalisation des individus, la définition de "l'échelle commerciale", le role des prestataires de services en ligne et la possible interruption du transit de médicaments génériques, votre rapporteur doute que l'ACTA soit aussi précis que nécessaire » (traduction par nos soins).
Paris, 17 avril 2012 - David Martin, le rapporteur d'ACTA au Parlement européen, a publié son projet de rapport recommandant à ses collègues le rejet de l'ACTA. Il s'agit d'une étape importante pour venir à bout de ce dangereux accord. Bien qu'il prenne position contre ACTA, le rapporteur soutient néanmoins la guerre contre le partage de la culture, qui sévit depuis près de 15 ans. Il évite aussi soigneusement d'évoquer toute réforme positive du droit d'auteur, pourtant nécessaire afin de protéger les libertés fondamentales en ligne et favoriser l'accès à la culture et à la connaissance.
Le rapporteur David Martin
Après avoir annoncé la semaine dernière, qu'il recommanderait le rejet de l'ACTA, le rapporteur David Martin (UK, S&D) tient ses engagements : son projet de rapport1 appelle le Parlement à refuser de « donner son consentement » à ACTA2 et souligne que « les bénéfices attendus de cet accord international sont largement inférieurs aux menaces qu'il fait peser sur les libertés civiles »3.
Tout en soulignant les principaux dangers de l'ACTA4, David Martin réconforte cependant les lobbies du copyright, des brevets et du droits des marques. En effet, plutôt que d'appeler à réformer l'approche répressive de l'UE en matière de droit d'auteur afin de protéger les droits fondamentaux et adapter l'économie culturelle aux technologies numériques et aux pratiques sociales, David Martin s'attarde longuement sur les dangers supposés de « la contrefaçon et du piratage ».
La confusion entre la contrefaçon réelle et dangereuse de produits physiques et le partage d'œuvres numériques, sans but de profit et entre individus, est une confusion typique véhiculée par les lobbies du copyright. Une telle confusion suggère de manière trompeuse qu'aucun changement fondamental de politique n'est nécessaire, et que l'approche répressive est justifiée par la défense de l'intérêt général.
La conclusion du projet de rapport de M. Martin appelle la Commission européenne de « faire de nouvelles propositions pour protéger la propriété interllectuelle »5. Cela est aussi une source d'inquiétude au regard des projets de la Commission, qui s'apprête à réviser la Directive anti-partage IPRED pour accentuer la répression des infractions en ligne au droit d'auteur.
« Ce projet de rapport marque une étape importante et montre que l'action collective des citoyens a déjà eu un impact déterminant sur le Parlement européen. Les citoyens doivent rester mobilisés dans les semaines à venir afin de s'assurer que le Parlement rejettera définitivement l'ACTA. Remporter la bataille contre l'ACTA ne suffira pas pour autant à mettre fin à la guerre contre le partage. Le projet de rapport de David Martin montre que le discours de l'industrie est enraciné dans le processus politique, et il faudra l'effort constant de la société civile pour faire prévaloir l'intérêt général. Au-delà de l'ACTA, c'est toute la politique de droit d'auteur et d'innovation qui doit être revue, afin de protéger les libertés en ligne et la circulation de la culture et de la connaissance », dit Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En savoir plus sur la procédure suivie par l'ACTA au Parlement européen.
Voir aussi le web-dossier de La Quadrature sur l'ACTA.
2. Pour les accord internationaux, les États membres doivent obtenir au préalable le « consentement » du Parlement européen avant de ratifier le projet en question. Voir l'article 218.6 du Traité sur le fonctionnement de l'Union européenne : http://euwiki.org/TFEU#Article_218
4. D'après le projet de rapport, «les conséquences involontaires du texte sont un motif sérieux d'inquiétude. Sur la pénalisation des individus, la définition de "l'échelle commerciale", le role des prestataires de services en ligne et la possible interruption du transit de médicaments génériques, votre rapporteur doute que l'ACTA soit aussi précis que nécessaire » (traduction par nos soins).
";s:7:"dateiso";s:15:"20120417_143058";}s:15:"20120410_122335";a:7:{s:5:"title";s:72:"ACTA: Le Parlement européen doit rester ferme sur sa position politique";s:4:"link";s:101:"http://www.laquadrature.net/fr/acta-le-parlement-europeen-doit-rester-ferme-sur-sa-position-politique";s:4:"guid";s:35:"5634 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 10 Apr 2012 10:23:35 +0000";s:11:"description";s:10892:"
Paris, 10 avril 2012 - Le Parlement ayant refusé de saisir la Cour de Justice de l'Union européenne (CJUE) sur ACTA, le vote final de l'accord devrait avoir lieu cet été, comme prévu initialement. Cette semaine constitue une nouvelle occasion pour les citoyens européens d'agir auprès de leurs représentants à Bruxelles, en les appelant à se livrer à un examen politique détaillé d'ACTA.
Le bras de fer institutionnel sur la procédure d'ACTA
La Commission européenne fait tout son possible pour sauver ACTA d'un rejet et s'engage dans un bras de fer institutionnel avec le Parlement européen. Petit résumé :
Il y a deux semaines, le Parlement a clairement indiqué qu'il ne soumettrait pas ACTA à la CJUE, et qu'il voterait sans délai sur ACTA.
Quelques jours plus tard, le commissaire européen au commerce Karel De Gucht a rendu public le texte de sa propre saisine, appelant le Parlement à « respecter » la Cour et à attendre qu'elle rende son avis avant de voter sur ACTA, ce qui retarderait le vote final d'au moins 18 mois.
Évidemment, la Commission n'est pas réellement intéressée par la question de la compatibilité d'ACTA avec les traités européens. Si c'était le cas, elle aurait sollicité l'avis de la Cour pendant les négociations de l'accord1.
« Le Parlement doit absolument résister aux pressions exercées par la Commission et protéger ses prérogatives. Les eurodéputés ne doivent pas se laisser détourner de leur important travail d'évaluation politique de l'ACTA. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
Le Parlement européen doit continuer l'évaluation politique d'ACTA
Cette semaine, outre deux auditions importantes au Parlement européen (les 11 avril et 12 avril), les différents groupes politiques doivent se rencontrer et discuter des programmes de travail des commission chargées d'ACTA :
Dans la commission « Commerce international » (INTA), saisie sur le fond, le rapporteur David Martin (UK, S&D) a annoncé qu'il présenterait un projet de rapport pour avis le 26 avril, dans lequel il recommandera l'approbation ou le rejet d'ACTA. La semaine dernière, le rapporteur a sous-entendu qu'il proposerait que le Parlement rejette l'accord2. Cette position doit encore être confirmée, et être suivie par ses collègues en INTA.
Dans la commission « Liberté publiques » (LIBE), qui doit rendre un rapport sur l'impact d'ACTA sur les droits fondamentaux, le rapporteur Dimitrios Droutsas (Grèce, S&D) devra conduire une analyse politique approfondie des conséquences d'ACTA sur les libertés sur Internet. Le rapport LIBE doit notamment interpréter le texte d'ACTA, dont l’ambiguïté est dangereuse, à la lumière des récentes évolutions des politiques en matière de droit d'auteur sur Internet. Devront ainsi être passées en revue les sanctions pénales, la responsabilité des intermédiaires et les appels à la « coopération » entre les acteurs de l'Internet et l'industrie du divertissement, qui mèneraient à la censure privatisée3.
Dans la commission « Industrie » (ITRE), la rapporteure Amelia Andersdötter (Suède, Greens/EFA) a rendu un projet de rapport pour avis encourageant. Elle souligne qu'ACTA « semble contraire à l'ambition (...) de faire de l'Europe le théâtre d'une innovation de pointe, ainsi que (...) de promouvoir la neutralité du Net et l'accès des PME au marché numérique en ligne »4. Les innovateurs et entrepreneurs doivent appeler la commission ITRE pour s'assurer que tous ses membres comprennent pourquoi ACTA va à l'encontre de la croissance et de l'innovation, dans l'économie numérique et au-delà.
Le rapporteur de la commission « Développement » (DEVE), Jan Zahradil (République Tchèque, ECR), a présenté un très mauvais projet de rapport en janvier. Ce dernier doit absolument être amendé pour prendre en compte les questions cruciales relatives aux conséquences d'ACTA sur les pays en développement, et notamment les inquiétudes concernant l'accès aux médicaments et la liberté d'expression en ligne.
Enfin, les membres de la commission « Affaires juridiques » (JURI) vont devoir résister à la rapporteure Marielle Gallo (France, EPP), connue pour sa position extrémiste en matière d'application du droit d'auteur en ligne. Son projet de rapport pour avis, qui doit encore être présenté, devra se concentrer sur les dispositions d'ACTA qui vont au-delà du droit européen actuel (comme les sanctions pénales ou les mesures aux frontières), mais aussi sur le déficit démocratique évident de ce prétendu « accord commercial », qui contourne les organisations internationales et les parlements nationaux pour imposer une répression brutale.
En savoir plus sur la procédure ACTA au Parlement européen.
1. Cette saisine n'est qu'une manœuvre destinée à gagner du temps pour échapper au contexte politique actuel. C'est pour cette raison que les lobbies pro-ACTA la soutiennent : « We fully support the Commission’s decision to expeditiously refer the text to the Court of Justice of the European Union (...) », a déclaré Ger Hatton, directeur général de la International Confederation of Music Publishers (ICMP). Voir son commentaire de cet article d'Euractiv : http://www.euractiv.com/infosociety/commission-sides-business-acta-news-511991
Paris, 10 avril 2012 - Le Parlement ayant refusé de saisir la Cour de Justice de l'Union européenne (CJUE) sur ACTA, le vote final de l'accord devrait avoir lieu cet été, comme prévu initialement. Cette semaine constitue une nouvelle occasion pour les citoyens européens d'agir auprès de leurs représentants à Bruxelles, en les appelant à se livrer à un examen politique détaillé d'ACTA.
Le bras de fer institutionnel sur la procédure d'ACTA
La Commission européenne fait tout son possible pour sauver ACTA d'un rejet et s'engage dans un bras de fer institutionnel avec le Parlement européen. Petit résumé :
Il y a deux semaines, le Parlement a clairement indiqué qu'il ne soumettrait pas ACTA à la CJUE, et qu'il voterait sans délai sur ACTA.
Quelques jours plus tard, le commissaire européen au commerce Karel De Gucht a rendu public le texte de sa propre saisine, appelant le Parlement à « respecter » la Cour et à attendre qu'elle rende son avis avant de voter sur ACTA, ce qui retarderait le vote final d'au moins 18 mois.
Évidemment, la Commission n'est pas réellement intéressée par la question de la compatibilité d'ACTA avec les traités européens. Si c'était le cas, elle aurait sollicité l'avis de la Cour pendant les négociations de l'accord1.
« Le Parlement doit absolument résister aux pressions exercées par la Commission et protéger ses prérogatives. Les eurodéputés ne doivent pas se laisser détourner de leur important travail d'évaluation politique de l'ACTA. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
Le Parlement européen doit continuer l'évaluation politique d'ACTA
Cette semaine, outre deux auditions importantes au Parlement européen (les 11 avril et 12 avril), les différents groupes politiques doivent se rencontrer et discuter des programmes de travail des commission chargées d'ACTA :
Dans la commission « Commerce international » (INTA), saisie sur le fond, le rapporteur David Martin (UK, S&D) a annoncé qu'il présenterait un projet de rapport pour avis le 26 avril, dans lequel il recommandera l'approbation ou le rejet d'ACTA. La semaine dernière, le rapporteur a sous-entendu qu'il proposerait que le Parlement rejette l'accord2. Cette position doit encore être confirmée, et être suivie par ses collègues en INTA.
Dans la commission « Liberté publiques » (LIBE), qui doit rendre un rapport sur l'impact d'ACTA sur les droits fondamentaux, le rapporteur Dimitrios Droutsas (Grèce, S&D) devra conduire une analyse politique approfondie des conséquences d'ACTA sur les libertés sur Internet. Le rapport LIBE doit notamment interpréter le texte d'ACTA, dont l’ambiguïté est dangereuse, à la lumière des récentes évolutions des politiques en matière de droit d'auteur sur Internet. Devront ainsi être passées en revue les sanctions pénales, la responsabilité des intermédiaires et les appels à la « coopération » entre les acteurs de l'Internet et l'industrie du divertissement, qui mèneraient à la censure privatisée3.
Dans la commission « Industrie » (ITRE), la rapporteure Amelia Andersdötter (Suède, Greens/EFA) a rendu un projet de rapport pour avis encourageant. Elle souligne qu'ACTA « semble contraire à l'ambition (...) de faire de l'Europe le théâtre d'une innovation de pointe, ainsi que (...) de promouvoir la neutralité du Net et l'accès des PME au marché numérique en ligne »4. Les innovateurs et entrepreneurs doivent appeler la commission ITRE pour s'assurer que tous ses membres comprennent pourquoi ACTA va à l'encontre de la croissance et de l'innovation, dans l'économie numérique et au-delà.
Le rapporteur de la commission « Développement » (DEVE), Jan Zahradil (République Tchèque, ECR), a présenté un très mauvais projet de rapport en janvier. Ce dernier doit absolument être amendé pour prendre en compte les questions cruciales relatives aux conséquences d'ACTA sur les pays en développement, et notamment les inquiétudes concernant l'accès aux médicaments et la liberté d'expression en ligne.
Enfin, les membres de la commission « Affaires juridiques » (JURI) vont devoir résister à la rapporteure Marielle Gallo (France, EPP), connue pour sa position extrémiste en matière d'application du droit d'auteur en ligne. Son projet de rapport pour avis, qui doit encore être présenté, devra se concentrer sur les dispositions d'ACTA qui vont au-delà du droit européen actuel (comme les sanctions pénales ou les mesures aux frontières), mais aussi sur le déficit démocratique évident de ce prétendu « accord commercial », qui contourne les organisations internationales et les parlements nationaux pour imposer une répression brutale.
En savoir plus sur la procédure ACTA au Parlement européen.
1. Cette saisine n'est qu'une manœuvre destinée à gagner du temps pour échapper au contexte politique actuel. C'est pour cette raison que les lobbies pro-ACTA la soutiennent : « We fully support the Commission’s decision to expeditiously refer the text to the Court of Justice of the European Union (...) », a déclaré Ger Hatton, directeur général de la International Confederation of Music Publishers (ICMP). Voir son commentaire de cet article d'Euractiv : http://www.euractiv.com/infosociety/commission-sides-business-acta-news-511991
";s:7:"dateiso";s:15:"20120410_122335";}s:15:"20120405_123007";a:7:{s:5:"title";s:69:"La Commission européenne tente toujours de retarder le vote sur ACTA";s:4:"link";s:99:"http://www.laquadrature.net/fr/la-commission-europeenne-tente-toujours-de-retarder-le-vote-sur-acta";s:4:"guid";s:35:"5616 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 05 Apr 2012 10:30:07 +0000";s:11:"description";s:3806:"
Paris, 5 avril 2012 – La Commission européenne vient de rendre public le texte de sa propre saisine de la Cour de justice de l'UE au sujet d'ACTA. Cette initiative intervient une semaine après le rejet de la proposition d'une saisine de la CJUE par le Parlement, qui aurait suspendu les travaux parlementaires sur ACTA pendant au moins 18 mois. Le Parlement devrait voter sur ACTA cet été, et doit continuer à résister aux tactiques technocrates de la Commission qui tente de sauver l'accord.
La Commission a mis plus d'un mois à déterminer la question qu'elle posera à la Cour, pourtant tout à fait prévisible. Comme attendu, elle consiste en une simple reformulation de l'article 218.11 du Traité sur le fonctionnement de l'UE1, qui donne à la Commission la possibilité de saisir la Cour pour avis sur un accord international.
La question est la suivante :
L'Accord Commercial Anti-Contrefaçon (ACTA) est-il compatible avec les traités européens, en particulier avec la Charte des droits fondamentaux de l'Union européenne ?2
« Le commissaire européen Karel De Gucht – défenseur borné d'ACTA, qui a constamment nié les problèmes politiques cruciaux soulevés par l'accord – entame désormais un bras de fer institutionnel avec le Parlement pour éviter le rejet d'ACTA. Mais le Parlement a déjà assuré qu'il assumerait ses responsabilités politiques envers les citoyens en maintenant le calendrier original et en votant sur ACTA sans délai. En tant que représentants élus, les eurodéputés doivent protéger leurs prérogatives et dénoncer les manœuvres technocratiques éhontées de la Commission. Au-delà des doutes sur sa compatibilité avec les traités, ACTA reste un accord plurilatéral dangereux et illégitime, négocié en dehors de toute procédure démocratique, dans le but de mettre en application un régime brutal du droit d'auteur, des brevets et des marques au niveau global. Le Parlement dispose déjà de suffisamment d'éléments pour évaluer les graves défauts d'ACTA et avancer vers un rejet clair et définitif de ce texte inacceptable. », a déclaré Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
2. traduction par nos soins. Texte original : Is the Anti-Counterfeiting Trade Agreement (ACTA) compatible with the European Treaties, in particular with the Charter of Fundamental Rights of the European Union?
";s:7:"content";s:3806:"
Paris, 5 avril 2012 – La Commission européenne vient de rendre public le texte de sa propre saisine de la Cour de justice de l'UE au sujet d'ACTA. Cette initiative intervient une semaine après le rejet de la proposition d'une saisine de la CJUE par le Parlement, qui aurait suspendu les travaux parlementaires sur ACTA pendant au moins 18 mois. Le Parlement devrait voter sur ACTA cet été, et doit continuer à résister aux tactiques technocrates de la Commission qui tente de sauver l'accord.
La Commission a mis plus d'un mois à déterminer la question qu'elle posera à la Cour, pourtant tout à fait prévisible. Comme attendu, elle consiste en une simple reformulation de l'article 218.11 du Traité sur le fonctionnement de l'UE1, qui donne à la Commission la possibilité de saisir la Cour pour avis sur un accord international.
La question est la suivante :
L'Accord Commercial Anti-Contrefaçon (ACTA) est-il compatible avec les traités européens, en particulier avec la Charte des droits fondamentaux de l'Union européenne ?2
« Le commissaire européen Karel De Gucht – défenseur borné d'ACTA, qui a constamment nié les problèmes politiques cruciaux soulevés par l'accord – entame désormais un bras de fer institutionnel avec le Parlement pour éviter le rejet d'ACTA. Mais le Parlement a déjà assuré qu'il assumerait ses responsabilités politiques envers les citoyens en maintenant le calendrier original et en votant sur ACTA sans délai. En tant que représentants élus, les eurodéputés doivent protéger leurs prérogatives et dénoncer les manœuvres technocratiques éhontées de la Commission. Au-delà des doutes sur sa compatibilité avec les traités, ACTA reste un accord plurilatéral dangereux et illégitime, négocié en dehors de toute procédure démocratique, dans le but de mettre en application un régime brutal du droit d'auteur, des brevets et des marques au niveau global. Le Parlement dispose déjà de suffisamment d'éléments pour évaluer les graves défauts d'ACTA et avancer vers un rejet clair et définitif de ce texte inacceptable. », a déclaré Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
2. traduction par nos soins. Texte original : Is the Anti-Counterfeiting Trade Agreement (ACTA) compatible with the European Treaties, in particular with the Charter of Fundamental Rights of the European Union?
";s:7:"dateiso";s:15:"20120405_123007";}s:15:"20120327_162441";a:7:{s:5:"title";s:54:"Le Parlement européen votera sans délai sur l'ACTA !";s:4:"link";s:80:"http://www.laquadrature.net/fr/le-parlement-europeen-votera-sans-delai-sur-lacta";s:4:"guid";s:35:"5579 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 27 Mar 2012 14:24:41 +0000";s:11:"description";s:3513:"
Bruxelles, 27 mars 2012 - Le Parlement européen vient de refuser de paralyser le débat sur l'ACTA, et ne saisira pas la Cour de Justice de l'Union européenne (CJUE). À l'issue d'un vote de 21 voix contre 5 et 2 abstentions, le Parlement a choisi de respecter le calendrier initialement prévu, et votera sur l'ACTA en juin. Les manœuvres technocratiques de la Commission n'ont pas réussi à bloquer le travail du Parlement, et la porte reste ouverte à un rejet ferme et définitif de l'ACTA.
Après un débat animé, au cours duquel quelques eurodéputés pro-ACTA ont invoqué des arguments procéduraux pour repousser toute prise de décision, la commission du « Commerce International » (INTA) du Parlement européen a refusé de saisir la CJUE au sujet de l'ACTA. Une telle saisine aurait retardé d'au moins 18 mois le vote final sur l'accord anti-contrefaçon.
S'engageant à respecter le calendrier initial, le rapporteur de l'ACTA David Martin (S&D, UK) présentera un projet de rapport le 25 avril prochain. Ce texte servira de base pour la recommandation finale de la commission INTA au reste du Parlement européen, en appelant soit à l'adoption, soit au rejet de l'ACTA.
Les membres de la commission INTA, comme les autres députés travaillant sur les rapports pour avis, vont donc continuer leurs travaux sur cet accord illégitime.
« Ce vote est le premier véritable test sur l'équilibre des forces en présence au Parlement européen depuis que le mouvement citoyen anti-ACTA a débuté. Il met en lumière la prise de conscience progressive, pour un grand nombre d'eurodéputés, des problèmes posés par l'ACTA. Il démontre également leur capacité à éviter les pièges procéduraux de la Commission européenne et de quelques eurodéputés pro-ACTA. Il s'agit d'une avancée prometteuse, mais seul le rejet ferme de l'ACTA mettra un point final à ce débat », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Les manœuvres de la Commission et du rapporteur ont été évitées, et le Parlement va maintenant pouvoir poursuivre ses travaux sur l'ACTA. Les eurodéputés doivent faire toute la lumière sur les problèmes démocratiques et politiques soulevés par l'ACTA, tels que les mesures extra-judiciaires visant à accroître la répression contre le partage de la culture en ligne », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Bruxelles, 27 mars 2012 - Le Parlement européen vient de refuser de paralyser le débat sur l'ACTA, et ne saisira pas la Cour de Justice de l'Union européenne (CJUE). À l'issue d'un vote de 21 voix contre 5 et 2 abstentions, le Parlement a choisi de respecter le calendrier initialement prévu, et votera sur l'ACTA en juin. Les manœuvres technocratiques de la Commission n'ont pas réussi à bloquer le travail du Parlement, et la porte reste ouverte à un rejet ferme et définitif de l'ACTA.
Après un débat animé, au cours duquel quelques eurodéputés pro-ACTA ont invoqué des arguments procéduraux pour repousser toute prise de décision, la commission du « Commerce International » (INTA) du Parlement européen a refusé de saisir la CJUE au sujet de l'ACTA. Une telle saisine aurait retardé d'au moins 18 mois le vote final sur l'accord anti-contrefaçon.
S'engageant à respecter le calendrier initial, le rapporteur de l'ACTA David Martin (S&D, UK) présentera un projet de rapport le 25 avril prochain. Ce texte servira de base pour la recommandation finale de la commission INTA au reste du Parlement européen, en appelant soit à l'adoption, soit au rejet de l'ACTA.
Les membres de la commission INTA, comme les autres députés travaillant sur les rapports pour avis, vont donc continuer leurs travaux sur cet accord illégitime.
« Ce vote est le premier véritable test sur l'équilibre des forces en présence au Parlement européen depuis que le mouvement citoyen anti-ACTA a débuté. Il met en lumière la prise de conscience progressive, pour un grand nombre d'eurodéputés, des problèmes posés par l'ACTA. Il démontre également leur capacité à éviter les pièges procéduraux de la Commission européenne et de quelques eurodéputés pro-ACTA. Il s'agit d'une avancée prometteuse, mais seul le rejet ferme de l'ACTA mettra un point final à ce débat », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Les manœuvres de la Commission et du rapporteur ont été évitées, et le Parlement va maintenant pouvoir poursuivre ses travaux sur l'ACTA. Les eurodéputés doivent faire toute la lumière sur les problèmes démocratiques et politiques soulevés par l'ACTA, tels que les mesures extra-judiciaires visant à accroître la répression contre le partage de la culture en ligne », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
";s:7:"dateiso";s:15:"20120327_162441";}s:15:"20120320_110146";a:7:{s:5:"title";s:82:"Pour une politique des fréquences au service de l'innovation et de la démocratie";s:4:"link";s:110:"http://www.laquadrature.net/fr/pour-une-politique-des-frequences-au-service-de-linnovation-et-de-la-democratie";s:4:"guid";s:35:"5566 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 20 Mar 2012 10:01:46 +0000";s:11:"description";s:17052:"
En dehors des accès WiFi, l'Internet sans-fil que nous vendent les opérateurs télécoms est un Internet truffé de restrictions d'accès, de bridages et de blocages en tous genres, qui portent atteinte au principe fondamental de neutralité du réseau1 et restreignent notre liberté de communication. Cet Internet sans-fil auquel nous accédons n'est qu'un ersatz d'Internet, géré par quelques opérateurs télécoms suffisamment puissants pour récolter les licences accordées par les pouvoirs publics, qui eux-mêmes exercent un monopole sur la ressource publique qu'est le spectre hertzien (c'est-à-dire les ondes radio)2.
Le 17 janvier dernier, l'Arcep délivrait aux opérateurs télécoms dominants les autorisations d'utilisation de la plus belle partie du « dividende numérique » permis par le passage à la TNT3 : les fréquences « en or », qui offrent un rapport particulièrement intéressant entre la propagation des ondes et la bande passante disponible, et donc une couverture maximale à moindre coût. Orange, SFR, Bouygues se sont ainsi vus accorder des blocs de fréquences dans la bande 800 MHz en vue du déploiement de leurs réseaux 4G.
Les pouvoirs publics se sont félicités de cette opération : les recettes perçues par l'État en échange de ces attributions s'élèvent à 2,6 milliards d'euros, qui viendront s'ajouter aux 936 millions déjà engrangés à l'occasion de la première série d'attributions de fréquences 4G dans la bande des 2,6 Ghz, en octobre dernier.
L'ouverture des fréquences : un sujet tabou ?
Ces manœuvres d'apparence technique se déroulent sans que personne ou presque ne remette en cause le bien fondé de cette logique de valorisation patrimoniale qui dicte l'attribution de cette ressource publique.
Certes, la 4G peut permettre de développer des réseaux très haut débit et amener l'Internet sans fil dans des territoires encore mal desservis, grâce aux engagements pris par les opérateurs. Certes, l'attribution de ces licences pourrait engendrer un nouveau cycle d'investissement permettant de réduire la congestion des réseaux sans-fil, et les opérateurs ne pourraient alors plus invoquer cette excuse pour justifier les restrictions d'accès endémiques qui gangrènent l'Internet mobile et violent la neutralité des réseaux. Et pourtant...
Faute d'un débat ouvert sur la politique du spectre radio en France et en Europe, nous nous privons d'autres options politiques, plus porteuses encore pour l'innovation et la compétitivité de notre économie, pour la démocratisation de nos réseaux de communication, pour l'intérêt général.
Quelles sont ces options ? L'élargissement d'une politique initiée il y a 30 ans avec les radios amateurs et relancée à la fin des années 1990 avec le lancement du WiFi, en autorisant l'accès libre – c'est-à-dire non soumis à l'octroi préalable d'une licence – à de nouvelles parties du spectre. Certaines fréquences sont particulièrement prometteuses pour élargir ces politiques : les « fréquences en or » issues du dividende numérique, celles attribuées aux opérateurs WiMax (dont nombre font l'objet d'une mise en demeure de l'Arcep pour manquement à leurs obligations), ou encore les fréquences situées dans les « espaces blancs » (ces fréquences attribuées aux chaînes de télévision mais laissées vacantes afin de créer des zones tampons évitant les interférences entre les émissions des différentes chaînes).
Un potentiel encore insoupçonné
Plutôt qu'un mode centralisé d'administration des fréquences hertziennes, où l'on accorde à une seule entité la possibilité de développer des réseaux, le modèle d'accès ouvert décentralise l'infrastructure des communications sans-fil. De là, chacun peut construire un réseau moyennant le respect de certaines normes techniques, notamment grâce aux petits émetteurs radio (femotocells ou picocells, dont le prix ne cesse de baisser), ainsi qu'aux technologies de réseaux maillés – où chaque récepteur radio est aussi émetteur et constitue un nœud du réseau.
Une fois l'accès aux fréquences ainsi ouvert, un grand nombre d'applications deviennent possibles, dont bon nombre sont encore insoupçonnées. Au niveau local, les fournisseurs d'accès associatifs et autres citoyens passionnés qui œuvrent pour un accès élargi à Internet, telles que Tetaneutral ou Sames Wireless, pourraient utiliser de nouvelles parties du spectre pour construire à moindre coût des réseaux de plus grande échelle, reliant un village isolé au reste de l'Internet, ou déployant un réseau sans-fil très haut débit à l'échelle d'une ville entière.
Au-delà des télécoms, dans le domaine de l'e-santé, de la logistique, de la fourniture d'énergie, de nombreux secteurs bénéficieraient également d'un accès ouvert aux fréquences pour innover et développer de nouveaux services. Yochai Benkler, professeur à Harvard, rappelle ainsi dans une étude récente qu'aux États-Unis, lorsqu'elles ont le choix, seule une minorité des entreprises de ces secteurs optent pour un accès sous licence pour leurs différentes applications, le plus souvent en s'octroyant les services d'un des opérateurs télécoms dominants, tels que l'opérateur historique AT&T. De quoi relativiser fortement les arguments qui voient dans un mode d'administration centralisé du spectre la garantie de la qualité de service. Même dans le secteur télécom, les opérateurs titulaires des licences ont eux-mêmes recours au WiFi pour décharger leurs réseaux saturés. D'après certaines estimations, d'ici à 2015, l'« offloading » (« déchargement » des réseaux 3G et 4G vers les réseaux WiFi) atteindra 30% du trafic « data » des opérateurs !
Un rendez-vous manqué pour l'Europe
Comme le suggèrent ces chiffres, les États-Unis sont en train de prendre une longueur d'avance sur l'Europe en matière de communications sans-fil, alors que la FCC s'apprête à parachever le cadre de régulation technique et juridique pour autoriser des accès libres aux espaces blancs et que le Congrès vient d'adopter une loi sanctuarisant ces politiques.
Au printemps 2011, le Parlement européen a bien tenté d’enclencher le mouvement, à l'occasion du débat sur le programme politique européen en matière de gestion du spectre. Les eurodéputés ont ainsi appelé la Commission européenne et les États-membres à œuvrer pour l'ouverture des fréquences. Malheureusement, les gouvernements des États membres, réunis au sein du Conseil de l'Union européenne, ont invoqué la défense de leurs prérogatives nationales dans ce domaine pour opposer une fin de non recevoir aux demandes du Parlement. Bien que les eurodéputés aient obtenu un engagement symbolique de la part du Conseil, aucune disposition contraignante n'a finalement été retenue.
Par conservatisme, les gouvernements européens, et notamment le gouvernement français, se refusent à débattre sérieusement de l'ouverture des fréquences. Aucune trace d'un tel débat dans le rapport de la Commission pour le dividende numérique, chargée en 2007 de proposer des orientations en matière de politique du spectre en France. Tout juste une courte référence aux espaces blancs dans le rapport « France numérique 2012 », présenté en 2008. Le rapport prenait acte du leadership américain dans ce domaine et affirmait :
Ces espaces blancs ou “white spaces” permettraient à une nouvelle génération de terminaux connectés de voir le jour et ainsi contribuer à la diversification des offres et services. La France pourrait devenir l’un des pays moteurs en Europe pour l’utilisation harmonisée des espaces blancs, et créer, à l’instar du dividende numérique, un vrai projet industriel au niveau européen.
Pour donner corps à ces bonnes résolutions, le rapport annonçait que l'Agence nationale des fréquences remettrait ses conclusions pour le 1er janvier 2009 sur l’utilisation de ces « espaces blancs » pour le très haut débit, en lien avec l'Arcep… Des conclusions que l'on attend toujours.
Le spectre radio, un bien commun à réhabiliter
L'attribution récente des fréquences en or, avec plus de 3,5 milliards d'euros de recettes escomptées, est évidemment présentée par les pouvoirs publics comme une opération réussie : l'État met ainsi la main sur une manne financière importante, en particulier en ces temps de disette budgétaire, et le secteur privé peut amorcer le déploiement de nouveaux réseaux sans-fil censés permettre la diversification des services et une meilleure couverture du territoire.
Pourtant, le principe même de l'attribution centralisée des fréquences repose sur des postulats et considérations archaïques, qui interdisent des politiques ambitieuses. Pourquoi ne pas, par exemple, conditionner l'octroi de ces fréquences à un engagement fort en matière de tarif social ou de respect de la neutralité du Net ? Et surtout, pourquoi ne pas accepter qu'au moins une partie de ces fréquences puisse faire l'objet d'un accès non soumis à licence ? Évidemment, les lobbies des opérateurs s'y opposent, souhaitant maintenir leur mainmise sur le secteur de l'accès à l'Internet sans-fil. Et il semble qu'ils soient entendus, puisque le gouvernement a fait le choix du statut quo, compromettant ainsi une politique de long terme plus porteuse pour l'innovation, le développement économique et la démocratisation de nos réseaux de communication.
Dans l'audiovisuel comme dans les télécoms4, la réalité de la politique du spectre actuelle est celle d'une ressource publique largement mise à disposition d'acteurs privés, souvent sans que l'intérêt général n'ait été réellement pris en compte. Face au potentiel de réduction de la fracture numérique, face au potentiel d'innovation et de gains de compétitivité que laisse entrevoir l'ouverture de l'accès aux fréquences, l'État semble à nouveau enfermé dans une logique de régulation qui favorise les acteurs industriels les mieux établis. Il est grand temps d'ouvrir sérieusement ce débat sur la politique des fréquences, afin de rééquilibrer nos politiques du spectre en faveur d'un accès partagé et citoyen à cette ressource essentielle pour nos sociétés en réseau.
1. La neutralité du Net ou la neutralité du réseau est un principe qui garantit l'égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l'égard de la source, de la destination ou du contenu de l'information transmise sur le réseau. http://fr.wikipedia.org/wiki/Neutralit%C3%A9_des_r%C3%A9seaux
4. En matière audiovisuelle également, on est en droit de se demander s'il est bien raisonnable que le CSA se lance dans l'attribution de fréquences à 6 nouvelles chaînes TNT en haute définition, alors même qu'on observe une concentration rampante du secteur. De même, nous assistons à des comportements spéculatifs de certains groupes, à l'image de Bolloré qui s'apprête à engranger d'importantes plus-values financières en revendant à Canal + une partie de ses chaînes Direct 8 et Direct Star, chaînes qui n'ont pu se développer que grâce à l'octroi gracieux de fréquences par l'État.
";s:7:"content";s:17055:"
En dehors des accès WiFi, l'Internet sans-fil que nous vendent les opérateurs télécoms est un Internet truffé de restrictions d'accès, de bridages et de blocages en tous genres, qui portent atteinte au principe fondamental de neutralité du réseau1 et restreignent notre liberté de communication. Cet Internet sans-fil auquel nous accédons n'est qu'un ersatz d'Internet, géré par quelques opérateurs télécoms suffisamment puissants pour récolter les licences accordées par les pouvoirs publics, qui eux-mêmes exercent un monopole sur la ressource publique qu'est le spectre hertzien (c'est-à-dire les ondes radio)2.
Le 17 janvier dernier, l'Arcep délivrait aux opérateurs télécoms dominants les autorisations d'utilisation de la plus belle partie du « dividende numérique » permis par le passage à la TNT3 : les fréquences « en or », qui offrent un rapport particulièrement intéressant entre la propagation des ondes et la bande passante disponible, et donc une couverture maximale à moindre coût. Orange, SFR, Bouygues se sont ainsi vus accorder des blocs de fréquences dans la bande 800 MHz en vue du déploiement de leurs réseaux 4G.
Les pouvoirs publics se sont félicités de cette opération : les recettes perçues par l'État en échange de ces attributions s'élèvent à 2,6 milliards d'euros, qui viendront s'ajouter aux 936 millions déjà engrangés à l'occasion de la première série d'attributions de fréquences 4G dans la bande des 2,6 Ghz, en octobre dernier.
L'ouverture des fréquences : un sujet tabou ?
Ces manœuvres d'apparence technique se déroulent sans que personne ou presque ne remette en cause le bien fondé de cette logique de valorisation patrimoniale qui dicte l'attribution de cette ressource publique.
Certes, la 4G peut permettre de développer des réseaux très haut débit et amener l'Internet sans fil dans des territoires encore mal desservis, grâce aux engagements pris par les opérateurs. Certes, l'attribution de ces licences pourrait engendrer un nouveau cycle d'investissement permettant de réduire la congestion des réseaux sans-fil, et les opérateurs ne pourraient alors plus invoquer cette excuse pour justifier les restrictions d'accès endémiques qui gangrènent l'Internet mobile et violent la neutralité des réseaux. Et pourtant...
Faute d'un débat ouvert sur la politique du spectre radio en France et en Europe, nous nous privons d'autres options politiques, plus porteuses encore pour l'innovation et la compétitivité de notre économie, pour la démocratisation de nos réseaux de communication, pour l'intérêt général.
Quelles sont ces options ? L'élargissement d'une politique initiée il y a 30 ans avec les radios amateurs et relancée à la fin des années 1990 avec le lancement du WiFi, en autorisant l'accès libre – c'est-à-dire non soumis à l'octroi préalable d'une licence – à de nouvelles parties du spectre. Certaines fréquences sont particulièrement prometteuses pour élargir ces politiques : les « fréquences en or » issues du dividende numérique, celles attribuées aux opérateurs WiMax (dont nombre font l'objet d'une mise en demeure de l'Arcep pour manquement à leurs obligations), ou encore les fréquences situées dans les « espaces blancs » (ces fréquences attribuées aux chaînes de télévision mais laissées vacantes afin de créer des zones tampons évitant les interférences entre les émissions des différentes chaînes).
Un potentiel encore insoupçonné
Plutôt qu'un mode centralisé d'administration des fréquences hertziennes, où l'on accorde à une seule entité la possibilité de développer des réseaux, le modèle d'accès ouvert décentralise l'infrastructure des communications sans-fil. De là, chacun peut construire un réseau moyennant le respect de certaines normes techniques, notamment grâce aux petits émetteurs radio (femotocells ou picocells, dont le prix ne cesse de baisser), ainsi qu'aux technologies de réseaux maillés – où chaque récepteur radio est aussi émetteur et constitue un nœud du réseau.
Une fois l'accès aux fréquences ainsi ouvert, un grand nombre d'applications deviennent possibles, dont bon nombre sont encore insoupçonnées. Au niveau local, les fournisseurs d'accès associatifs et autres citoyens passionnés qui œuvrent pour un accès élargi à Internet, telles que Tetaneutral ou Sames Wireless, pourraient utiliser de nouvelles parties du spectre pour construire à moindre coût des réseaux de plus grande échelle, reliant un village isolé au reste de l'Internet, ou déployant un réseau sans-fil très haut débit à l'échelle d'une ville entière.
Au-delà des télécoms, dans le domaine de l'e-santé, de la logistique, de la fourniture d'énergie, de nombreux secteurs bénéficieraient également d'un accès ouvert aux fréquences pour innover et développer de nouveaux services. Yochai Benkler, professeur à Harvard, rappelle ainsi dans une étude récente qu'aux États-Unis, lorsqu'elles ont le choix, seule une minorité des entreprises de ces secteurs optent pour un accès sous licence pour leurs différentes applications, le plus souvent en s'octroyant les services d'un des opérateurs télécoms dominants, tels que l'opérateur historique AT&T. De quoi relativiser fortement les arguments qui voient dans un mode d'administration centralisé du spectre la garantie de la qualité de service. Même dans le secteur télécom, les opérateurs titulaires des licences ont eux-mêmes recours au WiFi pour décharger leurs réseaux saturés. D'après certaines estimations, d'ici à 2015, l'« offloading » (« déchargement » des réseaux 3G et 4G vers les réseaux WiFi) atteindra 30% du trafic « data » des opérateurs !
Un rendez-vous manqué pour l'Europe
Comme le suggèrent ces chiffres, les États-Unis sont en train de prendre une longueur d'avance sur l'Europe en matière de communications sans-fil, alors que la FCC s'apprête à parachever le cadre de régulation technique et juridique pour autoriser des accès libres aux espaces blancs et que le Congrès vient d'adopter une loi sanctuarisant ces politiques.
Au printemps 2011, le Parlement européen a bien tenté d’enclencher le mouvement, à l'occasion du débat sur le programme politique européen en matière de gestion du spectre. Les eurodéputés ont ainsi appelé la Commission européenne et les États-membres à œuvrer pour l'ouverture des fréquences. Malheureusement, les gouvernements des États membres, réunis au sein du Conseil de l'Union européenne, ont invoqué la défense de leurs prérogatives nationales dans ce domaine pour opposer une fin de non recevoir aux demandes du Parlement. Bien que les eurodéputés aient obtenu un engagement symbolique de la part du Conseil, aucune disposition contraignante n'a finalement été retenue.
Par conservatisme, les gouvernements européens, et notamment le gouvernement français, se refusent à débattre sérieusement de l'ouverture des fréquences. Aucune trace d'un tel débat dans le rapport de la Commission pour le dividende numérique, chargée en 2007 de proposer des orientations en matière de politique du spectre en France. Tout juste une courte référence aux espaces blancs dans le rapport « France numérique 2012 », présenté en 2008. Le rapport prenait acte du leadership américain dans ce domaine et affirmait :
Ces espaces blancs ou “white spaces” permettraient à une nouvelle génération de terminaux connectés de voir le jour et ainsi contribuer à la diversification des offres et services. La France pourrait devenir l’un des pays moteurs en Europe pour l’utilisation harmonisée des espaces blancs, et créer, à l’instar du dividende numérique, un vrai projet industriel au niveau européen.
Pour donner corps à ces bonnes résolutions, le rapport annonçait que l'Agence nationale des fréquences remettrait ses conclusions pour le 1er janvier 2009 sur l’utilisation de ces « espaces blancs » pour le très haut débit, en lien avec l'Arcep… Des conclusions que l'on attend toujours.
Le spectre radio, un bien commun à réhabiliter
L'attribution récente des fréquences en or, avec plus de 3,5 milliards d'euros de recettes escomptées, est évidemment présentée par les pouvoirs publics comme une opération réussie : l'État met ainsi la main sur une manne financière importante, en particulier en ces temps de disette budgétaire, et le secteur privé peut amorcer le déploiement de nouveaux réseaux sans-fil censés permettre la diversification des services et une meilleure couverture du territoire.
Pourtant, le principe même de l'attribution centralisée des fréquences repose sur des postulats et considérations archaïques, qui interdisent des politiques ambitieuses. Pourquoi ne pas, par exemple, conditionner l'octroi de ces fréquences à un engagement fort en matière de tarif social ou de respect de la neutralité du Net ? Et surtout, pourquoi ne pas accepter qu'au moins une partie de ces fréquences puisse faire l'objet d'un accès non soumis à licence ? Évidemment, les lobbies des opérateurs s'y opposent, souhaitant maintenir leur mainmise sur le secteur de l'accès à l'Internet sans-fil. Et il semble qu'ils soient entendus, puisque le gouvernement a fait le choix du statut quo, compromettant ainsi une politique de long terme plus porteuse pour l'innovation, le développement économique et la démocratisation de nos réseaux de communication.
Dans l'audiovisuel comme dans les télécoms4, la réalité de la politique du spectre actuelle est celle d'une ressource publique largement mise à disposition d'acteurs privés, souvent sans que l'intérêt général n'ait été réellement pris en compte. Face au potentiel de réduction de la fracture numérique, face au potentiel d'innovation et de gains de compétitivité que laisse entrevoir l'ouverture de l'accès aux fréquences, l'État semble à nouveau enfermé dans une logique de régulation qui favorise les acteurs industriels les mieux établis. Il est grand temps d'ouvrir sérieusement ce débat sur la politique des fréquences, afin de rééquilibrer nos politiques du spectre en faveur d'un accès partagé et citoyen à cette ressource essentielle pour nos sociétés en réseau.
1. La neutralité du Net ou la neutralité du réseau est un principe qui garantit l'égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l'égard de la source, de la destination ou du contenu de l'information transmise sur le réseau. http://fr.wikipedia.org/wiki/Neutralit%C3%A9_des_r%C3%A9seaux
4. En matière audiovisuelle également, on est en droit de se demander s'il est bien raisonnable que le CSA se lance dans l'attribution de fréquences à 6 nouvelles chaînes TNT en haute définition, alors même qu'on observe une concentration rampante du secteur. De même, nous assistons à des comportements spéculatifs de certains groupes, à l'image de Bolloré qui s'apprête à engranger d'importantes plus-values financières en revendant à Canal + une partie de ses chaînes Direct 8 et Direct Star, chaînes qui n'ont pu se développer que grâce à l'octroi gracieux de fréquences par l'État.
";s:7:"dateiso";s:15:"20120320_110146";}s:15:"20120319_174050";a:7:{s:5:"title";s:34:"Exigez le rejet rapide de l'ACTA !";s:4:"link";s:62:"http://www.laquadrature.net/fr/exigez-le-rejet-rapide-de-lacta";s:4:"guid";s:35:"5563 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 19 Mar 2012 16:40:50 +0000";s:11:"description";s:8287:"
Paris, 19 mars 2012 - Des discussions cruciales ont actuellement lieu au Parlement européen pour décider du futur de l'ACTA. Alors que le rapporteur David Martin s'aligne avec la position de la Commission en essayant de désamorcer le débat et de retarder le vote final sur l'ACTA, d'autres eurodéputés insistent sur la nécessité de voter dans les mois qui viennent, comme prévu initialement. En appelant à un rejet rapide de l'ACTA avant les réunions de la semaine prochaine au Parlement européen, les citoyens européens ont un rôle décisif à jouer.
Depuis début mars, le rapporteur britannique de l'ACTA, David Martin, encourage la stratégie de la Commission européenne en tentant de repousser le vote final du Parlement européen sur l'ACTA afin d'éviter son rejet. Alors que la Commission finalise sa saisine de la Cour de justice de l'Union européenne (CJUE) sur l'ACTA1, David Martin souhaite que le Parlement saisisse lui-même la Cour, sur la même question, ce qui repousserait le vote final d'un ou deux ans.
En parallèle, David Martin propose de remplacer le rapport du Parlement, censé guider son vote, par un rapport intermédiaire qui empêcherait toute prise de position politique ferme recommandant le rejet d'ACTA2.
Les eurodéputés doivent s'opposer à ces tours de passe-passe politiciens, et travailler à un rapport politiquement contraignant qui condamnerait fermement l'ACTA. David Martin s'est déjà heurté à l'opposition ferme de son propre groupe, les Socialistes & Démocrates (S&D), qui rejette toute saisine parlementaire de la CJUE3. Cependant, d'autres groupes politiques sont toujours indécis et doivent être convaincus de l'importance pour le Parlement européen de continuer la procédure relative à l'ACTA, et de s'en tenir au calendrier initial pour le vote final.
Appelons le Parlement européen à rejeter l'ACTA au plus vite !
Les décisions sur la suite de la procédure relative à l'ACTA seront prises en début de semaine prochaine lors des réunions de la commission au Commerce international (INTA), qui dirige les travaux du Parlement. Les citoyens peuvent jouer un rôle décisif, comme ils l'ont déjà fait par le passé, en faisant entendre leur voix.
Appelez vos députés à prendre en compte les nombreux problèmes politiques que posent l'ACTA, et à continuer à travailler pour un rejet ferme de ce texte dangereux.
Un outil téléphonique de campagne vous permet d'appeler gratuitement les députés du Parlement européen et vous fournit des arguments et des renseignements sur vos interlocuteurs.
Les prochaines réunions du Parlement européen sur ACTA
Lundi 26 mars :
Les coordinateurs de la commission INTA décideront d'un éventuel vote sur une saisine de la CJUE par le Parlement européen
Mardi 27 mars :
La commission INTA débattra d'une potentielle saisine parlementaire de la CJUE, ainsi que de l'opportunité d'un « rapport intermédiaire »
Pour être informé des prochaines moments-clé pour inciter les eurodéputés à rejeter ACTA, envoyez un mail vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste de diffusion.
Pour discuter d'ACTA, abonnez-vous à notre liste de discussion en envoyant un email vide à acta-subscribe@laquadrature.net. Votre adresse mail ne sera pas utilisée pour quoi que ce soit d'autre.
1. Selon le Commissaire Karel De Gucht, chargé du dossier ACTA, le service juridique de la Commission devrait finaliser la question qui sera posée à la CJUE dans les prochains jours : http://www.youtube.com/watch?v=JQMkUW2dZ7I
2. Un rapport intermédiaire équivaut à une résolution non-contraignante. Voir règle 81(3) de procédure du Parlement européen : « Lorsque l'approbation du Parlement est requise pour une proposition d'acte législatif ou pour un traité international envisagé, la commission compétente peut décider, en vue de favoriser une issue positive de la procédure, de présenter au Parlement un rapport intérimaire sur la proposition, qui contient une proposition de résolution comprenant des recommandations concernant la modification ou la mise en œuvre de l'acte proposé. ». Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120110+RULE-081+DOC+XML+V0//FR&navigationBar=YES
3. En effet, la semaine dernière, durant une réunion de groupe, le S&D a décidé de s'opposer à la saisine de la CJUE à propos d'ACTA par 59 voix contre 37.
";s:7:"content";s:8287:"
Paris, 19 mars 2012 - Des discussions cruciales ont actuellement lieu au Parlement européen pour décider du futur de l'ACTA. Alors que le rapporteur David Martin s'aligne avec la position de la Commission en essayant de désamorcer le débat et de retarder le vote final sur l'ACTA, d'autres eurodéputés insistent sur la nécessité de voter dans les mois qui viennent, comme prévu initialement. En appelant à un rejet rapide de l'ACTA avant les réunions de la semaine prochaine au Parlement européen, les citoyens européens ont un rôle décisif à jouer.
Depuis début mars, le rapporteur britannique de l'ACTA, David Martin, encourage la stratégie de la Commission européenne en tentant de repousser le vote final du Parlement européen sur l'ACTA afin d'éviter son rejet. Alors que la Commission finalise sa saisine de la Cour de justice de l'Union européenne (CJUE) sur l'ACTA1, David Martin souhaite que le Parlement saisisse lui-même la Cour, sur la même question, ce qui repousserait le vote final d'un ou deux ans.
En parallèle, David Martin propose de remplacer le rapport du Parlement, censé guider son vote, par un rapport intermédiaire qui empêcherait toute prise de position politique ferme recommandant le rejet d'ACTA2.
Les eurodéputés doivent s'opposer à ces tours de passe-passe politiciens, et travailler à un rapport politiquement contraignant qui condamnerait fermement l'ACTA. David Martin s'est déjà heurté à l'opposition ferme de son propre groupe, les Socialistes & Démocrates (S&D), qui rejette toute saisine parlementaire de la CJUE3. Cependant, d'autres groupes politiques sont toujours indécis et doivent être convaincus de l'importance pour le Parlement européen de continuer la procédure relative à l'ACTA, et de s'en tenir au calendrier initial pour le vote final.
Appelons le Parlement européen à rejeter l'ACTA au plus vite !
Les décisions sur la suite de la procédure relative à l'ACTA seront prises en début de semaine prochaine lors des réunions de la commission au Commerce international (INTA), qui dirige les travaux du Parlement. Les citoyens peuvent jouer un rôle décisif, comme ils l'ont déjà fait par le passé, en faisant entendre leur voix.
Appelez vos députés à prendre en compte les nombreux problèmes politiques que posent l'ACTA, et à continuer à travailler pour un rejet ferme de ce texte dangereux.
Un outil téléphonique de campagne vous permet d'appeler gratuitement les députés du Parlement européen et vous fournit des arguments et des renseignements sur vos interlocuteurs.
Les prochaines réunions du Parlement européen sur ACTA
Lundi 26 mars :
Les coordinateurs de la commission INTA décideront d'un éventuel vote sur une saisine de la CJUE par le Parlement européen
Mardi 27 mars :
La commission INTA débattra d'une potentielle saisine parlementaire de la CJUE, ainsi que de l'opportunité d'un « rapport intermédiaire »
Pour être informé des prochaines moments-clé pour inciter les eurodéputés à rejeter ACTA, envoyez un mail vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste de diffusion.
Pour discuter d'ACTA, abonnez-vous à notre liste de discussion en envoyant un email vide à acta-subscribe@laquadrature.net. Votre adresse mail ne sera pas utilisée pour quoi que ce soit d'autre.
1. Selon le Commissaire Karel De Gucht, chargé du dossier ACTA, le service juridique de la Commission devrait finaliser la question qui sera posée à la CJUE dans les prochains jours : http://www.youtube.com/watch?v=JQMkUW2dZ7I
2. Un rapport intermédiaire équivaut à une résolution non-contraignante. Voir règle 81(3) de procédure du Parlement européen : « Lorsque l'approbation du Parlement est requise pour une proposition d'acte législatif ou pour un traité international envisagé, la commission compétente peut décider, en vue de favoriser une issue positive de la procédure, de présenter au Parlement un rapport intérimaire sur la proposition, qui contient une proposition de résolution comprenant des recommandations concernant la modification ou la mise en œuvre de l'acte proposé. ». Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120110+RULE-081+DOC+XML+V0//FR&navigationBar=YES
3. En effet, la semaine dernière, durant une réunion de groupe, le S&D a décidé de s'opposer à la saisine de la CJUE à propos d'ACTA par 59 voix contre 37.
";s:7:"dateiso";s:15:"20120319_174050";}s:15:"20120319_162544";a:7:{s:5:"title";s:14:"Newsletter #42";s:4:"link";s:55:"http://www.laquadrature.net/fr/newsletter/newsletter-42";s:4:"guid";s:35:"5562 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 19 Mar 2012 15:25:44 +0000";s:11:"description";s:12067:"
Édito
Bonjour à toutes et à tous !
Le format de la newsletter change : elle passe de mensuelle à numérotée.
La campagne contre ACTA a connu un bond en avant avec de nouvelles avancées du débat au niveau du Parlement européen. Du 27 février au 1er mars, des permanents de La Quadrature du Net se sont rendus à Bruxelles et ont invité des activistes européens (Allemagne, Hongrie, Espagne, Suède) en vue d'assister aux débats des commissions sur ACTA et de rencontrer des eurodéputés. A plusieurs reprises, cette affirmation a été entendue : si ACTA était soumis au vote dans les prochaines semaines, il serait rejeté.
La Commission européenne semble avoir pris conscience de cet état de fait. Elle a cherché à gagner du temps en saisissant la Cour de justice de l'Union européenne (CJUE) sur la conformité d'ACTA aux traités européens. Le Rapporteur au Parlement, David Martin, a tenté de légitimer cette stratégie de la Commission en proposant que le Parlement saisisse lui aussi la Cour, ce qui aurait eu pour effet de suspendre les débats au Parlement, et repousser le vote final d'un an ou deux.
La Quadrature a initié une campagne sur ce point obscur de procédure, qui a été couronnée de succès : au terme de trois semaines intenses de campagne et d'allers-retours à Bruxelles, les membres de la commission INTA du Parlement européen ont rejeté, par 21 voix contre 5, la proposition du rapporteur David Martin. Cela signifie que la procédure ACTA reprend son cours : travaux en commissions (ITRE, JURI, LIBE, DEVE) dans les semaines à venir pour le bouclage rapide d'un rapport (INTA) et vote en plénière autour de l'été. La mobilisation dans les semaines à venir sera clé pour obtenir le rejet clair et définitif de cet accord.
Cette petite -bien que cruciale- victoire ne doit pas nous empêcher de regarder d'ores et déjà au-delà d'ACTA. Il est plus que probable que celui-ci se transforme et revienne sous la forme d'une révision d'IPRED ou de la directive e-Commerce dans les mois à venir. Nous aurons un rôle déterminant à jouer pour exiger que nos pratiques culturelles et la liberté d'expression soient épargnées par la répression aveugle, attentatoire aux droits fondamentaux et à l'architecture d'un Internet libre.
Concernant la neutralité du Net, le BEREC a publié son rapport préliminaire sur les restrictions d'accès à Internet. Il y est notamment spécifié que ces restrictions, concernant majoritairement les échanges pair à pair et voix sur IP, sont souvent effectuées à travers des technologies de deep packet inspection, aussi utilisées par les régimes autoritaires pour la surveillance de leur population. Cela montre l'utilité de notre plate-forme citoyenne http://respectmy.net qui a servi de source d'information au BEREC, ainsi que l'urgente nécessité de légiférer pour protéger la neutralité du Net.
Par ailleurs, La Quadrature du Net a désormais son local, situé au 19 de la rue Richard Lenoir dans lequel nous organiserons des ateliers et rencontres de travail thématiques. Il s'agit d'un tournant important dans l'histoire de l'organisation, qui facilitera les interactions dans la communauté et permettra un travail plus efficace.
Enfin, la publicationSharing: culture and the economy in the Internet age, de Philippe Aigrin, co-fondateur de La Quadrature du Net, nous offre une forme alternative de soutien. Le livre est disponible en téléchargement libre et en vente au format papier. La Quadrature recevra la moitié des recettes au-delà du 400ème exemplaire vendu.
Vous pouvez aider jour après jour La Quadrature en diffusant ses publications sur vos blogs, par Twitter, Identi.ca, vos réseaux sociaux et listes de discussion…
Bref, en « buzzant ».
Le format de la newsletter change : elle passe de mensuelle à numérotée.
La campagne contre ACTA a connu un bond en avant avec de nouvelles avancées du débat au niveau du Parlement européen. Du 27 février au 1er mars, des permanents de La Quadrature du Net se sont rendus à Bruxelles et ont invité des activistes européens (Allemagne, Hongrie, Espagne, Suède) en vue d'assister aux débats des commissions sur ACTA et de rencontrer des eurodéputés. A plusieurs reprises, cette affirmation a été entendue : si ACTA était soumis au vote dans les prochaines semaines, il serait rejeté.
La Commission européenne semble avoir pris conscience de cet état de fait. Elle a cherché à gagner du temps en saisissant la Cour de justice de l'Union européenne (CJUE) sur la conformité d'ACTA aux traités européens. Le Rapporteur au Parlement, David Martin, a tenté de légitimer cette stratégie de la Commission en proposant que le Parlement saisisse lui aussi la Cour, ce qui aurait eu pour effet de suspendre les débats au Parlement, et repousser le vote final d'un an ou deux.
La Quadrature a initié une campagne sur ce point obscur de procédure, qui a été couronnée de succès : au terme de trois semaines intenses de campagne et d'allers-retours à Bruxelles, les membres de la commission INTA du Parlement européen ont rejeté, par 21 voix contre 5, la proposition du rapporteur David Martin. Cela signifie que la procédure ACTA reprend son cours : travaux en commissions (ITRE, JURI, LIBE, DEVE) dans les semaines à venir pour le bouclage rapide d'un rapport (INTA) et vote en plénière autour de l'été. La mobilisation dans les semaines à venir sera clé pour obtenir le rejet clair et définitif de cet accord.
Cette petite -bien que cruciale- victoire ne doit pas nous empêcher de regarder d'ores et déjà au-delà d'ACTA. Il est plus que probable que celui-ci se transforme et revienne sous la forme d'une révision d'IPRED ou de la directive e-Commerce dans les mois à venir. Nous aurons un rôle déterminant à jouer pour exiger que nos pratiques culturelles et la liberté d'expression soient épargnées par la répression aveugle, attentatoire aux droits fondamentaux et à l'architecture d'un Internet libre.
Concernant la neutralité du Net, le BEREC a publié son rapport préliminaire sur les restrictions d'accès à Internet. Il y est notamment spécifié que ces restrictions, concernant majoritairement les échanges pair à pair et voix sur IP, sont souvent effectuées à travers des technologies de deep packet inspection, aussi utilisées par les régimes autoritaires pour la surveillance de leur population. Cela montre l'utilité de notre plate-forme citoyenne http://respectmy.net qui a servi de source d'information au BEREC, ainsi que l'urgente nécessité de légiférer pour protéger la neutralité du Net.
Par ailleurs, La Quadrature du Net a désormais son local, situé au 19 de la rue Richard Lenoir dans lequel nous organiserons des ateliers et rencontres de travail thématiques. Il s'agit d'un tournant important dans l'histoire de l'organisation, qui facilitera les interactions dans la communauté et permettra un travail plus efficace.
Enfin, la publicationSharing: culture and the economy in the Internet age, de Philippe Aigrin, co-fondateur de La Quadrature du Net, nous offre une forme alternative de soutien. Le livre est disponible en téléchargement libre et en vente au format papier. La Quadrature recevra la moitié des recettes au-delà du 400ème exemplaire vendu.
Vous pouvez aider jour après jour La Quadrature en diffusant ses publications sur vos blogs, par Twitter, Identi.ca, vos réseaux sociaux et listes de discussion…
Bref, en « buzzant ».
";s:7:"dateiso";s:15:"20120319_162544";}s:15:"20120313_122313";a:7:{s:5:"title";s:67:"Ne laissons pas le Parlement européen bloquer le débat sur ACTA !";s:4:"link";s:94:"http://www.laquadrature.net/fr/ne-laissons-pas-le-parlement-europeen-bloquer-le-debat-sur-acta";s:4:"guid";s:35:"5541 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 13 Mar 2012 11:23:13 +0000";s:11:"description";s:7810:"
Paris, 13 mars 2012 – Le Parlement européen pourrait être sur le point de suivre la stratégie de la Commission de suspendre le débat sur ACTA, et ainsi repousser d'un an ou deux le vote qui pourrait définitivement le rejeter. Il est urgent que les citoyens contactent les membres du Parlement pour les appeler à prendre une position politique claire et ferme, conduisant inévitablement au rejet d'ACTA, plutôt que de s'enliser dans ces manœuvres technocratiques.
Le nouveau rapporteur d'ACTA au Parlement européen, le britannique David Martin, a annoncé qu'il travaillait à une saisine de la Cour de Justice de l'Union Européenne par le Parlement au sujet du traité. Avec une telle saisine, le Parlement se bâillonnerait sur ACTA, en accord avec la stratégie de la Commission.
Alors que les membres de la commission « Commerce international » (INTA) – présidée par Vital Moreira, ouvertement pro-ACTA et aligné sur la position du commissaire De Gucht – s'apprêtent à décider de saisir ou non la CJUE, les citoyens doivent faire entendre leur voix de toute urgence.
« Une saisine de la Cour de Justice de l'UE par le Parlement européen n'aurait aucun sens, c'est une basse manœuvre politicienne que nous devons contrer. Si le projet de la commission INTA aboutissait, l'ensemble du débat sur ACTA serait bloqué jusqu'à la décision de la Cour, dans un an ou deux. Le Parlement ne pourrait plus adopter de position ferme contre cet accord, et encore moins le rejeter. Les eurodéputés doivent protéger les citoyens européens et écouter leur colère contre ACTA. Ils doivent s'opposer à une saisine de la CJUE et continuer leurs travaux, en vue d'obtenir un rejet massif et sans équivoque d'ACTA. », déclare Jérémie Zimmerman, porte-parole de l'organisation citoyenne La Quadrature du Net.
Une saisine de la CJUE par le Parlement serait au mieux inutile, et au pire très dangereuse, pour les raisons suivantes :
Il n'y a qu'une seule question que le Parlement puisse poser à la CJUE : la même que celle que posera la Commission dans sa saisine d'ores et déjà annoncée, telle qu'elle est définie par les traités. La portée d'une telle question serait réduite à une dimension juridique, et n'aborderait pas les nombreux problèmes politiques posés par ACTA1. Le Parlement ne pourrait pas poser la question de son choix.
Selon certains, cette saisine permettrait au Parlement de poser une question plus détaillée que celle de la Commission. Une fois encore, cet argument ne résiste pas à l'analyse, puisque le Parlement aura de toute façon l'occasion de soumettre ses observations écrites à la Cour à l'occasion de la saisine de la Commission2.
Si le Parlement décidait de procéder à sa propre saisine, le vote final sur ACTA serait retardé3, et il serait alors aisé pour la minorité d'eurodéputés pro-ACTA de faire en sorte qu'aucun travail significatif sur le traité ne soit entrepris jusqu'à ce que la CJUE rende son avis sur ACTA.
La Quadrature du Net appelle tous les citoyens à contacter les eurodéputés pour leur demander de rejeter cette manœuvre de bas-étage. Ils doivent prendre leurs distances avec la Commission, afin de travailler à un rejet franc et massif de ACTA.
1. Voir article 218.11 TFUE : « Un État membre, le Parlement européen, le Conseil ou la Commission peut recueillir l'avis de la Cour de justice sur la compatibilité d'un accord envisagé avec les traités. En cas d'avis négatif de la Cour, l'accord envisagé ne peut entrer en vigueur, sauf modification de celui-ci ou révision des traités ». Source : http://euwiki.org/TFEU#Article_218
3. Voir article 90(6) des règles de procédure du Parlement européen : « Avant le vote sur l'approbation, la commission compétente, un groupe politique ou un dixième des députés au moins peuvent proposer que le Parlement demande l'avis de la Cour de justice sur la compatibilité d'un accord international avec les traités. Si le Parlement adopte cette proposition, le vote sur l'approbation est ajourné jusqu'à ce que la Cour ait rendu son avis ». Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120312+RULE-090+DOC+XML+V0//FR&language=FR&navigationBar=YES
";s:7:"content";s:7810:"
Paris, 13 mars 2012 – Le Parlement européen pourrait être sur le point de suivre la stratégie de la Commission de suspendre le débat sur ACTA, et ainsi repousser d'un an ou deux le vote qui pourrait définitivement le rejeter. Il est urgent que les citoyens contactent les membres du Parlement pour les appeler à prendre une position politique claire et ferme, conduisant inévitablement au rejet d'ACTA, plutôt que de s'enliser dans ces manœuvres technocratiques.
Le nouveau rapporteur d'ACTA au Parlement européen, le britannique David Martin, a annoncé qu'il travaillait à une saisine de la Cour de Justice de l'Union Européenne par le Parlement au sujet du traité. Avec une telle saisine, le Parlement se bâillonnerait sur ACTA, en accord avec la stratégie de la Commission.
Alors que les membres de la commission « Commerce international » (INTA) – présidée par Vital Moreira, ouvertement pro-ACTA et aligné sur la position du commissaire De Gucht – s'apprêtent à décider de saisir ou non la CJUE, les citoyens doivent faire entendre leur voix de toute urgence.
« Une saisine de la Cour de Justice de l'UE par le Parlement européen n'aurait aucun sens, c'est une basse manœuvre politicienne que nous devons contrer. Si le projet de la commission INTA aboutissait, l'ensemble du débat sur ACTA serait bloqué jusqu'à la décision de la Cour, dans un an ou deux. Le Parlement ne pourrait plus adopter de position ferme contre cet accord, et encore moins le rejeter. Les eurodéputés doivent protéger les citoyens européens et écouter leur colère contre ACTA. Ils doivent s'opposer à une saisine de la CJUE et continuer leurs travaux, en vue d'obtenir un rejet massif et sans équivoque d'ACTA. », déclare Jérémie Zimmerman, porte-parole de l'organisation citoyenne La Quadrature du Net.
Une saisine de la CJUE par le Parlement serait au mieux inutile, et au pire très dangereuse, pour les raisons suivantes :
Il n'y a qu'une seule question que le Parlement puisse poser à la CJUE : la même que celle que posera la Commission dans sa saisine d'ores et déjà annoncée, telle qu'elle est définie par les traités. La portée d'une telle question serait réduite à une dimension juridique, et n'aborderait pas les nombreux problèmes politiques posés par ACTA1. Le Parlement ne pourrait pas poser la question de son choix.
Selon certains, cette saisine permettrait au Parlement de poser une question plus détaillée que celle de la Commission. Une fois encore, cet argument ne résiste pas à l'analyse, puisque le Parlement aura de toute façon l'occasion de soumettre ses observations écrites à la Cour à l'occasion de la saisine de la Commission2.
Si le Parlement décidait de procéder à sa propre saisine, le vote final sur ACTA serait retardé3, et il serait alors aisé pour la minorité d'eurodéputés pro-ACTA de faire en sorte qu'aucun travail significatif sur le traité ne soit entrepris jusqu'à ce que la CJUE rende son avis sur ACTA.
La Quadrature du Net appelle tous les citoyens à contacter les eurodéputés pour leur demander de rejeter cette manœuvre de bas-étage. Ils doivent prendre leurs distances avec la Commission, afin de travailler à un rejet franc et massif de ACTA.
1. Voir article 218.11 TFUE : « Un État membre, le Parlement européen, le Conseil ou la Commission peut recueillir l'avis de la Cour de justice sur la compatibilité d'un accord envisagé avec les traités. En cas d'avis négatif de la Cour, l'accord envisagé ne peut entrer en vigueur, sauf modification de celui-ci ou révision des traités ». Source : http://euwiki.org/TFEU#Article_218
3. Voir article 90(6) des règles de procédure du Parlement européen : « Avant le vote sur l'approbation, la commission compétente, un groupe politique ou un dixième des députés au moins peuvent proposer que le Parlement demande l'avis de la Cour de justice sur la compatibilité d'un accord international avec les traités. Si le Parlement adopte cette proposition, le vote sur l'approbation est ajourné jusqu'à ce que la Cour ait rendu son avis ». Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120312+RULE-090+DOC+XML+V0//FR&language=FR&navigationBar=YES
";s:7:"dateiso";s:15:"20120313_122313";}s:15:"20120312_165240";a:7:{s:5:"title";s:95:" Pour le régulateur européen, les opérateurs violent la neutralité du Net et la vie privée";s:4:"link";s:119:"http://www.laquadrature.net/fr/pour-le-regulateur-europeen-les-operateurs-violent-la-neutralite-du-net-et-la-vie-privee";s:4:"guid";s:35:"5530 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 12 Mar 2012 15:52:40 +0000";s:11:"description";s:6715:"
Paris, 12 mars 2012 – Le BEREC, l'office des régulateurs européens des communications électroniques (ORECE en français), vient de publier un rapport préliminaire sur les restrictions d'accès à Internet mises en place par les opérateurs dans l'ensemble de l'Union européenne. Les premiers résultats de cette étude confirment les informations signalées par les citoyens sur la plate-forme RespectMyNet.eu, et démontrent le besoin urgent d'une loi européenne pour protéger la neutralité du Net.
« Ces résultats préliminaires démontrent que les opérateurs européens imposent des restrictions inacceptables à l'accès au Net, comme le blocage ou le bridage de services P2P ou VoIP, sur les réseaux fixes et mobiles. Le BEREC souligne également le fait que de telles restrictions sont souvent imposées via des technologies de Deep Packet Inspection, notamment utilisées par les régimes autoritaires pour surveiller leurs populations. La banalisation de ces pratiques montre clairement que l'approche attentiste de la commissaire européenne Neelie Kroes en matière de neutralité du Net permet aux opérateurs de violer la liberté de communication et la vie privée de leurs abonnés. Mme Kroes ne peut désormais plus nier l'évidence, et doit proposer urgemment une législation européenne sur la neutralité du Net, afin de protéger les libertés fondamentales, l'innovation et la concurrence dans l'économie numérique. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En janvier, La Quadrature du Net a répondu à la consultation du BEREC en se basant sur les signalements transmis par les citoyens sur la plate-forme RespectMyNet. S'il ne donne qu'un aperçu de la situation, ce document fait état de quelques 144 signalements d'atteintes à la neutralité du réseau, de la part de 44 opérateurs dans plus de 14 États membres.
Le rapport préliminaire du BEREC
Les pratiques de gestion de trafic les plus souvent constatées sont le blocage et le bridage de services de VoIP et de P2P.
Généralement, la mise en place de blocage et du bridage sur un réseau repose sur des outils d'inspection de paquets de données (DPI).
Le BEREC met en évidence un très large éventail de pratiques à travers l'Europe, et une vaste gamme de méthodes de mises en œuvres et de justifications pour ces pratiques (préoccupations liées à la sécurité et à l'intégrité, congestion du réseau, etc.).
Pour la régulation de la congestion du réseau, certains opérateurs utilisent une approche neutre vis-à-vis des applications (comme la mise en tampon), alors que d'autres ont recours à une approche discriminatoire (notamment pour brider certaines catégories de trafic spécifiques, comme le streaming vidéo).
Environ un tiers des opérateurs gère leurs réseaux de manière à offrir des services « gérés » (téléphonie ou télévision sur IP) aux côtés d'un accès Internet « best-effort ».
Le BEREC a aussi relevé des pratiques de plafonnement de la bande passante et autres politiques de « fair-use ».
Chronologie du débat au niveau européen
9 mars 2012 : Les régulateurs européens des télécoms (BEREC) publient leurs résultats préliminaires sur les atteintes à la neutralité du Net, et mettent en évidence de graves restrictions d'accès et l'utilisation de technologies invasives
13 décembre 2011 : Les États Membres de l'UE adoptent des conclusions sur l'Internet ouvert, dans lesquelles ils soulignent la nécessité « de considérer la neutralité de l'internet comme un objectif général »
17 novembre 2011 : Le Parlement européen adopte une résolution appelant la Commission à évaluer le besoin de réglementation en matière de neutralité du Net
7 octobre 2011 : Dans un avis sur la neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée
22 septembre 2011 : La Quadrature du Net et Bits of Freedom lancent RespectMyNet.eu, une plate-forme de signalement des atteintes à la neutralité du Net
19 avril 2011 : La Commission européenne rend un rapport très décevant.
Les propositions de La Quadrature du Net pour la protection de la neutralité du Net
Inscrire dans la loi une définition d'Internet assise sur le principe de neutralité, afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les réseaux Internet, quelque soit le mode d'accès (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées.
Les atteintes à la neutralité du Net par les opérateurs doivent faire l'objet de sanctions dissuasives.
Sur les réseaux, les conditions d'équilibre entre les « services gérés » et Internet sur les réseaux de communication doivent être pérennes, afin de préserver la qualité de l'accès Internet.
Encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
Paris, 12 mars 2012 – Le BEREC, l'office des régulateurs européens des communications électroniques (ORECE en français), vient de publier un rapport préliminaire sur les restrictions d'accès à Internet mises en place par les opérateurs dans l'ensemble de l'Union européenne. Les premiers résultats de cette étude confirment les informations signalées par les citoyens sur la plate-forme RespectMyNet.eu, et démontrent le besoin urgent d'une loi européenne pour protéger la neutralité du Net.
« Ces résultats préliminaires démontrent que les opérateurs européens imposent des restrictions inacceptables à l'accès au Net, comme le blocage ou le bridage de services P2P ou VoIP, sur les réseaux fixes et mobiles. Le BEREC souligne également le fait que de telles restrictions sont souvent imposées via des technologies de Deep Packet Inspection, notamment utilisées par les régimes autoritaires pour surveiller leurs populations. La banalisation de ces pratiques montre clairement que l'approche attentiste de la commissaire européenne Neelie Kroes en matière de neutralité du Net permet aux opérateurs de violer la liberté de communication et la vie privée de leurs abonnés. Mme Kroes ne peut désormais plus nier l'évidence, et doit proposer urgemment une législation européenne sur la neutralité du Net, afin de protéger les libertés fondamentales, l'innovation et la concurrence dans l'économie numérique. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
En janvier, La Quadrature du Net a répondu à la consultation du BEREC en se basant sur les signalements transmis par les citoyens sur la plate-forme RespectMyNet. S'il ne donne qu'un aperçu de la situation, ce document fait état de quelques 144 signalements d'atteintes à la neutralité du réseau, de la part de 44 opérateurs dans plus de 14 États membres.
Le rapport préliminaire du BEREC
Les pratiques de gestion de trafic les plus souvent constatées sont le blocage et le bridage de services de VoIP et de P2P.
Généralement, la mise en place de blocage et du bridage sur un réseau repose sur des outils d'inspection de paquets de données (DPI).
Le BEREC met en évidence un très large éventail de pratiques à travers l'Europe, et une vaste gamme de méthodes de mises en œuvres et de justifications pour ces pratiques (préoccupations liées à la sécurité et à l'intégrité, congestion du réseau, etc.).
Pour la régulation de la congestion du réseau, certains opérateurs utilisent une approche neutre vis-à-vis des applications (comme la mise en tampon), alors que d'autres ont recours à une approche discriminatoire (notamment pour brider certaines catégories de trafic spécifiques, comme le streaming vidéo).
Environ un tiers des opérateurs gère leurs réseaux de manière à offrir des services « gérés » (téléphonie ou télévision sur IP) aux côtés d'un accès Internet « best-effort ».
Le BEREC a aussi relevé des pratiques de plafonnement de la bande passante et autres politiques de « fair-use ».
Chronologie du débat au niveau européen
9 mars 2012 : Les régulateurs européens des télécoms (BEREC) publient leurs résultats préliminaires sur les atteintes à la neutralité du Net, et mettent en évidence de graves restrictions d'accès et l'utilisation de technologies invasives
13 décembre 2011 : Les États Membres de l'UE adoptent des conclusions sur l'Internet ouvert, dans lesquelles ils soulignent la nécessité « de considérer la neutralité de l'internet comme un objectif général »
17 novembre 2011 : Le Parlement européen adopte une résolution appelant la Commission à évaluer le besoin de réglementation en matière de neutralité du Net
7 octobre 2011 : Dans un avis sur la neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée
22 septembre 2011 : La Quadrature du Net et Bits of Freedom lancent RespectMyNet.eu, une plate-forme de signalement des atteintes à la neutralité du Net
19 avril 2011 : La Commission européenne rend un rapport très décevant.
Les propositions de La Quadrature du Net pour la protection de la neutralité du Net
Inscrire dans la loi une définition d'Internet assise sur le principe de neutralité, afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les réseaux Internet, quelque soit le mode d'accès (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées.
Les atteintes à la neutralité du Net par les opérateurs doivent faire l'objet de sanctions dissuasives.
Sur les réseaux, les conditions d'équilibre entre les « services gérés » et Internet sur les réseaux de communication doivent être pérennes, afin de préserver la qualité de l'accès Internet.
Encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
";s:7:"dateiso";s:15:"20120312_165240";}s:15:"20120308_154717";a:7:{s:5:"title";s:48:"Une stratégie, au travers et au-delà de l'ACTA";s:4:"link";s:75:"http://www.laquadrature.net/fr/une-strategie-au-travers-et-au-dela-de-lacta";s:4:"guid";s:35:"5506 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 08 Mar 2012 14:47:17 +0000";s:11:"description";s:27339:"
Les événements de ces deux dernières semaines ont radicalement altéré le cours du débat sur ACTA et de sa procédure de ratification, tant au niveau européen que des États membres. La pression citoyenne colossale a eu un effet incontestable et a modifié l'équilibre des forces en présence. De peur qu'ACTA soit rapidement rejeté, le commissaire européen De Gucht a réussi à ralentir la procédure d'un ou deux ans. En gardant à l'esprit des objectifs clairs, il est peut-être temps de penser aussi au-delà d'ACTA pour comprendre comment tenter collectivement de protéger nos libertés en ligne, en repensant un régime du droit d'auteur malade, en guerre contre l'Internet libre.
ACTA est peut-être déjà mort
Nous, citoyens, pouvons être fiers
Lors de l'atelier public sur ACTA, la semaine dernière, en présence du commissaire Karel de Gucht et modéré par l'eurodéputé Vital Moreira, président de la commission INTA1, la tension manifeste l'a clairement démontré : le Parlement et la Commission ont désormais peur des citoyens et de la rue. Nous avons assisté pendant cet atelier à une parodie de débat, où les orateurs étaient soit des membres de la Commission, soit des universitaires, soit faisaient partie des rares pro-ACTA restant (dont l'administrateur d'un lobby pro-ACTA2 ! Aucun représentant des groupes d'auteurs, d'artistes ou de citoyens n'a été invité, malgré la demande de La Quadrature du Net d'y participer.
Néanmoins, le professeur Michael Geist n'a pas été aussi modéré que ce à quoi ses hôtes s'attendaient sans doute. Son intervention acérée a méticuleusement démonté les principaux points qui font d'ACTA un accord totalement inacceptable et illégitime. Lorsque le public a vivement applaudi son analyse, le président Moreira s'est senti si mal à l'aise qu'il a menacé d'expulser quiconque « manifesterait », interdisant de fait d'applaudir dans une rencontre publique au Parlement européen. Le public s'est également vu interdire de laisser des documents à disposition des participants. La plupart des eurodéputés ayant posé des questions étaient opposés à ACTA, tout comme les rares membres du public (qui remplissait deux salles) ayant eu la chance d'arriver suffisamment tôt pour s'inscrire pour des questions, limitées chacune à une minute. Organiser des débats truqués tout en feignant d'écouter la société civile, alors qu'ACTA a déjà été signé, ne changera rien, ni pour Karel de Gucht, ni pour l'eurodéputé Vital Moreira qui tente désespérément de l'aider.
« Si le vote avait lieu maintenant, ACTA serait rejeté » Cette phrase a été entendue de nombreuses fois, en privé, dans les couloirs du Parlement européen, par des députés, assistants et membres du personnel de tous les groupes politiques. Pour beaucoup au Parlement, c'est un fait : ACTA est devenu un tel problème politique, a suscité une telle indignation de la part de la société civile, divise tellement le groupe politique majoritaire – le PPE, conservateur –, et le texte final est si ambigu qu'ACTA n'aurait aucune chance s'il était mis au vote dans les prochains mois.
Un enterrement de première classe pour ACTA
La stratégie de De Gucht, Moreira et des derniers pro-ACTA pour repousser la défaite
Face à l'opposition croissante contre ACTA, le commissaire De Gucht, en charge de l'accord, s'est senti obligé de demander l'avis de la Cour de justice de l'Union européenne (CJUE) sur la compatibilité de cet « accord commercial » avec les traités de l'UE et les libertés fondamentales. Si la réponse à cette question avait réellement de l'importance à ses yeux, M. De Gucht l'aurait posée avant la signature d'ACTA, et non après. Sa motivation principale est évidemment de gagner du temps et de sauver la face.
On ne sait pas encore si le Parlement européen se laissera prendre au piège de cette stratégie en suivant M. De Gucht. Les différents groupes politiques hésitent à s'engager aux cotés du nouveau rapporteur, David Martin, dans sa tentative d'amener le Parlement à adresser également une question à la Cour de Justice de l'UE. En pratique, les traités de l'UE définissent très précisément la seule question qui peut être posée3. Cette action n'aurait donc pour effet que de légitimer la stratégie de M. De Gucht et d'accepter de reporter la décision du Parlement après la décision de la Cour.
David Martin, le rapporteur britannique de la commission commerce international (INTA) semble également prêter main forte au commissaire De Gucht en tentant de désamorcer l'opposition au sein du Parlement, et en s'assurant que celui-ci ne prenne pas de décision définitive. David Martin a annoncé qu'il souhaitait transformer le rapport du Parlement en un « rapport intermédiaire »4, tandis que les autres commissions travaillant sur ACTA continueront à se réunir et à élaborer leurs rapports pour avis sur lesquels ils voteront.
Une telle initiative de la part du rapporteur aura évidemment pour effet de complètement neutraliser le rapport intermédiaire lorsqu'il sera finalisé (a priori d'ici six mois, date à laquelle se serait tenu le vote sur ACTA si la Commission n'avait pas décidé de saisir la CJUE). Le rapport pourrait ne se prononcer ni pour l'adoption, ni pour le rejet d'ACTA. Les pro-ACTA sauveraient alors les apparences en évitant que le Parlement ne s'engage fermement à rejeter le texte, et en repoussant à plus tard toute décision.
La Cour pourrait prendre 12 à 24 mois pour rendre son avis sur ACTA. Le commissaire De Gucht préfère gagner du temps, et éviter de voir « son » ACTA rejeté au cours des prochains mois. Cette stratégie lui permettra de proposer à nouveau la ratification d'ACTA vers la fin de son mandat, ou même d'accepter un « enterrement de première classe » (l'accord ne serait jamais ratifié, ni clairement rejeté). Cependant, si ACTA devait de nouveau être soumis au vote, celui-ci pourrait avoir lieu peu avant les prochaines élections européennes, donnant aux citoyens une réelle occasion de peser sur la décision du Parlement.
Il est par conséquent extrêmement important que nous, citoyens, influencions chacune des étapes du « rapport intermédiaire ». Les membres du Parlement européen qui ont exprimé leur opposition à ACTA devront s'assurer que ce rapport soit suffisamment fort et politiquement contraignant, en dépit de la stratégie de David Martin d'aider le Commissaire De Gucht à désamorcer le débat. Le rapport intermédiaire ne doit pas pouvoir être interprété autrement que comme un appel au rejet d'ACTA.
Dans tous les cas, cette modification du calendrier oblige les citoyens à adapter leur stratégie s'ils veulent protéger efficacement leurs libertés en ligne, ainsi que l'Internet libre, contre les attaques des industries du copyright. Nous ne devons pas rester les bras croisés en attendant l'éventuel retour d'ACTA pour un vote final au Parlement Européen. Tout en travaillant à l'élaboration d'un rapport intermédiaire clair, fort et contraignant, nous devons garder à l'esprit qu'ACTA n'est que l'un des nombreux avatars de la « guerre contre le partage » que les industries du copyright ont engagée contre nous, le public.
L'ennemi polymorphe
Point stratégique pour les années à venir
Ces 15 dernières années, la politique du droit d'auteur a été un échec cuisant parce qu'elle a refusé une évolution décisive : établir une distinction claire entre ce que les individus font sans intention de profit (notamment le partage d'œuvres numériques entre individus), et les infractions commerciales, avec but de profit, au droit d'auteur. Par conséquent, la politique du droit d'auteur s'est montrée faible et inefficace contre les infractions commerciales, et brutale envers les droits du public. Qui plus est, les ressources destinées à la création ont stagné, alors qu'elles auraient dû progresser parallèlement à l'explosion de la créativité dans l'environnement numérique. Un petit nombre d'intérêts privés nous a empêché de relever le défi de la culture numérique.
Un tel aveuglement fait écho à l'obstination du commissaire De Gucht et sa défense idéologique d'ACTA, qui relaie le lobbying de l'industrie du divertissement s'opposant à l'Internet libre. L'argument de base de M. De Gucht est que « copier un fichier sur Internet équivaut à un vol »5, ce qui est absurde, tant d'un point de vue technique que d'un point de vue juridique. Cela revient à dire que « multiplier équivaut à soustraire ».
Il ne peut pas simplement s'agir ignorance ou d'incompétence de la part de M. De Gucht, qui est par ailleurs avocat. Dans une déclaration au sujet de la saisine de la CJUE, il a également déclaré que les libertés fondamentales protégées en Europe comprenaient « la liberté d'expression et d'information, la protection des données et le droit à la propriété dans le cas de la propriété intellectuelle ». Cela aussi est complètement faux6, trompeur et dangereux, comme cela a été rappelé par le Conseil économique et social des Nations unies7. Ses tentatives d'imposer en catimini l'idée que le droit d'auteur puisse être invoqué pour réduire la liberté d'expression ou au droit à la vie privée justifient à elles-seules la démission de M. De Gucht.
Une telle obstination illustre la manière dont les lois répressives ont été constamment conçues et empilés, les unes après les autres durant les quinze dernières années8, sans en étudier suffisamment l'impact et en constante déconnexion des pratiques sociales et culturelles ou la technologie.
À ce jour, ACTA est la tentative la plus impressionnante et dangereuse, car dès le départ, il a été conçu par les gouvernements pour contourner les processus démocratiques et les institutions internationales. De nombreuses autres initiatives sont en cours9 et devraient être considérées comme autant d'occasions pour les citoyens de s'exprimer. Au niveau européen, plusieurs débats cruciaux sont en cours :
La révision prochaine de la directive anti-partage IPRED est déjà planifiée par la Commission européenne comme une application répressive d'ACTA. Cette révision devrait au contraire être considérée comme une occasion de définir des frontières plus justes à l'application du droit d'auteur, en se concentrant sur les infractions à but lucratif10, et en protégeant les citoyens réalisant ou utilisant des copies sans but de profit.
Le plan d'action de la Commission européenne sur la directive services en ligne peut aussi être utilisé par les extrémistes du droit d'auteur pour transformer les acteurs de l'Internet en police et justice privées du copyright, les obligeant à contrôler et à censurer leurs réseaux11. La directive doit au contraire interdire toute procédure automatisée mise en œuvre par des acteurs privés qui pourrait avoir un impact sur la liberté d'expression, et apporter des sanctions effectives contre ceux qui abusent des demandes de retrait et autres mesures répressives.
Ces questions doivent faire l'objet d'un débat public et démocratique. Les élus doivent aller de l'avant en exigeant un nouveau régime du droit d'auteur qui soit plus juste, en légalisant des pratiques répandues réalisées sans but de profit – comme le partage de fichiers, le remix, le mash-up et autres modifications d'œuvres utilisées comme formes d'expression – par les exceptions au droit d'auteur12. Ceci pourrait être mis en place en modifiant la très controversée directive EUCD 2001/29, qui doit toujours faire l'objet d'une étude d'impact de la part de la Commission européenne, plus de dix ans après son adoption.
Le droit d'auteur est malade, s'étend tel un cancer, met en danger nos libertés et l'Internet libre. Les eurodéputés commencent à comprendre à quel point nos préoccupations sont légitimes et importantes. Il en reste cependant encore beaucoup à convaincre, et tous doivent être soumis à la surveillance, voire à la pression citoyenne, jusqu'à ce que nos demandes légitimes soient prises en compte. La Commission européenne et les gouvernements doivent suivre.
Nous avons une responsabilité historique, qui va au-delà d'ACTA et concerne notre façon de vivre, de travailler, d'apprendre, et de partager la culture. Collectivement, nous construisons, possédons et partageons l'Internet libre comme un bien commun, et l'utilisons pour tenter de rendre notre monde meilleur.
Alors célébrons nos victoires à venir, tout en continuant à travailler dur pour les rendre inéluctables !
1. INTA est la commission menant les travaux sur ACTA au Parlement
4. Un rapport intermédiaire équivaut à une résolution. Voir la règle 81(3) du règlement du Parlement européen : « Lorsque l'approbation du Parlement est requise pour une proposition d'acte législatif ou pour un traité international envisagé, la commission compétente peut décider, en vue de favoriser une issue positive de la procédure, de présenter au Parlement un rapport intermédiaire sur la proposition, qui contient une proposition de résolution comprenant des recommandations concernant la modification ou la mise en œuvre de l'acte proposé. » (emphase par nos soins). Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120110+RULE-081+DOC+XML+V0//FR&navigationBar=YES
5. Voir son intervention lors du premier échange de vue de la commission INTA : « Il me semble probablement juste d'affirmer que chacun dans cette salle connaît quelqu'un qui, sans payer pour, a téléchargé une chanson, un album ou un épisode d'une série télévisée sur son ordinateur.
Je ne peux pas, en toute conscience, tolérer cette action. Je sais que certaines personnes voient les choses différemment, en particulier les jeunes. Mais pour moi, il n'y a aucune différence morale entre prendre quelque chose qui ne vous appartient pas dans le monde physique et le faire dans le monde virtuel. À cause du partage illégal, certaines des personnes les plus créatives de notre société ne reçoivent pas l'argent qu'elles devraient recevoir, et sont démotivées. ». Source : http://europa.eu/rapid/pressReleasesAction.do?reference=SPEECH/12/136&fo... (traduction par nos soins)
6. Il est stipulé dans l'article 17.2 de la Charte des droits fondamentaux de l'Union européenne que « La propriété intellectuelle est protégée. », mais cela n'en fait pas un droit fondamental en soi, équivalent à la liberté d'expression ou au droit à la vie privée.
7. Pour le Conseil économique et social des Nations unies, les droits des auteurs relatifs à leur travail ne sont pas équivalent au droit à la propriété : « Il est par conséquent important de ne pas assimiler les droits de propriété intellectuelle avec le droit protégé dans l'article 15, paragraphe 1 (c) » du Pacte international relatif aux droits sociaux, économiques et culturels, qui protège « le droit de bénéficier de la protection des intérêts moraux et matériels découlant de toute production scientifique, littéraire ou artistique dont il est l'auteur ».
8. Les accords TRIPS de l'OMC en 1994, le Traité sur le Copyright de l'OMPI en 1996, les tentatives répétées d'un « Broadcast Treaty », l'EUCD en 2001, l'IPRED en 2004, l'IPRED2 en 2005, Hadopi en 2007, les tentatives de dévoyer le Paquet Télécom européen en 2009 et SOPA/PIPA en 2011 pour n'en citer que quelques-unes.
9. Le fait que SOPA et PIPA aient été remisées après les impressionnantes manifestations en ligne est en grande partie dû à l'approche des élections américaines, mais les deux lois pourraient être réexaminées par la suite. Le Trans-Pacific Partnership est un autre exemple.
10. Concernant les infractions à but lucratif, comme dans tous les autres cas, les mesures répressives doivent être décidées par l'autorité judiciaire et non par des acteurs privés.
12. « Les exceptions et limitations du droit d'auteur » protègent le droit du public en ce qui concerne l'utilisation d'œuvres protégées
";s:7:"content";s:27342:"
Les événements de ces deux dernières semaines ont radicalement altéré le cours du débat sur ACTA et de sa procédure de ratification, tant au niveau européen que des États membres. La pression citoyenne colossale a eu un effet incontestable et a modifié l'équilibre des forces en présence. De peur qu'ACTA soit rapidement rejeté, le commissaire européen De Gucht a réussi à ralentir la procédure d'un ou deux ans. En gardant à l'esprit des objectifs clairs, il est peut-être temps de penser aussi au-delà d'ACTA pour comprendre comment tenter collectivement de protéger nos libertés en ligne, en repensant un régime du droit d'auteur malade, en guerre contre l'Internet libre.
ACTA est peut-être déjà mort
Nous, citoyens, pouvons être fiers
Lors de l'atelier public sur ACTA, la semaine dernière, en présence du commissaire Karel de Gucht et modéré par l'eurodéputé Vital Moreira, président de la commission INTA1, la tension manifeste l'a clairement démontré : le Parlement et la Commission ont désormais peur des citoyens et de la rue. Nous avons assisté pendant cet atelier à une parodie de débat, où les orateurs étaient soit des membres de la Commission, soit des universitaires, soit faisaient partie des rares pro-ACTA restant (dont l'administrateur d'un lobby pro-ACTA2 ! Aucun représentant des groupes d'auteurs, d'artistes ou de citoyens n'a été invité, malgré la demande de La Quadrature du Net d'y participer.
Néanmoins, le professeur Michael Geist n'a pas été aussi modéré que ce à quoi ses hôtes s'attendaient sans doute. Son intervention acérée a méticuleusement démonté les principaux points qui font d'ACTA un accord totalement inacceptable et illégitime. Lorsque le public a vivement applaudi son analyse, le président Moreira s'est senti si mal à l'aise qu'il a menacé d'expulser quiconque « manifesterait », interdisant de fait d'applaudir dans une rencontre publique au Parlement européen. Le public s'est également vu interdire de laisser des documents à disposition des participants. La plupart des eurodéputés ayant posé des questions étaient opposés à ACTA, tout comme les rares membres du public (qui remplissait deux salles) ayant eu la chance d'arriver suffisamment tôt pour s'inscrire pour des questions, limitées chacune à une minute. Organiser des débats truqués tout en feignant d'écouter la société civile, alors qu'ACTA a déjà été signé, ne changera rien, ni pour Karel de Gucht, ni pour l'eurodéputé Vital Moreira qui tente désespérément de l'aider.
« Si le vote avait lieu maintenant, ACTA serait rejeté » Cette phrase a été entendue de nombreuses fois, en privé, dans les couloirs du Parlement européen, par des députés, assistants et membres du personnel de tous les groupes politiques. Pour beaucoup au Parlement, c'est un fait : ACTA est devenu un tel problème politique, a suscité une telle indignation de la part de la société civile, divise tellement le groupe politique majoritaire – le PPE, conservateur –, et le texte final est si ambigu qu'ACTA n'aurait aucune chance s'il était mis au vote dans les prochains mois.
Un enterrement de première classe pour ACTA
La stratégie de De Gucht, Moreira et des derniers pro-ACTA pour repousser la défaite
Face à l'opposition croissante contre ACTA, le commissaire De Gucht, en charge de l'accord, s'est senti obligé de demander l'avis de la Cour de justice de l'Union européenne (CJUE) sur la compatibilité de cet « accord commercial » avec les traités de l'UE et les libertés fondamentales. Si la réponse à cette question avait réellement de l'importance à ses yeux, M. De Gucht l'aurait posée avant la signature d'ACTA, et non après. Sa motivation principale est évidemment de gagner du temps et de sauver la face.
On ne sait pas encore si le Parlement européen se laissera prendre au piège de cette stratégie en suivant M. De Gucht. Les différents groupes politiques hésitent à s'engager aux cotés du nouveau rapporteur, David Martin, dans sa tentative d'amener le Parlement à adresser également une question à la Cour de Justice de l'UE. En pratique, les traités de l'UE définissent très précisément la seule question qui peut être posée3. Cette action n'aurait donc pour effet que de légitimer la stratégie de M. De Gucht et d'accepter de reporter la décision du Parlement après la décision de la Cour.
David Martin, le rapporteur britannique de la commission commerce international (INTA) semble également prêter main forte au commissaire De Gucht en tentant de désamorcer l'opposition au sein du Parlement, et en s'assurant que celui-ci ne prenne pas de décision définitive. David Martin a annoncé qu'il souhaitait transformer le rapport du Parlement en un « rapport intermédiaire »4, tandis que les autres commissions travaillant sur ACTA continueront à se réunir et à élaborer leurs rapports pour avis sur lesquels ils voteront.
Une telle initiative de la part du rapporteur aura évidemment pour effet de complètement neutraliser le rapport intermédiaire lorsqu'il sera finalisé (a priori d'ici six mois, date à laquelle se serait tenu le vote sur ACTA si la Commission n'avait pas décidé de saisir la CJUE). Le rapport pourrait ne se prononcer ni pour l'adoption, ni pour le rejet d'ACTA. Les pro-ACTA sauveraient alors les apparences en évitant que le Parlement ne s'engage fermement à rejeter le texte, et en repoussant à plus tard toute décision.
La Cour pourrait prendre 12 à 24 mois pour rendre son avis sur ACTA. Le commissaire De Gucht préfère gagner du temps, et éviter de voir « son » ACTA rejeté au cours des prochains mois. Cette stratégie lui permettra de proposer à nouveau la ratification d'ACTA vers la fin de son mandat, ou même d'accepter un « enterrement de première classe » (l'accord ne serait jamais ratifié, ni clairement rejeté). Cependant, si ACTA devait de nouveau être soumis au vote, celui-ci pourrait avoir lieu peu avant les prochaines élections européennes, donnant aux citoyens une réelle occasion de peser sur la décision du Parlement.
Il est par conséquent extrêmement important que nous, citoyens, influencions chacune des étapes du « rapport intermédiaire ». Les membres du Parlement européen qui ont exprimé leur opposition à ACTA devront s'assurer que ce rapport soit suffisamment fort et politiquement contraignant, en dépit de la stratégie de David Martin d'aider le Commissaire De Gucht à désamorcer le débat. Le rapport intermédiaire ne doit pas pouvoir être interprété autrement que comme un appel au rejet d'ACTA.
Dans tous les cas, cette modification du calendrier oblige les citoyens à adapter leur stratégie s'ils veulent protéger efficacement leurs libertés en ligne, ainsi que l'Internet libre, contre les attaques des industries du copyright. Nous ne devons pas rester les bras croisés en attendant l'éventuel retour d'ACTA pour un vote final au Parlement Européen. Tout en travaillant à l'élaboration d'un rapport intermédiaire clair, fort et contraignant, nous devons garder à l'esprit qu'ACTA n'est que l'un des nombreux avatars de la « guerre contre le partage » que les industries du copyright ont engagée contre nous, le public.
L'ennemi polymorphe
Point stratégique pour les années à venir
Ces 15 dernières années, la politique du droit d'auteur a été un échec cuisant parce qu'elle a refusé une évolution décisive : établir une distinction claire entre ce que les individus font sans intention de profit (notamment le partage d'œuvres numériques entre individus), et les infractions commerciales, avec but de profit, au droit d'auteur. Par conséquent, la politique du droit d'auteur s'est montrée faible et inefficace contre les infractions commerciales, et brutale envers les droits du public. Qui plus est, les ressources destinées à la création ont stagné, alors qu'elles auraient dû progresser parallèlement à l'explosion de la créativité dans l'environnement numérique. Un petit nombre d'intérêts privés nous a empêché de relever le défi de la culture numérique.
Un tel aveuglement fait écho à l'obstination du commissaire De Gucht et sa défense idéologique d'ACTA, qui relaie le lobbying de l'industrie du divertissement s'opposant à l'Internet libre. L'argument de base de M. De Gucht est que « copier un fichier sur Internet équivaut à un vol »5, ce qui est absurde, tant d'un point de vue technique que d'un point de vue juridique. Cela revient à dire que « multiplier équivaut à soustraire ».
Il ne peut pas simplement s'agir ignorance ou d'incompétence de la part de M. De Gucht, qui est par ailleurs avocat. Dans une déclaration au sujet de la saisine de la CJUE, il a également déclaré que les libertés fondamentales protégées en Europe comprenaient « la liberté d'expression et d'information, la protection des données et le droit à la propriété dans le cas de la propriété intellectuelle ». Cela aussi est complètement faux6, trompeur et dangereux, comme cela a été rappelé par le Conseil économique et social des Nations unies7. Ses tentatives d'imposer en catimini l'idée que le droit d'auteur puisse être invoqué pour réduire la liberté d'expression ou au droit à la vie privée justifient à elles-seules la démission de M. De Gucht.
Une telle obstination illustre la manière dont les lois répressives ont été constamment conçues et empilés, les unes après les autres durant les quinze dernières années8, sans en étudier suffisamment l'impact et en constante déconnexion des pratiques sociales et culturelles ou la technologie.
À ce jour, ACTA est la tentative la plus impressionnante et dangereuse, car dès le départ, il a été conçu par les gouvernements pour contourner les processus démocratiques et les institutions internationales. De nombreuses autres initiatives sont en cours9 et devraient être considérées comme autant d'occasions pour les citoyens de s'exprimer. Au niveau européen, plusieurs débats cruciaux sont en cours :
La révision prochaine de la directive anti-partage IPRED est déjà planifiée par la Commission européenne comme une application répressive d'ACTA. Cette révision devrait au contraire être considérée comme une occasion de définir des frontières plus justes à l'application du droit d'auteur, en se concentrant sur les infractions à but lucratif10, et en protégeant les citoyens réalisant ou utilisant des copies sans but de profit.
Le plan d'action de la Commission européenne sur la directive services en ligne peut aussi être utilisé par les extrémistes du droit d'auteur pour transformer les acteurs de l'Internet en police et justice privées du copyright, les obligeant à contrôler et à censurer leurs réseaux11. La directive doit au contraire interdire toute procédure automatisée mise en œuvre par des acteurs privés qui pourrait avoir un impact sur la liberté d'expression, et apporter des sanctions effectives contre ceux qui abusent des demandes de retrait et autres mesures répressives.
Ces questions doivent faire l'objet d'un débat public et démocratique. Les élus doivent aller de l'avant en exigeant un nouveau régime du droit d'auteur qui soit plus juste, en légalisant des pratiques répandues réalisées sans but de profit – comme le partage de fichiers, le remix, le mash-up et autres modifications d'œuvres utilisées comme formes d'expression – par les exceptions au droit d'auteur12. Ceci pourrait être mis en place en modifiant la très controversée directive EUCD 2001/29, qui doit toujours faire l'objet d'une étude d'impact de la part de la Commission européenne, plus de dix ans après son adoption.
Le droit d'auteur est malade, s'étend tel un cancer, met en danger nos libertés et l'Internet libre. Les eurodéputés commencent à comprendre à quel point nos préoccupations sont légitimes et importantes. Il en reste cependant encore beaucoup à convaincre, et tous doivent être soumis à la surveillance, voire à la pression citoyenne, jusqu'à ce que nos demandes légitimes soient prises en compte. La Commission européenne et les gouvernements doivent suivre.
Nous avons une responsabilité historique, qui va au-delà d'ACTA et concerne notre façon de vivre, de travailler, d'apprendre, et de partager la culture. Collectivement, nous construisons, possédons et partageons l'Internet libre comme un bien commun, et l'utilisons pour tenter de rendre notre monde meilleur.
Alors célébrons nos victoires à venir, tout en continuant à travailler dur pour les rendre inéluctables !
1. INTA est la commission menant les travaux sur ACTA au Parlement
4. Un rapport intermédiaire équivaut à une résolution. Voir la règle 81(3) du règlement du Parlement européen : « Lorsque l'approbation du Parlement est requise pour une proposition d'acte législatif ou pour un traité international envisagé, la commission compétente peut décider, en vue de favoriser une issue positive de la procédure, de présenter au Parlement un rapport intermédiaire sur la proposition, qui contient une proposition de résolution comprenant des recommandations concernant la modification ou la mise en œuvre de l'acte proposé. » (emphase par nos soins). Source : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+RULES-EP+20120110+RULE-081+DOC+XML+V0//FR&navigationBar=YES
5. Voir son intervention lors du premier échange de vue de la commission INTA : « Il me semble probablement juste d'affirmer que chacun dans cette salle connaît quelqu'un qui, sans payer pour, a téléchargé une chanson, un album ou un épisode d'une série télévisée sur son ordinateur.
Je ne peux pas, en toute conscience, tolérer cette action. Je sais que certaines personnes voient les choses différemment, en particulier les jeunes. Mais pour moi, il n'y a aucune différence morale entre prendre quelque chose qui ne vous appartient pas dans le monde physique et le faire dans le monde virtuel. À cause du partage illégal, certaines des personnes les plus créatives de notre société ne reçoivent pas l'argent qu'elles devraient recevoir, et sont démotivées. ». Source : http://europa.eu/rapid/pressReleasesAction.do?reference=SPEECH/12/136&fo... (traduction par nos soins)
6. Il est stipulé dans l'article 17.2 de la Charte des droits fondamentaux de l'Union européenne que « La propriété intellectuelle est protégée. », mais cela n'en fait pas un droit fondamental en soi, équivalent à la liberté d'expression ou au droit à la vie privée.
7. Pour le Conseil économique et social des Nations unies, les droits des auteurs relatifs à leur travail ne sont pas équivalent au droit à la propriété : « Il est par conséquent important de ne pas assimiler les droits de propriété intellectuelle avec le droit protégé dans l'article 15, paragraphe 1 (c) » du Pacte international relatif aux droits sociaux, économiques et culturels, qui protège « le droit de bénéficier de la protection des intérêts moraux et matériels découlant de toute production scientifique, littéraire ou artistique dont il est l'auteur ».
8. Les accords TRIPS de l'OMC en 1994, le Traité sur le Copyright de l'OMPI en 1996, les tentatives répétées d'un « Broadcast Treaty », l'EUCD en 2001, l'IPRED en 2004, l'IPRED2 en 2005, Hadopi en 2007, les tentatives de dévoyer le Paquet Télécom européen en 2009 et SOPA/PIPA en 2011 pour n'en citer que quelques-unes.
9. Le fait que SOPA et PIPA aient été remisées après les impressionnantes manifestations en ligne est en grande partie dû à l'approche des élections américaines, mais les deux lois pourraient être réexaminées par la suite. Le Trans-Pacific Partnership est un autre exemple.
10. Concernant les infractions à but lucratif, comme dans tous les autres cas, les mesures répressives doivent être décidées par l'autorité judiciaire et non par des acteurs privés.
12. « Les exceptions et limitations du droit d'auteur » protègent le droit du public en ce qui concerne l'utilisation d'œuvres protégées
";s:7:"dateiso";s:15:"20120308_154717";}s:15:"20120227_145519";a:7:{s:5:"title";s:71:"Semaine ACTA au Parlement européen : les eurodéputés doivent agir !";s:4:"link";s:94:"http://www.laquadrature.net/fr/semaine-acta-au-parlement-europeen-les-eurodeputes-doivent-agir";s:4:"guid";s:35:"5439 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 27 Feb 2012 13:55:19 +0000";s:11:"description";s:6830:"
Bruxelles, 27 février 2012 – Malgré les tentatives de la Commission européenne visant à jouer la montre pour désamorcer le débat politique, des réunions importantes se tiennent cette semaine au Parlement européen pour décider du futur d'ACTA. Les citoyens doivent appeler leurs représentants à travailler dès à présent au rejet de cet accord illégitime.
La semaine dernière, la Commission européenne a annoncé qu'elle demanderait à la Cour de justice de l'UE (CJUE) de se prononcer sur la compatibilité d'ACTA avec les traités européens et les droits fondamentaux. Selon la formulation de la question, cette requête pourrait lever le voile sur les importants problèmes juridiques que pose ACTA. Cependant, il n'y a aucune raison d'attendre pour s'atteler aux problèmes politiques soulevés par cet accord.
En saisissant la CJUE, les partisans d'ACTA cherchent clairement à gagner du temps face à la forte opposition contre ACTA. Pour cette raison, le Parlement européen doit avancer dans ses travaux, et formuler ses propres raisons de rejeter ACTA.
Les citoyens de toute l'Europe peuvent contacter leurs représentants dans les commissions Commerce International (INTA) et Industrie (ITRE), qui se réunissent cette semaine pour discuter d'ACTA, et leur demander de continuer à travailler au sein de leur commission pour le rejet d'ACTA (voir ci-dessous pour des informations sur la procédure relative à ACTA au Parlement européen).
« ACTA a été initié et négocié en dehors de tout forum démocratique. Son texte vague, lorsque interprété à la lumière d'autres initiatives en cours, ne laisse aucun doute quant au but final d'ACTA de faire des acteurs d'Internet une police privée du copyright. Pire encore, ACTA rendra le régime actuel du droit d'auteur irréversible, en empêchant les indispensables réformes. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Les eurodéputés doivent résister à la stratégie de la Commission européenne, qui cherche à gagner du temps et à transformer le débat en une simple discussion juridique, et pour cela continuer à travailler au rejet d'ACTA. ACTA vise à imposer une tendance pour une politique globale du droit d'auteur qui est toxique pour l'Internet libre et pour les libertés. Le Parlement européen est le dernier rempart : il doit agir et adopter une position claire et forte, faute de quoi il laissera le champ libre à la Commission pour imposer une répression inacceptable. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne.
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (JURI), Développement (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
Le vote final du Parlement européen en session plénière aura lieu au plus tôt en juin.
Pour être informé des prochaines moments-clé pour inciter les eurodéputés à rejeter ACTA, envoyez un mail vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste de diffusion.
Pour discuter d'ACTA, abonnez-vous à notre liste de discussion en envoyant un email vide à acta-subscribe@laquadrature.net. Votre adresse mail ne sera pas utilisée pour quoi que ce soit d'autre.
";s:7:"content";s:6833:"
Bruxelles, 27 février 2012 – Malgré les tentatives de la Commission européenne visant à jouer la montre pour désamorcer le débat politique, des réunions importantes se tiennent cette semaine au Parlement européen pour décider du futur d'ACTA. Les citoyens doivent appeler leurs représentants à travailler dès à présent au rejet de cet accord illégitime.
La semaine dernière, la Commission européenne a annoncé qu'elle demanderait à la Cour de justice de l'UE (CJUE) de se prononcer sur la compatibilité d'ACTA avec les traités européens et les droits fondamentaux. Selon la formulation de la question, cette requête pourrait lever le voile sur les importants problèmes juridiques que pose ACTA. Cependant, il n'y a aucune raison d'attendre pour s'atteler aux problèmes politiques soulevés par cet accord.
En saisissant la CJUE, les partisans d'ACTA cherchent clairement à gagner du temps face à la forte opposition contre ACTA. Pour cette raison, le Parlement européen doit avancer dans ses travaux, et formuler ses propres raisons de rejeter ACTA.
Les citoyens de toute l'Europe peuvent contacter leurs représentants dans les commissions Commerce International (INTA) et Industrie (ITRE), qui se réunissent cette semaine pour discuter d'ACTA, et leur demander de continuer à travailler au sein de leur commission pour le rejet d'ACTA (voir ci-dessous pour des informations sur la procédure relative à ACTA au Parlement européen).
« ACTA a été initié et négocié en dehors de tout forum démocratique. Son texte vague, lorsque interprété à la lumière d'autres initiatives en cours, ne laisse aucun doute quant au but final d'ACTA de faire des acteurs d'Internet une police privée du copyright. Pire encore, ACTA rendra le régime actuel du droit d'auteur irréversible, en empêchant les indispensables réformes. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Les eurodéputés doivent résister à la stratégie de la Commission européenne, qui cherche à gagner du temps et à transformer le débat en une simple discussion juridique, et pour cela continuer à travailler au rejet d'ACTA. ACTA vise à imposer une tendance pour une politique globale du droit d'auteur qui est toxique pour l'Internet libre et pour les libertés. Le Parlement européen est le dernier rempart : il doit agir et adopter une position claire et forte, faute de quoi il laissera le champ libre à la Commission pour imposer une répression inacceptable. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne.
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (JURI), Développement (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
Le vote final du Parlement européen en session plénière aura lieu au plus tôt en juin.
Pour être informé des prochaines moments-clé pour inciter les eurodéputés à rejeter ACTA, envoyez un mail vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste de diffusion.
Pour discuter d'ACTA, abonnez-vous à notre liste de discussion en envoyant un email vide à acta-subscribe@laquadrature.net. Votre adresse mail ne sera pas utilisée pour quoi que ce soit d'autre.
";s:7:"dateiso";s:15:"20120227_145519";}s:15:"20120223_112714";a:7:{s:5:"title";s:33:"ACTA : pourquoi nous manifestons";s:4:"link";s:61:"http://www.laquadrature.net/fr/acta-pourquoi-nous-manifestons";s:4:"guid";s:35:"5369 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 23 Feb 2012 10:27:14 +0000";s:11:"description";s:3721:"
Malgré la tentative de la Commission européenne de jouer la montre et de parier sur l'essoufflement de la mobilisation citoyenne en saisissant la CJUE, le samedi 25 février sera une occasion de plus pour des centaines de milliers de citoyens de manifester contre ACTA, dans des dizaines de villes de l'Union européenne. Pour nous, citoyens européens, ACTA est devenu le symbole d'un processus de décision politique corrompu, et constitue une nouvelle preuve de l'urgence qu'il y a à initier une réforme du droit d'auteur, afin de protéger nos libertés fondamentales en ligne.
Comme ils l'ont fait pour les manifestations du 11 février, les co-fondateurs et les soutiens de La Quadrature du Net descendront de nouveau dans la rue pour manifester contre ACTA, ce samedi à Paris. Hautement symboliques, ces manifestations sont l'expression sincère de la colère de centaines de milliers de citoyens, qui ont compris la véritable nature anti-démocratique de l'Accord Commercial Anti-Contrefaçon.
Cette vague de protestations est unique à plusieurs égards :
Les manifestations contre ACTA n'ont pas d'organisateurs ni de leaders. Elles ne sont organisées par aucun parti politique, syndicat, ou ONG. Elles sont l'expression spontanée de l'indignation croissante sur Internet, cristallisée en une incroyable force citoyenne.
Jamais, dans l'histoire récente de l'UE, une manifestation n'a été ainsi répartie dans autant d'États membres et de villes à la fois. Cette gronde contre ACTA est l'expression même de la démocratie.
Les citoyens participant à ces manifestations sont en moyenne remarquablement jeunes. Il s'agit d'une génération pour laquelle l'Internet libre est devenu un outil fondamental pour apprendre, pour travailler, pour accéder et participer à la culture, pour prendre part à la société. Ces manifestations sont porteuses d'espoir car leur objectif principal est de défendre l'Internet libre comme fondation d'un avenir meilleur.
« Il est plus que jamais temps d'exiger non seulement le rejet d'ACTA, mais aussi la protection de l'Internet libre et de nos libertés fondamentales, aujourd'hui et à l'avenir. Les députés du Parlement européen doivent écouter la rue et procéder rapidement à un vote contre ACTA. Au-delà, ils doivent initier une réforme positive du droit d'auteur pour légaliser des pratiques culturelles largement répandues, comme le partage de la culture, tant qu'il est réalisé sans but de profit. Le droit d'auteur ne peut retrouver sa légitimité, et nos libertés comme l'Internet libre ne peuvent être protégés que si la répression se concentre sur les infractions commerciales, et si les pratiques sans but de profit – essentielles pour l'accès à la culture – sont rendues légales. », conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net encourage ses soutiens à rejoindre ces manifestations pacifiques dans toute l'Europe pour aider à vaincre ACTA et pour un droit d'auteur plus juste.
Une version mise à jour de notre tract est disponible. Les traducteurs sont appelés à participer à mettre à jour leurs versions.
";s:7:"content";s:3721:"
Malgré la tentative de la Commission européenne de jouer la montre et de parier sur l'essoufflement de la mobilisation citoyenne en saisissant la CJUE, le samedi 25 février sera une occasion de plus pour des centaines de milliers de citoyens de manifester contre ACTA, dans des dizaines de villes de l'Union européenne. Pour nous, citoyens européens, ACTA est devenu le symbole d'un processus de décision politique corrompu, et constitue une nouvelle preuve de l'urgence qu'il y a à initier une réforme du droit d'auteur, afin de protéger nos libertés fondamentales en ligne.
Comme ils l'ont fait pour les manifestations du 11 février, les co-fondateurs et les soutiens de La Quadrature du Net descendront de nouveau dans la rue pour manifester contre ACTA, ce samedi à Paris. Hautement symboliques, ces manifestations sont l'expression sincère de la colère de centaines de milliers de citoyens, qui ont compris la véritable nature anti-démocratique de l'Accord Commercial Anti-Contrefaçon.
Cette vague de protestations est unique à plusieurs égards :
Les manifestations contre ACTA n'ont pas d'organisateurs ni de leaders. Elles ne sont organisées par aucun parti politique, syndicat, ou ONG. Elles sont l'expression spontanée de l'indignation croissante sur Internet, cristallisée en une incroyable force citoyenne.
Jamais, dans l'histoire récente de l'UE, une manifestation n'a été ainsi répartie dans autant d'États membres et de villes à la fois. Cette gronde contre ACTA est l'expression même de la démocratie.
Les citoyens participant à ces manifestations sont en moyenne remarquablement jeunes. Il s'agit d'une génération pour laquelle l'Internet libre est devenu un outil fondamental pour apprendre, pour travailler, pour accéder et participer à la culture, pour prendre part à la société. Ces manifestations sont porteuses d'espoir car leur objectif principal est de défendre l'Internet libre comme fondation d'un avenir meilleur.
« Il est plus que jamais temps d'exiger non seulement le rejet d'ACTA, mais aussi la protection de l'Internet libre et de nos libertés fondamentales, aujourd'hui et à l'avenir. Les députés du Parlement européen doivent écouter la rue et procéder rapidement à un vote contre ACTA. Au-delà, ils doivent initier une réforme positive du droit d'auteur pour légaliser des pratiques culturelles largement répandues, comme le partage de la culture, tant qu'il est réalisé sans but de profit. Le droit d'auteur ne peut retrouver sa légitimité, et nos libertés comme l'Internet libre ne peuvent être protégés que si la répression se concentre sur les infractions commerciales, et si les pratiques sans but de profit – essentielles pour l'accès à la culture – sont rendues légales. », conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net encourage ses soutiens à rejoindre ces manifestations pacifiques dans toute l'Europe pour aider à vaincre ACTA et pour un droit d'auteur plus juste.
Une version mise à jour de notre tract est disponible. Les traducteurs sont appelés à participer à mettre à jour leurs versions.
";s:7:"dateiso";s:15:"20120223_112714";}s:15:"20120222_160535";a:7:{s:5:"title";s:70:"Saisine de la CJUE : aucun débat juridique ne rendra l'ACTA légitime";s:4:"link";s:96:"http://www.laquadrature.net/fr/saisine-de-la-cjue-aucun-debat-juridique-ne-rendra-lacta-legitime";s:4:"guid";s:35:"5367 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 22 Feb 2012 15:05:35 +0000";s:11:"description";s:3778:"
Paris, le 22 février 2012 – La Commission européenne vient d'annoncer son intention de demander l'avis de la Cour de Justice de l'Union Européenne (CJUE) sur la conformité d'ACTA avec les libertés fondamentales. Au-delà de l'intention évidente de désamorcer l'intense débat en cours, cette saisine réduit le débat sur ACTA à des questions juridique, alors que le cœur du problème est avant tout politique.
Alors que la Commission européenne a constamment refusé de mener une étude d'impact sur les conséquences d'ACTA pour les libertés fondamentales, elle est désormais décidée à jouer la montre face à l'opposition citoyenne grandissante.
Même si le texte de la saisine de la CJUE n'a pas été publié, l'approche annoncée par la Commission européenne est étriquée et purement juridique. D'importantes questions ne seront pas posées, et resteront donc sans réponse :
Une interprétation maximaliste des sanctions pénales inclues dans ACTA (pour « aider et faciliter » des infractions à « l'échelle commerciale ») peut-elle être utilisée par l'industrie du divertissement comme une arme d'intimidation, pour pousser les acteurs d'Internet à déployer des mesures répressives contractuelles ?
Quelles seront les conséquences sur le débat public et les politiques publiques européennes d'une sanctuarisation de dispositions répressives dont on attend toujours les études d'impact, et qui sont fortement critiquées (telles que l'IPRED et l'EUCD) ?
Des dispositions touchant au processus décisionnel européen, à la libre circulation de l'information et à la liberté d'entreprendre sur Internet peuvent-elles être négociées au lieu d'être démocratiquement débattues, et être légitimes ?
ACTA est-il nécessaire alors que nous assistons à un conflit manifeste entre les politiques répressives du droit d'auteur et les libertés fondamentales, et que d'autres pistes sont envisageables, telles qu'une réforme positive prenant en compte les nouvelles pratiques culturelles ?
« La Commission européenne pose les mauvaises questions, parce qu'elle a peur d'obtenir les bonnes réponses. Elle tente d'empêcher la Cour d'évaluer l'impact d'ACTA sur les droits fondamentaux en prenant en compte ses interactions à la fois avec le droit européen existant et les révisions annoncées de l'IPRED et de la directive « services en ligne ». Dans cette perspective plus large, les effets dommageables d'ACTA sur les libertés fondamentales sont tellement évidents que l'avis de la CJUE n'est même pas nécessaire. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« ACTA est dangereux parce qu'il cherche à contourner la démocratie, et parce que son texte peut donner lieu à des interprétations ultra-répressives par les pays signataires et les juges. La Commission semble craindre que l'actuel débat enflammé sur ACTA, ainsi que la prise de conscience grandissante que le système actuel ne fonctionne plus, n'aboutissent à une nécessaire réforme du droit d'auteur en faveur de la culture et de l'innovation à l'ère numérique. Aucun débat juridique ne donnera à l'ACTA une légitimité que, par nature, il ne pourra jamais avoir. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
";s:7:"content";s:3778:"
Paris, le 22 février 2012 – La Commission européenne vient d'annoncer son intention de demander l'avis de la Cour de Justice de l'Union Européenne (CJUE) sur la conformité d'ACTA avec les libertés fondamentales. Au-delà de l'intention évidente de désamorcer l'intense débat en cours, cette saisine réduit le débat sur ACTA à des questions juridique, alors que le cœur du problème est avant tout politique.
Alors que la Commission européenne a constamment refusé de mener une étude d'impact sur les conséquences d'ACTA pour les libertés fondamentales, elle est désormais décidée à jouer la montre face à l'opposition citoyenne grandissante.
Même si le texte de la saisine de la CJUE n'a pas été publié, l'approche annoncée par la Commission européenne est étriquée et purement juridique. D'importantes questions ne seront pas posées, et resteront donc sans réponse :
Une interprétation maximaliste des sanctions pénales inclues dans ACTA (pour « aider et faciliter » des infractions à « l'échelle commerciale ») peut-elle être utilisée par l'industrie du divertissement comme une arme d'intimidation, pour pousser les acteurs d'Internet à déployer des mesures répressives contractuelles ?
Quelles seront les conséquences sur le débat public et les politiques publiques européennes d'une sanctuarisation de dispositions répressives dont on attend toujours les études d'impact, et qui sont fortement critiquées (telles que l'IPRED et l'EUCD) ?
Des dispositions touchant au processus décisionnel européen, à la libre circulation de l'information et à la liberté d'entreprendre sur Internet peuvent-elles être négociées au lieu d'être démocratiquement débattues, et être légitimes ?
ACTA est-il nécessaire alors que nous assistons à un conflit manifeste entre les politiques répressives du droit d'auteur et les libertés fondamentales, et que d'autres pistes sont envisageables, telles qu'une réforme positive prenant en compte les nouvelles pratiques culturelles ?
« La Commission européenne pose les mauvaises questions, parce qu'elle a peur d'obtenir les bonnes réponses. Elle tente d'empêcher la Cour d'évaluer l'impact d'ACTA sur les droits fondamentaux en prenant en compte ses interactions à la fois avec le droit européen existant et les révisions annoncées de l'IPRED et de la directive « services en ligne ». Dans cette perspective plus large, les effets dommageables d'ACTA sur les libertés fondamentales sont tellement évidents que l'avis de la CJUE n'est même pas nécessaire. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« ACTA est dangereux parce qu'il cherche à contourner la démocratie, et parce que son texte peut donner lieu à des interprétations ultra-répressives par les pays signataires et les juges. La Commission semble craindre que l'actuel débat enflammé sur ACTA, ainsi que la prise de conscience grandissante que le système actuel ne fonctionne plus, n'aboutissent à une nécessaire réforme du droit d'auteur en faveur de la culture et de l'innovation à l'ère numérique. Aucun débat juridique ne donnera à l'ACTA une légitimité que, par nature, il ne pourra jamais avoir. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
";s:7:"dateiso";s:15:"20120222_160535";}s:15:"20120221_175409";a:7:{s:5:"title";s:98:"« Semaine verte » : les eurodéputés sont en circonscription, demandez-leur de rejeter ACTA !";s:4:"link";s:114:"http://www.laquadrature.net/fr/semaine-verte-les-eurodeputes-sont-en-circonscription-demandez-leur-de-rejeter-acta";s:4:"guid";s:35:"5353 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 21 Feb 2012 16:54:09 +0000";s:11:"description";s:5418:"
Paris, le 21 février 2012 – Cette semaine, les députés du Parlement européen seront de retour en circonscription pour rencontrer leurs électeurs. C'est une occasion importante pour les citoyens de l'UE d'entrer en contact avec leur élus, et de leur rappeler le danger que représenterait la ratification de l'ACTA. La semaine prochaine, à Bruxelles, des réunions déterminantes pour l'avenir d'ACTA auront lieu dans les commissions du Parlement européen.
Cette semaine est une « semaine verte », durant laquelle les eurodéputés sont libérés de leurs activités bruxelloises et retournent dans leurs circonscriptions. Il s'agit d'une occasion unique pour les citoyens de rencontrer leurs représentants, de les informer des dangers d'ACTA, et leur demander de s'engager publiquement à le rejeter. Jusqu'à présent, les eurodéputés ont été soumis à un lobbying intense de la part des industries du divertissement et de la Commission européenne1, et il est temps pour eux de discuter avec leurs électeurs et de prendre une position publique ferme sur le sujet.
Cette « semaine verte » tombe à point nommé, alors que le 25 février, les citoyens de toute l'Europe manifesteront à nouveau contre ACTA pour exiger son rejet. La semaine prochaine, pluseurs réunions sont prévues dans les différentes commissions du Parlement européen travaillant sur ACTA (INTA, ITRE and DEVE) pour des « échanges de vues », en amont d'un atelier prévu le 1er mars2. Lors de ces réunions, des décisions importantes seront prises concernant la procédure relative à ACTA. Il est donc crucial que les députés européens soient conscients des nombreux problèmes politiques3 posés par ce prétendu « accord commercial ».
Informez vos eurodéputés des critiques exprimées contre ACTA, tant de la part du protecteur européen des données personnelles, que du Comité économique et social européen, de 70 universitaires européens, et d'autres encore.
Rappelez à vos eurodéputés les faits concernant ACTA, afin de contrer les mensonges de la Commission européenne.
Demandez à vos eurodéputés un engagement et une prise de position publique en faveur du rejet de l'ACTA, et renseignez la section correspondante (« public position ») dans leur page sur Mémoire Politique.
Paris, le 21 février 2012 – Cette semaine, les députés du Parlement européen seront de retour en circonscription pour rencontrer leurs électeurs. C'est une occasion importante pour les citoyens de l'UE d'entrer en contact avec leur élus, et de leur rappeler le danger que représenterait la ratification de l'ACTA. La semaine prochaine, à Bruxelles, des réunions déterminantes pour l'avenir d'ACTA auront lieu dans les commissions du Parlement européen.
Cette semaine est une « semaine verte », durant laquelle les eurodéputés sont libérés de leurs activités bruxelloises et retournent dans leurs circonscriptions. Il s'agit d'une occasion unique pour les citoyens de rencontrer leurs représentants, de les informer des dangers d'ACTA, et leur demander de s'engager publiquement à le rejeter. Jusqu'à présent, les eurodéputés ont été soumis à un lobbying intense de la part des industries du divertissement et de la Commission européenne1, et il est temps pour eux de discuter avec leurs électeurs et de prendre une position publique ferme sur le sujet.
Cette « semaine verte » tombe à point nommé, alors que le 25 février, les citoyens de toute l'Europe manifesteront à nouveau contre ACTA pour exiger son rejet. La semaine prochaine, pluseurs réunions sont prévues dans les différentes commissions du Parlement européen travaillant sur ACTA (INTA, ITRE and DEVE) pour des « échanges de vues », en amont d'un atelier prévu le 1er mars2. Lors de ces réunions, des décisions importantes seront prises concernant la procédure relative à ACTA. Il est donc crucial que les députés européens soient conscients des nombreux problèmes politiques3 posés par ce prétendu « accord commercial ».
Informez vos eurodéputés des critiques exprimées contre ACTA, tant de la part du protecteur européen des données personnelles, que du Comité économique et social européen, de 70 universitaires européens, et d'autres encore.
Rappelez à vos eurodéputés les faits concernant ACTA, afin de contrer les mensonges de la Commission européenne.
Demandez à vos eurodéputés un engagement et une prise de position publique en faveur du rejet de l'ACTA, et renseignez la section correspondante (« public position ») dans leur page sur Mémoire Politique.
";s:7:"dateiso";s:15:"20120221_175409";}s:15:"20120217_140908";a:7:{s:5:"title";s:86:"Réponse à la consultation de l'Arcep sur la qualité de service de l'accès Internet";s:4:"link";s:111:"http://www.laquadrature.net/fr/reponse-a-la-consultation-de-larcep-sur-la-qualite-de-service-de-lacces-internet";s:4:"guid";s:35:"5329 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 17 Feb 2012 13:09:08 +0000";s:11:"description";s:3605:"
La Quadrature du Net a envoyé aujourd'hui sa réponse à la consultation de l'Arcep sur le suivi de la qualité de service de l'accès à Internet sur les réseaux fixes. L'organisation citoyenne y exprime son inquiétude face au manque d'avancées en matière de protection de la neutralité du Net.
La Quadrature du Net est une organisation de défense des libertés sur Internet. C'est à ce titre que, dès 2009, La Quadrature s'est mobilisée sur la question de la neutralité du Net lors des débats européens sur le Paquet Télécom. L'organisation citoyenne a également activement participé aux discussions relatives à la neutralité du Net qui se sont tenues en France, tant dans le cadre des travaux de l'Arcep que de ceux des parlementaires et du gouvernement.
Aussi a-t-elle accepté de participer au groupe de travail sur le suivi de la qualité de service, mis en place par l'Arcep au second semestre 2011. L'approche était la suivante : faire valoir la nécessité d'intégrer, dans les indicateurs de suivi de la qualité de service, des éléments susceptibles de rendre compte de restrictions d'accès à Internet constitutives d'atteintes à la neutralité du Net – ce que l'Arcep appelle des « dégradations sélectives » de la qualité de service.
Comme rappelé dans la réponse à la consultation, La Quadrature s'inquiète que l'Arcep ait renoncé à faire de cette question un point prioritaire. Tout en détaillant cette critique, l'organisation citoyenne formule plusieurs recommandations sur la manière dont l'Arcep peut faire de la neutralité du Net un chantier prioritaire dans les mois à venir. Partant de ce constat et de ces propositions, le document se conclut sur des commentaires généraux relatifs aux orientations du régulateur concernant le suivi de la qualité de service global de l'accès à Internet.
Les propositions de La Quadrature du Net pour la protection de la neutralité du Net
Il faut inscrire dans la loi une définition d'Internet assise sur le principe de neutralité, afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les réseaux Internet, quelque soit le mode d'accès (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées.
Les atteintes à la neutralité du Net par les opérateurs doivent faire l'objet de sanctions dissuasives.
Sur les réseaux, les conditions d'équilibre entre les « services gérés » et Internet sur les réseaux de communication doivent être pérennes, afin de préserver la qualité de l'accès Internet.
Il est nécessaire d'encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
La Quadrature du Net a envoyé aujourd'hui sa réponse à la consultation de l'Arcep sur le suivi de la qualité de service de l'accès à Internet sur les réseaux fixes. L'organisation citoyenne y exprime son inquiétude face au manque d'avancées en matière de protection de la neutralité du Net.
La Quadrature du Net est une organisation de défense des libertés sur Internet. C'est à ce titre que, dès 2009, La Quadrature s'est mobilisée sur la question de la neutralité du Net lors des débats européens sur le Paquet Télécom. L'organisation citoyenne a également activement participé aux discussions relatives à la neutralité du Net qui se sont tenues en France, tant dans le cadre des travaux de l'Arcep que de ceux des parlementaires et du gouvernement.
Aussi a-t-elle accepté de participer au groupe de travail sur le suivi de la qualité de service, mis en place par l'Arcep au second semestre 2011. L'approche était la suivante : faire valoir la nécessité d'intégrer, dans les indicateurs de suivi de la qualité de service, des éléments susceptibles de rendre compte de restrictions d'accès à Internet constitutives d'atteintes à la neutralité du Net – ce que l'Arcep appelle des « dégradations sélectives » de la qualité de service.
Comme rappelé dans la réponse à la consultation, La Quadrature s'inquiète que l'Arcep ait renoncé à faire de cette question un point prioritaire. Tout en détaillant cette critique, l'organisation citoyenne formule plusieurs recommandations sur la manière dont l'Arcep peut faire de la neutralité du Net un chantier prioritaire dans les mois à venir. Partant de ce constat et de ces propositions, le document se conclut sur des commentaires généraux relatifs aux orientations du régulateur concernant le suivi de la qualité de service global de l'accès à Internet.
Les propositions de La Quadrature du Net pour la protection de la neutralité du Net
Il faut inscrire dans la loi une définition d'Internet assise sur le principe de neutralité, afin de garantir la pérennité de son architecture technique.
Le principe de neutralité doit s'appliquer à tous les réseaux Internet, quelque soit le mode d'accès (fixe ou mobile). Les exceptions à ce principe, en cas de congestion non prévue ou de menace sur la sécurité du réseau, doivent être rigoureusement encadrées.
Les atteintes à la neutralité du Net par les opérateurs doivent faire l'objet de sanctions dissuasives.
Sur les réseaux, les conditions d'équilibre entre les « services gérés » et Internet sur les réseaux de communication doivent être pérennes, afin de préserver la qualité de l'accès Internet.
Il est nécessaire d'encadrer l'utilisation des technologies d'inspection des paquets de données afin de protéger le secret des correspondances et l'intégrité des communications électroniques.
";s:7:"dateiso";s:15:"20120217_140908";}s:15:"20120216_104822";a:7:{s:5:"title";s:96:"Droit d'auteur en ligne : La Cour de Justice de l'UE rejette la censure privée et automatisée";s:4:"link";s:120:"http://www.laquadrature.net/fr/droit-dauteur-en-ligne-la-cour-de-justice-de-lue-rejette-la-censure-priv-e-et-automatis-e";s:4:"guid";s:35:"5313 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 16 Feb 2012 09:48:22 +0000";s:11:"description";s:14599:"
Paris, 16 février 2012 – La Cour de Justice de l'Union Européenne vient de rendre une nouvelle décision en faveur des libertés sur Internet dans l'affaire SABAM c. Netlog, en déclarant que forcer un hébergeur à surveiller et à filtrer les contenus en ligne est contraire au droit de l'UE. Cette décision cruciale vient à point nommé, alors que des initiatives comme ACTA ou la révision prochaine de la directive IPRED cherchent à généraliser la censure privée et automatique en ligne dans le but de défendre un droit d'auteur dépassé.
Dans cette décision importante, la Cour de Justice de l'UE suit un raisonnement similaire à celui tenu il y a quelques mois dans l'affaire SABAM c. Scarlet1, en concluant que le fait de contraindre un hébergeur à surveiller toutes les communications électroniques de ses utilisateurs, dans le but de bloquer les échanges non-autorisés d'œuvres soumises au droit d'auteur, était contraire au droit de l'UE et aux droits fondamentaux. La Cour se base notamment sur la directive « services en ligne » de 2000 (également surnommée directive « eCommerce ») et la Charte des droits fondamentaux2.
Alors que plusieurs propositions comme l'ACTA ou la révision prochaine de la directive IPRED cherchent à lutter contre le partage de la culture sur Internet au travers de la privatisation des missions de police et de justice, cette décision vient à point nommé. Elle affirme clairement qu'encourager des entreprises privées à faire la police sur leurs réseaux et leurs services, pour prévenir de possibles atteintes au droit d'auteur, n'est pas compatible avec les valeurs démocratiques de l'Union européenne.
« Cet arrêt doit sonner comme un appel pour le législateur à renoncer aux dispositifs de censure privatisée, déguisés en “coopération” entre les acteurs d'Internet et l'industrie du divertissement. Nous devons désormais rompre avec la logique répressive qui porte inévitablement atteinte aux libertés en ligne et à l'Internet ouvert, pour engager une profonde réforme d'un régime du droit d'auteur désormais malade. Il nous faut inventer un droit d'auteur qui, plutôt que de censurer Internet, encouragera l'accès à la culture et son partage, tout en permettant un financement équitable de la création. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
L'arrêt de la CJUE dans l'affaire SABAM c. Netlog fait suite aux poursuites engagées en 2009 par la société de gestion collective belge SABAM contre le réseau social Netlog. SABAM demandait que Netlog, en tant qu'hébergeur, soit contraint d'installer un dispositif permettant de prévenir les atteintes au droit d'auteur. Le Tribunal de Première Instance de Bruxelles avait demandé à la CJUE si de telles mesures étaient compatibles avec le droit de l'UE3.
2. Voir la décision: http://curia.europa.eu/juris/document/document.jsf?text=&docid=119512&pa...
Voir ci dessous, les extraits les plus importants de l'arrêt : 34 (...) la Cour a déjà jugé qu’une telle interdiction s’étend notamment aux mesures nationales qui obligeraient un prestataire intermédiaire, tel qu’un prestataire de services d’hébergement, à procéder à une surveillance active de l’ensemble des données de chacun de ses clients afin de prévenir toute atteinte future à des droits de propriété intellectuelle. Par ailleurs, une telle obligation de surveillance générale serait incompatible avec l’article 3 de la directive 2004/48, qui énonce que les mesures visées par cette dernière doivent être équitables et proportionnées et ne doivent pas être excessivement coûteuses (voir arrêt Scarlet Extended, précité, point 36).
37 (...) Une telle surveillance préventive exigerait une observation active des fichiers stockés par les utilisateurs auprès du prestataire de services d’hébergement et concernerait tant la quasi-totalité des informations ainsi stockées que l’ensemble des utilisateurs des services de ce prestataire (voir, par analogie, arrêt Scarlet Extended, précité, point 39).
45 (...)Dans l’affaire au principal, l’injonction de mettre en place le système de filtrage litigieux implique de surveiller, dans l’intérêt de ces titulaires, la totalité ou la plus grande partie des informations stockées auprès du prestataire de services d’hébergement concerné, cette surveillance étant en outre illimitée dans le temps, visant toute atteinte future et supposant de devoir protéger non seulement des œuvres existantes, mais également les œuvres qui n’ont pas encore été créées au moment de la mise en place dudit système.
48 (...) Les effets de ladite injonction ne se limiteraient pas au prestataire de services d’hébergement, le système de filtrage litigieux étant également susceptible de porter atteinte aux droits fondamentaux des utilisateurs des services de ce prestataire, à savoir à leur droit à la protection des données à caractère personnel ainsi qu’à leur liberté de recevoir ou de communiquer des informations, ces droits étant protégés par les articles 8 et 11 de la charte.
49 En effet, l’injonction de mettre en place le système de filtrage litigieux impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier, les informations relatives à ces profils étant des données protégées à caractère personnel, car elles permettent, en principe, l’identification desdits utilisateurs (voir, par analogie, arrêt Scarlet Extended, précité, point 51).
50 D’autre part, ladite injonction risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite. En effet, il n’est pas contesté que la réponse à la question de la licéité d’une transmission dépende également de l’application d’exceptions légales au droit d’auteur qui varient d’un État membre à l’autre. En outre, certaines œuvres peuvent relever, dans certains États membres, du domaine public ou elles peuvent faire l’objet d’une mise en ligne à titre gratuit de la part des auteurs concernés (voir, par analogie, arrêt Scarlet Extended, précité, point 52).
3. La question préjudicielle est la suivante : le droit de l'UE permet-il « aux États membres d'autoriser un juge national, saisi dans le cadre d'une procédure au fond et sur la base de la seule disposition légale prévoyant que: "Ils [les juges nationaux] peuvent également rendre une injonction de cessation à l'encontre des intermédiaires dont les services sont utilisés par des tiers pour porter atteinte au droit d'auteur ou à un droit voisin", à ordonner à un prestataire de services d'hébergement de mettre en place, à l'égard de toute sa clientèle, in abstracto et à titre préventif, à ses frais et sans limitation dans le temps, un système de filtrage de la plus grande partie des informations stockées sur ses serveurs, en vue d'y repérer des fichiers électroniques contenant des oeuvres musicales, cinématographiques ou audiovisuelles sur lesquelles la SABAM prétend détenir des droits et d'en bloquer ensuite l'échange ? »
";s:7:"content";s:14602:"
Paris, 16 février 2012 – La Cour de Justice de l'Union Européenne vient de rendre une nouvelle décision en faveur des libertés sur Internet dans l'affaire SABAM c. Netlog, en déclarant que forcer un hébergeur à surveiller et à filtrer les contenus en ligne est contraire au droit de l'UE. Cette décision cruciale vient à point nommé, alors que des initiatives comme ACTA ou la révision prochaine de la directive IPRED cherchent à généraliser la censure privée et automatique en ligne dans le but de défendre un droit d'auteur dépassé.
Dans cette décision importante, la Cour de Justice de l'UE suit un raisonnement similaire à celui tenu il y a quelques mois dans l'affaire SABAM c. Scarlet1, en concluant que le fait de contraindre un hébergeur à surveiller toutes les communications électroniques de ses utilisateurs, dans le but de bloquer les échanges non-autorisés d'œuvres soumises au droit d'auteur, était contraire au droit de l'UE et aux droits fondamentaux. La Cour se base notamment sur la directive « services en ligne » de 2000 (également surnommée directive « eCommerce ») et la Charte des droits fondamentaux2.
Alors que plusieurs propositions comme l'ACTA ou la révision prochaine de la directive IPRED cherchent à lutter contre le partage de la culture sur Internet au travers de la privatisation des missions de police et de justice, cette décision vient à point nommé. Elle affirme clairement qu'encourager des entreprises privées à faire la police sur leurs réseaux et leurs services, pour prévenir de possibles atteintes au droit d'auteur, n'est pas compatible avec les valeurs démocratiques de l'Union européenne.
« Cet arrêt doit sonner comme un appel pour le législateur à renoncer aux dispositifs de censure privatisée, déguisés en “coopération” entre les acteurs d'Internet et l'industrie du divertissement. Nous devons désormais rompre avec la logique répressive qui porte inévitablement atteinte aux libertés en ligne et à l'Internet ouvert, pour engager une profonde réforme d'un régime du droit d'auteur désormais malade. Il nous faut inventer un droit d'auteur qui, plutôt que de censurer Internet, encouragera l'accès à la culture et son partage, tout en permettant un financement équitable de la création. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
L'arrêt de la CJUE dans l'affaire SABAM c. Netlog fait suite aux poursuites engagées en 2009 par la société de gestion collective belge SABAM contre le réseau social Netlog. SABAM demandait que Netlog, en tant qu'hébergeur, soit contraint d'installer un dispositif permettant de prévenir les atteintes au droit d'auteur. Le Tribunal de Première Instance de Bruxelles avait demandé à la CJUE si de telles mesures étaient compatibles avec le droit de l'UE3.
2. Voir la décision: http://curia.europa.eu/juris/document/document.jsf?text=&docid=119512&pa...
Voir ci dessous, les extraits les plus importants de l'arrêt : 34 (...) la Cour a déjà jugé qu’une telle interdiction s’étend notamment aux mesures nationales qui obligeraient un prestataire intermédiaire, tel qu’un prestataire de services d’hébergement, à procéder à une surveillance active de l’ensemble des données de chacun de ses clients afin de prévenir toute atteinte future à des droits de propriété intellectuelle. Par ailleurs, une telle obligation de surveillance générale serait incompatible avec l’article 3 de la directive 2004/48, qui énonce que les mesures visées par cette dernière doivent être équitables et proportionnées et ne doivent pas être excessivement coûteuses (voir arrêt Scarlet Extended, précité, point 36).
37 (...) Une telle surveillance préventive exigerait une observation active des fichiers stockés par les utilisateurs auprès du prestataire de services d’hébergement et concernerait tant la quasi-totalité des informations ainsi stockées que l’ensemble des utilisateurs des services de ce prestataire (voir, par analogie, arrêt Scarlet Extended, précité, point 39).
45 (...)Dans l’affaire au principal, l’injonction de mettre en place le système de filtrage litigieux implique de surveiller, dans l’intérêt de ces titulaires, la totalité ou la plus grande partie des informations stockées auprès du prestataire de services d’hébergement concerné, cette surveillance étant en outre illimitée dans le temps, visant toute atteinte future et supposant de devoir protéger non seulement des œuvres existantes, mais également les œuvres qui n’ont pas encore été créées au moment de la mise en place dudit système.
48 (...) Les effets de ladite injonction ne se limiteraient pas au prestataire de services d’hébergement, le système de filtrage litigieux étant également susceptible de porter atteinte aux droits fondamentaux des utilisateurs des services de ce prestataire, à savoir à leur droit à la protection des données à caractère personnel ainsi qu’à leur liberté de recevoir ou de communiquer des informations, ces droits étant protégés par les articles 8 et 11 de la charte.
49 En effet, l’injonction de mettre en place le système de filtrage litigieux impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier, les informations relatives à ces profils étant des données protégées à caractère personnel, car elles permettent, en principe, l’identification desdits utilisateurs (voir, par analogie, arrêt Scarlet Extended, précité, point 51).
50 D’autre part, ladite injonction risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite. En effet, il n’est pas contesté que la réponse à la question de la licéité d’une transmission dépende également de l’application d’exceptions légales au droit d’auteur qui varient d’un État membre à l’autre. En outre, certaines œuvres peuvent relever, dans certains États membres, du domaine public ou elles peuvent faire l’objet d’une mise en ligne à titre gratuit de la part des auteurs concernés (voir, par analogie, arrêt Scarlet Extended, précité, point 52).
3. La question préjudicielle est la suivante : le droit de l'UE permet-il « aux États membres d'autoriser un juge national, saisi dans le cadre d'une procédure au fond et sur la base de la seule disposition légale prévoyant que: "Ils [les juges nationaux] peuvent également rendre une injonction de cessation à l'encontre des intermédiaires dont les services sont utilisés par des tiers pour porter atteinte au droit d'auteur ou à un droit voisin", à ordonner à un prestataire de services d'hébergement de mettre en place, à l'égard de toute sa clientèle, in abstracto et à titre préventif, à ses frais et sans limitation dans le temps, un système de filtrage de la plus grande partie des informations stockées sur ses serveurs, en vue d'y repérer des fichiers électroniques contenant des oeuvres musicales, cinématographiques ou audiovisuelles sur lesquelles la SABAM prétend détenir des droits et d'en bloquer ensuite l'échange ? »
";s:7:"dateiso";s:15:"20120216_104822";}s:15:"20120211_122627";a:7:{s:5:"title";s:70:"Rejoignez la manif géante contre ACTA répartie dans toute l'Europe !";s:4:"link";s:96:"http://www.laquadrature.net/fr/rejoignez-la-manif-g-ante-contre-acta-r-partie-dans-toute-leurope";s:4:"guid";s:35:"5257 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Sat, 11 Feb 2012 11:26:27 +0000";s:11:"description";s:2471:"
Paris, 11 février 2012 - Les co-fondateurs1 de La Quadrature du Net et nombre de ses contributeurs participeront à la manifestation distribuée géante contre ACTA organisée aujourd'hui dans des centaines de villes européennes.
La Quadrature du Net a réalisé pour l'occasion un prospectus, qui a déjà été traduit par des bénévoles dans 10 langues2. Il est destiné à être partagé, traduit et remixé afin d'informer nos concitoyens sur les dangers d'ACTA pour les libertés en ligne et pour la démocratie.
Ne laissons pas un traité secret mettre notre Internet sous contrôle des majors !
ACTA, c'est :
Un accord négocié en secret par 39 pays afin de contourner les instances internationales et la démocratie.
Privatiser la répression du droit d'auteur en poussant les acteurs du Net à contrôler nos communications et à censurer le réseau.
Des sanctions pénales pour les pratiques culturelles, visant les moyens de partage non-commercial
Le verrouillage des dispositifs répressifs adoptés en 15 ans de “guerre contre le partage”, bloquant toute réforme du droit d'auteur en faveur du public et des artistes.
Nous devons agir !
Le Parlement européen peut encore rejeter l'ACTA !
1. Les co-fondateurs prendront part à la partie de la manifestation se déroulant à Paris.
Paris, 11 février 2012 - Les co-fondateurs1 de La Quadrature du Net et nombre de ses contributeurs participeront à la manifestation distribuée géante contre ACTA organisée aujourd'hui dans des centaines de villes européennes.
La Quadrature du Net a réalisé pour l'occasion un prospectus, qui a déjà été traduit par des bénévoles dans 10 langues2. Il est destiné à être partagé, traduit et remixé afin d'informer nos concitoyens sur les dangers d'ACTA pour les libertés en ligne et pour la démocratie.
Ne laissons pas un traité secret mettre notre Internet sous contrôle des majors !
ACTA, c'est :
Un accord négocié en secret par 39 pays afin de contourner les instances internationales et la démocratie.
Privatiser la répression du droit d'auteur en poussant les acteurs du Net à contrôler nos communications et à censurer le réseau.
Des sanctions pénales pour les pratiques culturelles, visant les moyens de partage non-commercial
Le verrouillage des dispositifs répressifs adoptés en 15 ans de “guerre contre le partage”, bloquant toute réforme du droit d'auteur en faveur du public et des artistes.
Nous devons agir !
Le Parlement européen peut encore rejeter l'ACTA !
1. Les co-fondateurs prendront part à la partie de la manifestation se déroulant à Paris.
";s:7:"dateiso";s:15:"20120211_122627";}s:15:"20120207_164740";a:7:{s:5:"title";s:70:"Le nouveau rapporteur ACTA défendra-t-il les libertés des citoyens ?";s:4:"link";s:99:"http://www.laquadrature.net/fr/le-nouveau-rapporteur-acta-d-fendra-t-il-les-libert-s-des-citoyens-0";s:4:"guid";s:35:"5222 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 07 Feb 2012 15:47:40 +0000";s:11:"description";s:8670:"
Paris, 7 février 2012 – L'eurodéputé David Martin, du groupe Socialistes & Démocrates, a été nommé nouveau rapporteur de l'accord commercial anti-contrefaçon (ACTA) par la commission « Commerce international » (INTA). Malheureusement, la faiblesse de son bilan en matière de protection des libertés en ligne est inquiétante, et doit inciter les citoyens européens à agir contre ACTA afin de s'assurer que le Parlement européen défendra leurs droits en rejetant ce dangereux accord.
Alors qu'il s'était jusqu'ici gardé de toute critique contre ACTA, l'ancien rapporteur Kader Arif a démissionné de son poste de manière spectaculaire, en dénonçant ACTA1 et en prenant le risque de laisser le dossier tomber entre les mains d'un de ses collègues potentiellement plus proche des lobbies du copyright. Suite à cette démission, d'autres députés du groupe S&D opposés à ACTA ont refusé le poste de rapporteur sur ce dossier brûlant. La nomination2 de David Martin, un eurodéputé britannique au très faible bilan en matière de défense des libertés sur Internet3, est un signal inquiétant : le groupe S&D semble ne pas comprendre que la société civile jugera les groupes politiques du Parlement européen sur leur détermination à défendre les libertés et l'intérêt général, en rejetant ACTA.4.
« David Martin devra prouver qu'il comprend qu'ACTA est un indéfendable contournement de la démocratie, qu'il s'agit d'un texte dont la nécessité n'a jamais été démontrée, et qui crée de graves dangers pour les libertés en ligne au bénéfice exclusif d'un nombre restreint d'intérêts privés. Plus important encore, cette compréhension des enjeux devra se traduire par une position courageuse en vue d'obtenir le rejet de cet accord inique. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Alors que le mouvement des citoyens européens contre ACTA s'amplifie, La Quadrature du Net appelle les eurodéputés de toutes tendances politiques à montrer qu'ils écoutent la voix des citoyens, et pas seulement celle des lobbies du divertissement. ACTA est un texte extrêmement alambiqué et imprécis depuis que la société civile a forcé les négociateurs à en retirer les pires dispositions. Mais le véritable sens du texte final doit s'interpréter à la lumière de l'objectif général d'ACTA : la pénalisation du partage sans but lucratif et la transformation des acteurs de l'Internet en police et justice privées du copyright. », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
4. David Martin devrait se rappeler du cas d'Arlene McCarthy, rapporteure de la directive impopulaire sur les brevets logiciels, qui a pris des positions ambiguës se révélant par la suite être en faveur de la monopolisation de la connaissance et de l'innovation. Le Parlement européen avait, au final, rejeté la directive après un premier vote, lors duquel ses positions avaient également été vaincues.
";s:7:"content";s:8670:"
Paris, 7 février 2012 – L'eurodéputé David Martin, du groupe Socialistes & Démocrates, a été nommé nouveau rapporteur de l'accord commercial anti-contrefaçon (ACTA) par la commission « Commerce international » (INTA). Malheureusement, la faiblesse de son bilan en matière de protection des libertés en ligne est inquiétante, et doit inciter les citoyens européens à agir contre ACTA afin de s'assurer que le Parlement européen défendra leurs droits en rejetant ce dangereux accord.
Alors qu'il s'était jusqu'ici gardé de toute critique contre ACTA, l'ancien rapporteur Kader Arif a démissionné de son poste de manière spectaculaire, en dénonçant ACTA1 et en prenant le risque de laisser le dossier tomber entre les mains d'un de ses collègues potentiellement plus proche des lobbies du copyright. Suite à cette démission, d'autres députés du groupe S&D opposés à ACTA ont refusé le poste de rapporteur sur ce dossier brûlant. La nomination2 de David Martin, un eurodéputé britannique au très faible bilan en matière de défense des libertés sur Internet3, est un signal inquiétant : le groupe S&D semble ne pas comprendre que la société civile jugera les groupes politiques du Parlement européen sur leur détermination à défendre les libertés et l'intérêt général, en rejetant ACTA.4.
« David Martin devra prouver qu'il comprend qu'ACTA est un indéfendable contournement de la démocratie, qu'il s'agit d'un texte dont la nécessité n'a jamais été démontrée, et qui crée de graves dangers pour les libertés en ligne au bénéfice exclusif d'un nombre restreint d'intérêts privés. Plus important encore, cette compréhension des enjeux devra se traduire par une position courageuse en vue d'obtenir le rejet de cet accord inique. », déclare Philippe Aigrain, co-fondateur de l'organisation citoyenne La Quadrature du Net.
« Alors que le mouvement des citoyens européens contre ACTA s'amplifie, La Quadrature du Net appelle les eurodéputés de toutes tendances politiques à montrer qu'ils écoutent la voix des citoyens, et pas seulement celle des lobbies du divertissement. ACTA est un texte extrêmement alambiqué et imprécis depuis que la société civile a forcé les négociateurs à en retirer les pires dispositions. Mais le véritable sens du texte final doit s'interpréter à la lumière de l'objectif général d'ACTA : la pénalisation du partage sans but lucratif et la transformation des acteurs de l'Internet en police et justice privées du copyright. », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
4. David Martin devrait se rappeler du cas d'Arlene McCarthy, rapporteure de la directive impopulaire sur les brevets logiciels, qui a pris des positions ambiguës se révélant par la suite être en faveur de la monopolisation de la connaissance et de l'innovation. Le Parlement européen avait, au final, rejeté la directive après un premier vote, lors duquel ses positions avaient également été vaincues.
";s:7:"dateiso";s:15:"20120207_164740";}s:15:"20120206_152730";a:7:{s:5:"title";s:77:"Sharing: Culture and the Economy in the Internet Age – par Philippe Aigrain";s:4:"link";s:103:"http://www.laquadrature.net/fr/sharing-culture-and-the-economy-in-the-internet-age-par-philippe-aigrain";s:4:"guid";s:35:"5203 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Feb 2012 14:27:30 +0000";s:11:"description";s:3275:"
Paris, le 3 février 2012 – Sharing: Culture and the Economy in the Internet Age est sorti. Philippe Aigrain, co-fondateur de La Quadrature du Net, en collaboration avec Suzanne Aigrain, y décrit la contribution créative, un modèle de financement additionnel conçu pour permettre le développement soutenable des activités créatives dans un contexte ou le partage serait reconnu comme un droit.
Pour dépasser la guerre faite au partage en ligne, dont les projets de loi SOPA/PIPA aux États-Unis ou l'accord ACTA à l'échelle mondiale sont les meilleurs exemples, Sharing défend la légitimité et l'utilité du partage non-marchand d'œuvres numériques entre individus.
En se fondant sur les dernières recherches sur l'économie de la culture, Sharing décrit et modélise un modèle de financement (baptisé « contribution créative ») conçu pour soutenir le développement d'une économie de la création dans un contexte ou le partage de la culture serait reconnu comme un droit. Les aspects philosophiques, légaux et institutionnels de cette proposition y sont également présentés.
La contribution créative (un terme utilisé par Philippe Aigrain depuis 2008) est un mécanisme forfaitaire avec des caractéristiques originales : un système construit sur les droits sociaux ; une double approche s'intéressant à rémunération des artistes et au financement de la création à venir ; une collecte des données pour la redistribution des sommes perçues fondée sur la contribution volontaire de données par les utilisateurs, via un système d'enregistement automatisé sur leurs ordinateurs et sous leur contrôle exclusif, etc.
Sharing fait l'objet d'une diffusion hybride, avec 4 composantes :
Le livre imprimé, disponible mondialement,
un eBook vendu au format ePub,
une version électronique en accès libre,
tous sous licence CC-By-NC-ND,
et un site interactif, http://www.sharing-thebook.net, où vous pourrez commenter les différents chapitres, télécharger le code source et les données utilisées dans le livre, et faire tourner les modèles de financement avec les paramètres de votre choix.
Paris, le 3 février 2012 – Sharing: Culture and the Economy in the Internet Age est sorti. Philippe Aigrain, co-fondateur de La Quadrature du Net, en collaboration avec Suzanne Aigrain, y décrit la contribution créative, un modèle de financement additionnel conçu pour permettre le développement soutenable des activités créatives dans un contexte ou le partage serait reconnu comme un droit.
Pour dépasser la guerre faite au partage en ligne, dont les projets de loi SOPA/PIPA aux États-Unis ou l'accord ACTA à l'échelle mondiale sont les meilleurs exemples, Sharing défend la légitimité et l'utilité du partage non-marchand d'œuvres numériques entre individus.
En se fondant sur les dernières recherches sur l'économie de la culture, Sharing décrit et modélise un modèle de financement (baptisé « contribution créative ») conçu pour soutenir le développement d'une économie de la création dans un contexte ou le partage de la culture serait reconnu comme un droit. Les aspects philosophiques, légaux et institutionnels de cette proposition y sont également présentés.
La contribution créative (un terme utilisé par Philippe Aigrain depuis 2008) est un mécanisme forfaitaire avec des caractéristiques originales : un système construit sur les droits sociaux ; une double approche s'intéressant à rémunération des artistes et au financement de la création à venir ; une collecte des données pour la redistribution des sommes perçues fondée sur la contribution volontaire de données par les utilisateurs, via un système d'enregistement automatisé sur leurs ordinateurs et sous leur contrôle exclusif, etc.
Sharing fait l'objet d'une diffusion hybride, avec 4 composantes :
Le livre imprimé, disponible mondialement,
un eBook vendu au format ePub,
une version électronique en accès libre,
tous sous licence CC-By-NC-ND,
et un site interactif, http://www.sharing-thebook.net, où vous pourrez commenter les différents chapitres, télécharger le code source et les données utilisées dans le livre, et faire tourner les modèles de financement avec les paramètres de votre choix.
";s:7:"dateiso";s:15:"20120206_152730";}s:15:"20120206_114956";a:7:{s:5:"title";s:69:"Les plans répressifs de la Commission européenne au-delà de l'ACTA";s:4:"link";s:95:"http://www.laquadrature.net/fr/les-plans-r-pressifs-de-la-commission-europ-enne-au-del-de-lacta";s:4:"guid";s:35:"5202 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 06 Feb 2012 10:49:56 +0000";s:11:"description";s:14303:"
Paris, le 6 février 2012 – La Commission européenne défend sans relâche ACTA, l'accord commercial anti-contrefaçon, qui provoque une vague d'opposition en Europe et au-delà. En présentant ACTA comme un accord sans danger, la Commission ouvre la voie à une politique de protection du droit d'auteur ultra-répressive, comme le révèlent des documents tout juste publiés. Les citoyens européens et leurs représentants élus doivent dénoncer cette dangereuse dérive du processus politique, vouée à saper les libertés en ligne et la structure même d'Internet, et exiger en lieu et place une réforme approfondie du droit d'auteur.
La semaine dernière, Neelie Kroes (Commissaire européenne en charge de l'Agenda numérique) et Viviane Reding (Commissaire européenne en charge de la Justice, de la Citoyenneté et des Droits fondamentaux), ont toutes deux apporté leur soutien à ACTA, épaulant Karel De Gucht, Commissaire européen chargé du Commerce international, dans sa promotion auprès du Parlement européen de cet accord illégitime. Le commissaire De Gucht a passé beaucoup de temps en lobbying au Parlement européen la semaine dernière, rencontrant divers groupes politiques pour les convaincre que l'opposition à ACTA est fondée sur de la désinformation, et que le Parlement doit accepter cet accord.
Voir Neelie Kroes et Viviane Reding rester ainsi indifférentes aux nombreuses critiques exprimées contre ACTA est très préoccupant. Comme le souligne La Quadrature dans un document1 participatif, les arguments avancés par les Commissaires européens en faveur de l'ACTA ne résistent pas à l'analyse.
Plus dérangeant encore, sans même attendre la décision du Parlement européen d'accepter ou non ACTA, le Commissaire Michel Barnier, en charge du Marché intérieur, fait déjà pression en faveur de nouvelles mesures répressives en matière de droit d'auteur, similaires à celles prévues par les lois SOPA et PIPA aux États-Unis. Une feuille de route récemment publiée sur la révision de la directive IPRED2 confirme que la Commission souhaite se concentrer sur les infractions en ligne, utilisant ACTA pour mettre en place des mécanismes de censure privée dans le droit européen3.
Le document laisse entendre que le retrait extra-judiciaire et expéditif de contenu en ligne, l'embargo financier contre des sites prétendument en infraction et même des mesures de filtrage du trafic Internet4 sont à l'étude, sous couvert de coopération entre les acteurs d'Internet et les industriels du copyright5. De plus, il y a une volonté claire d'étendre le champ des sanctions par une définition de l'« échelle commerciale » qui inclurait toute activité pouvant être considérée comme entraînant une perte de revenus pour les majors du film et de la musique6.
« La Commission européenne essaie de contourner la démocratie pour imposer des mesures répressives qui seront rendues inévitables par l'ACTA. Alors que Michel Barnier travaille déjà à la mise en œuvre des dispositions répressives contenues dans ACTA à travers la révision d'IPRED, les Commissaires De Gucht, Kroes et Reding demandent au Parlement d'accepter ACTA comme s'il s'agissait d'un accord inoffensif. En vérité, la Commission tente d'imposer l'agenda des industriels pour faire appliquer un droit d'auteur, des brevets et un droit des marques par des sanctions pénales extrêmement sévères et des mesures extra-judiciaires. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« Ce qu'il faut, ce n'est pas une répression plus dure encore, mais un débat ouvert sur la manière dont réformer positivement un droit d'auteur qui est de plus en plus contraire aux droits fondamentaux et à l'innovation. S'il était ratifié, ACTA créerait des obstacles majeurs à toute réforme. Les citoyens européens doivent continuer à appeler leurs représentants élus à rejeter l'ACTA. C'est la seule manière de mettre fin à cette véritable fuite en avant répressive et développer un cadre positif pour les activités créatives dans l'environnement numérique et les nouvelles pratiques culturelles. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
Contactez les parlementaires européens, et assurez-vous qu'ils comprennent vraiment ce qu'est ACTA. Visitez notre page de campagne dédiée.
3. Selon ce document, « l'anonymat sur Internet, sa nature transfrontalière et ses services adaptés à l’utilisateur et au consommateur, accessibles partout dans le monde, ont créé un environnement en ligne où les auteurs d'infractions sont difficiles à identifier, les preuves numériques difficiles à conserver, les dommages dus aux ventes en lignes difficiles à évaluer et où, après avoir été découverts, les contrevenants “réapparaissent” rapidement sous un nom différent ». Voir : http://ec.europa.eu/governance/impact/planned_ia/docs/2011_markt_006_review_enforcement_directive_ipr_en.pdf
4. Comme l'article 27 de l'ACTA, IPRED prévoit déjà des mesures pour « prévenir les infractions futures ». Il semble que la Commission veut imposer des mesures ad hoc pour empêcher les infractions.
Lors d'une audition du Parlement européen sur les marques déposées en janvier, Jean Bergevin, chef de l'unité pour l'application des Droits de Propriété Intellectuelle, a fait remarquer que le blocage par DNS était étudié comme dernier recours quand l'application du droit civil ne permettait pas d'empêcher l'infraction.
5. La « coopération » est un terme inventé pour désigner des mesures extra-judiciaires. ACTA encourage une telle coopération pour s'attaquer au contenu en ligne prétendument en infraction (article 27.4). La feuille de route du document relatif à IPRED précise :
« Des mesures complémentaires sous la forme d'outils de "soft-law" conçus pour interrompre la chaîne de valeur des contrefacteurs et accroître la coopération entre détenteurs de droits de propriété intellectuelle et les intermédiaires (ie : fournisseurs de service internet, transporteurs et coursiers, fournisseurs de services de paiement etc.) ne peuvent être exclues » (traduction par nos soins, original : “Complementary measures in soft-law instruments designed at disrupting the business/value chain of counterfeiters and at increasing the cooperation between intellectual property rights holders and intermediaries (e.g. internet service providers, shippers and couriers, payment-service providers etc) could not be excluded”).
Ceci reprend clairement les provisions de SOPA et PIPA. Dès notification par les industries du divertissement, les moteurs de recherche, fournisseurs de services financiers et régies publicitaires se verraient interdits de fournir des services ou de contracter avec les sites visés, sans décision judiciaire. Pour une analyse de ces dispositions dans les projets de loi américains, voir : http://benkler.org/WikiLeaks_PROTECT-IP_Benkler.pdf (en anglais).
Paris, le 6 février 2012 – La Commission européenne défend sans relâche ACTA, l'accord commercial anti-contrefaçon, qui provoque une vague d'opposition en Europe et au-delà. En présentant ACTA comme un accord sans danger, la Commission ouvre la voie à une politique de protection du droit d'auteur ultra-répressive, comme le révèlent des documents tout juste publiés. Les citoyens européens et leurs représentants élus doivent dénoncer cette dangereuse dérive du processus politique, vouée à saper les libertés en ligne et la structure même d'Internet, et exiger en lieu et place une réforme approfondie du droit d'auteur.
La semaine dernière, Neelie Kroes (Commissaire européenne en charge de l'Agenda numérique) et Viviane Reding (Commissaire européenne en charge de la Justice, de la Citoyenneté et des Droits fondamentaux), ont toutes deux apporté leur soutien à ACTA, épaulant Karel De Gucht, Commissaire européen chargé du Commerce international, dans sa promotion auprès du Parlement européen de cet accord illégitime. Le commissaire De Gucht a passé beaucoup de temps en lobbying au Parlement européen la semaine dernière, rencontrant divers groupes politiques pour les convaincre que l'opposition à ACTA est fondée sur de la désinformation, et que le Parlement doit accepter cet accord.
Voir Neelie Kroes et Viviane Reding rester ainsi indifférentes aux nombreuses critiques exprimées contre ACTA est très préoccupant. Comme le souligne La Quadrature dans un document1 participatif, les arguments avancés par les Commissaires européens en faveur de l'ACTA ne résistent pas à l'analyse.
Plus dérangeant encore, sans même attendre la décision du Parlement européen d'accepter ou non ACTA, le Commissaire Michel Barnier, en charge du Marché intérieur, fait déjà pression en faveur de nouvelles mesures répressives en matière de droit d'auteur, similaires à celles prévues par les lois SOPA et PIPA aux États-Unis. Une feuille de route récemment publiée sur la révision de la directive IPRED2 confirme que la Commission souhaite se concentrer sur les infractions en ligne, utilisant ACTA pour mettre en place des mécanismes de censure privée dans le droit européen3.
Le document laisse entendre que le retrait extra-judiciaire et expéditif de contenu en ligne, l'embargo financier contre des sites prétendument en infraction et même des mesures de filtrage du trafic Internet4 sont à l'étude, sous couvert de coopération entre les acteurs d'Internet et les industriels du copyright5. De plus, il y a une volonté claire d'étendre le champ des sanctions par une définition de l'« échelle commerciale » qui inclurait toute activité pouvant être considérée comme entraînant une perte de revenus pour les majors du film et de la musique6.
« La Commission européenne essaie de contourner la démocratie pour imposer des mesures répressives qui seront rendues inévitables par l'ACTA. Alors que Michel Barnier travaille déjà à la mise en œuvre des dispositions répressives contenues dans ACTA à travers la révision d'IPRED, les Commissaires De Gucht, Kroes et Reding demandent au Parlement d'accepter ACTA comme s'il s'agissait d'un accord inoffensif. En vérité, la Commission tente d'imposer l'agenda des industriels pour faire appliquer un droit d'auteur, des brevets et un droit des marques par des sanctions pénales extrêmement sévères et des mesures extra-judiciaires. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« Ce qu'il faut, ce n'est pas une répression plus dure encore, mais un débat ouvert sur la manière dont réformer positivement un droit d'auteur qui est de plus en plus contraire aux droits fondamentaux et à l'innovation. S'il était ratifié, ACTA créerait des obstacles majeurs à toute réforme. Les citoyens européens doivent continuer à appeler leurs représentants élus à rejeter l'ACTA. C'est la seule manière de mettre fin à cette véritable fuite en avant répressive et développer un cadre positif pour les activités créatives dans l'environnement numérique et les nouvelles pratiques culturelles. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
Contactez les parlementaires européens, et assurez-vous qu'ils comprennent vraiment ce qu'est ACTA. Visitez notre page de campagne dédiée.
3. Selon ce document, « l'anonymat sur Internet, sa nature transfrontalière et ses services adaptés à l’utilisateur et au consommateur, accessibles partout dans le monde, ont créé un environnement en ligne où les auteurs d'infractions sont difficiles à identifier, les preuves numériques difficiles à conserver, les dommages dus aux ventes en lignes difficiles à évaluer et où, après avoir été découverts, les contrevenants “réapparaissent” rapidement sous un nom différent ». Voir : http://ec.europa.eu/governance/impact/planned_ia/docs/2011_markt_006_review_enforcement_directive_ipr_en.pdf
4. Comme l'article 27 de l'ACTA, IPRED prévoit déjà des mesures pour « prévenir les infractions futures ». Il semble que la Commission veut imposer des mesures ad hoc pour empêcher les infractions.
Lors d'une audition du Parlement européen sur les marques déposées en janvier, Jean Bergevin, chef de l'unité pour l'application des Droits de Propriété Intellectuelle, a fait remarquer que le blocage par DNS était étudié comme dernier recours quand l'application du droit civil ne permettait pas d'empêcher l'infraction.
5. La « coopération » est un terme inventé pour désigner des mesures extra-judiciaires. ACTA encourage une telle coopération pour s'attaquer au contenu en ligne prétendument en infraction (article 27.4). La feuille de route du document relatif à IPRED précise :
« Des mesures complémentaires sous la forme d'outils de "soft-law" conçus pour interrompre la chaîne de valeur des contrefacteurs et accroître la coopération entre détenteurs de droits de propriété intellectuelle et les intermédiaires (ie : fournisseurs de service internet, transporteurs et coursiers, fournisseurs de services de paiement etc.) ne peuvent être exclues » (traduction par nos soins, original : “Complementary measures in soft-law instruments designed at disrupting the business/value chain of counterfeiters and at increasing the cooperation between intellectual property rights holders and intermediaries (e.g. internet service providers, shippers and couriers, payment-service providers etc) could not be excluded”).
Ceci reprend clairement les provisions de SOPA et PIPA. Dès notification par les industries du divertissement, les moteurs de recherche, fournisseurs de services financiers et régies publicitaires se verraient interdits de fournir des services ou de contracter avec les sites visés, sans décision judiciaire. Pour une analyse de ces dispositions dans les projets de loi américains, voir : http://benkler.org/WikiLeaks_PROTECT-IP_Benkler.pdf (en anglais).
";s:7:"dateiso";s:15:"20120206_114956";}s:15:"20120202_114536";a:7:{s:5:"title";s:58:"ACTA : Le Commissaire De Gucht ment au Parlement européen";s:4:"link";s:86:"http://www.laquadrature.net/fr/acta-le-commissaire-de-gucht-ment-au-parlement-europeen";s:4:"guid";s:35:"5185 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 02 Feb 2012 10:45:36 +0000";s:11:"description";s:11661:"
Paris, le 2 février 2012 – La Direction Générale « commerce » de la Commission européenne est actuellement en plein lobbying au Parlement européen, présentant une vision biaisée et fausse de l'Accord Commercial Anti-Contrefaçon (ACTA) dans le but de juguler l'opposition croissante des citoyens. L'exécutif européen, qui a négocié l'ACTA dans le dos des citoyens, relaie maintenant de façon éhontée le discours des lobbies des industries du divertissement, fournissant un nouvel exemple de collusion coupable avec les intérêts des industriels.
Le Commissaire européen pour le commerce international, Karel De Gucht, a envoyé une lettre aux eurodéputés1, dans laquelle il minimise à nouveau les inquiétudes légitimes exprimées contre ACTA. Un document « Questions-Réponses » y est joint, destiné à aider les députés européens à « rassurer » leurs électeurs.2.
En réponse, La Quadrature du Net a créé un document participatif sur son wiki3 afin d'aider les citoyens à démonter l'un après l'autre les mensonges de la Commission européenne, qui continue de nier les preuves qu'ACTA est un accord dangereux et illégitime.
L'opposition à ACTA n'est pas une simple bulle médiatique, comme semble le croire le commissaire De Gucht. Depuis des mois, ses dangers sont dénoncés par des juristes européens reconnus4, une étude commanditée par le Parlement européen lui-même5, des lauréats du prix Sakharov6, le Sénat méxicain7, des associations professionnelles des télécoms et des médias8, des ONG mondiales comme OXFAM9, Médecins Sans Frontières10 ou Article 1911, mais également par les principaux partenaires commerciaux de l'UE et d'autres encore (voir notre page wiki recensant les critiques contre ACTA12).
« En prétendant qu'ACTA est inoffensif, le Commissaire De Gucht tente de cacher l'immense responsabilité de la Commission européenne dans la mise en place d'un processus de négociation contournant les enceintes démocratiques. Le document de travail joint à la consultation inter-services de la Commission européenne en date du 18 juillet 2007 et relatif à son mandat de négociation13 mentionne la criminalisation du partage sans but de profit entre individus. Voici la vérité derrière ACTA et les citoyens européens descendent dans la rue car ils l'ont comprise. », déclare Philippe Aigrain, co-fondateur de l'initiative citoyenne La Quadrature du Net.
« Le Commissaire européen Karel De Gucht est si proche des lobbies des industries du copyright qu'il reste sourd aux inquiétudes légitimes qui ont été exprimées contre ACTA depuis des années. Afin d'obtenir la ratification d'ACTA, il est prêt à mentir au Parlement européen, en balayant toute preuve qu'ACTA est véritablement une menace à la liberté d'expression en ligne, l'accès aux médicaments, mais également à l'innovation et la libre concurrence. Un tel obscurantisme remet clairement en question sa capacité à œuvrer pour l'intérêt général de l'UE et résonne comme un appel au Parlement à rejeter ACTA. », conclut Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
13. Qui inclue la répression d' « infractions volontaires significatives, sans motivation de gain financier et de portée telle qu'elles affectent de façon préjudiciable le détenteur du copyright (ie : piratage sur Internet » (traduction par nos soins, original : « significant willful infringements without motivation for financial gain to such an extent as to prejudicially affect the copyright owner (e.g., internet piracy) »). Voir : https://www.laquadrature.net/files/ACTA%20Discussion%20Paper%20July%2018%202007.pdf.
";s:7:"content";s:11679:"
Paris, le 2 février 2012 – La Direction Générale « commerce » de la Commission européenne est actuellement en plein lobbying au Parlement européen, présentant une vision biaisée et fausse de l'Accord Commercial Anti-Contrefaçon (ACTA) dans le but de juguler l'opposition croissante des citoyens. L'exécutif européen, qui a négocié l'ACTA dans le dos des citoyens, relaie maintenant de façon éhontée le discours des lobbies des industries du divertissement, fournissant un nouvel exemple de collusion coupable avec les intérêts des industriels.
Le Commissaire européen pour le commerce international, Karel De Gucht, a envoyé une lettre aux eurodéputés1, dans laquelle il minimise à nouveau les inquiétudes légitimes exprimées contre ACTA. Un document « Questions-Réponses » y est joint, destiné à aider les députés européens à « rassurer » leurs électeurs.2.
En réponse, La Quadrature du Net a créé un document participatif sur son wiki3 afin d'aider les citoyens à démonter l'un après l'autre les mensonges de la Commission européenne, qui continue de nier les preuves qu'ACTA est un accord dangereux et illégitime.
L'opposition à ACTA n'est pas une simple bulle médiatique, comme semble le croire le commissaire De Gucht. Depuis des mois, ses dangers sont dénoncés par des juristes européens reconnus4, une étude commanditée par le Parlement européen lui-même5, des lauréats du prix Sakharov6, le Sénat méxicain7, des associations professionnelles des télécoms et des médias8, des ONG mondiales comme OXFAM9, Médecins Sans Frontières10 ou Article 1911, mais également par les principaux partenaires commerciaux de l'UE et d'autres encore (voir notre page wiki recensant les critiques contre ACTA12).
« En prétendant qu'ACTA est inoffensif, le Commissaire De Gucht tente de cacher l'immense responsabilité de la Commission européenne dans la mise en place d'un processus de négociation contournant les enceintes démocratiques. Le document de travail joint à la consultation inter-services de la Commission européenne en date du 18 juillet 2007 et relatif à son mandat de négociation13 mentionne la criminalisation du partage sans but de profit entre individus. Voici la vérité derrière ACTA et les citoyens européens descendent dans la rue car ils l'ont comprise. », déclare Philippe Aigrain, co-fondateur de l'initiative citoyenne La Quadrature du Net.
« Le Commissaire européen Karel De Gucht est si proche des lobbies des industries du copyright qu'il reste sourd aux inquiétudes légitimes qui ont été exprimées contre ACTA depuis des années. Afin d'obtenir la ratification d'ACTA, il est prêt à mentir au Parlement européen, en balayant toute preuve qu'ACTA est véritablement une menace à la liberté d'expression en ligne, l'accès aux médicaments, mais également à l'innovation et la libre concurrence. Un tel obscurantisme remet clairement en question sa capacité à œuvrer pour l'intérêt général de l'UE et résonne comme un appel au Parlement à rejeter ACTA. », conclut Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
13. Qui inclue la répression d' « infractions volontaires significatives, sans motivation de gain financier et de portée telle qu'elles affectent de façon préjudiciable le détenteur du copyright (ie : piratage sur Internet » (traduction par nos soins, original : « significant willful infringements without motivation for financial gain to such an extent as to prejudicially affect the copyright owner (e.g., internet piracy) »). Voir : https://www.laquadrature.net/files/ACTA%20Discussion%20Paper%20July%2018%202007.pdf.
";s:7:"dateiso";s:15:"20120202_114536";}s:15:"20120130_152923";a:7:{s:5:"title";s:62:"Démontage des mensonges de la Commission européenne sur ACTA";s:4:"link";s:91:"http://www.laquadrature.net/fr/d-montage-des-mensonges-de-la-commission-europ-enne-sur-acta";s:4:"guid";s:35:"5157 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 30 Jan 2012 14:29:23 +0000";s:11:"description";s:18443:"
Paris, 30 janvier 2012 – La Commission européenne a lancé une offensive tous azimuts pour présenter ACTA comme un banal accord commercial, inoffensif pour les droits fondamentaux et l'accès aux savoirs. Dans plusieurs documents, la Commission tente d'imposer l'ACTA au Parlement européen en balayant les critiques légitimes qui s'expriment à son encontre. Mais ces tromperies ne résistent pas à l'analyse.
Alors que la branche exécutive de l'UE (Commission européenne et les gouvernements de 22 États Membres) a officiellement signé ACTA1, la voie est ouverte à son examen par le Parlement européen. Ses 754 membres ont au cours d'un processus qui durera plusieurs mois, l'occasion d'accepter ou de rejeter ACTA.
Les membres du Parlement européen sont déjà soumis à de fortes pressions, non seulement des lobbyistes des industries du copyright mais aussi de la direction « commerce international » de la Commission européenne2 qui a négocié l'ACTA en toute opacité durant plus de trois ans. Les citoyens doivent contacter les membres du Parlement européen et dénoncer les mensonges révoltants de la Commission, afin de s'assurer que les valeurs démocratiques de l'UE soient respectées. Les eurodéputés doivent s'engager à travailler en commission parlementaire afin d'obtenir le rejet de l'ACTA.
« La Commission européenne ment éhontément aux eurodéputés en présentant ACTA comme un accord acceptable. En signant ACTA avec les États Membres de l'UE, la Commission européenne a fait fi des critiques légitimes de milliers de citoyens européens qui ont manifesté ces derniers jours contre ACTA. Les citoyens doivent contacter leurs élus pour rétablir la vérité : ACTA est un contournement de la démocratie et attaque les libertés pour tenter de protéger les modèles économiques dépassés d'industries de rentes. » déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Téléchargez notre analyse exposant les mensonges de la Commission européenne sur ACTA.
Sur son site, la Commission européenne prétend qu'ACTA « n'est pas SOPA ». C'est exact. Pour plusieurs raisons importantes, ACTA est pire que SOPA. ACTA est un cadre général pour de futures lois répressives comme SOPA :
ACTA a inspiré SOPA/PIPA aux États-Unis. Alors que SOPA a été écartée pour le moment, ACTA est un accord global négocié en dehors des processus démocratiques et est destiné à être appliqué au niveau global. De plus, si SOPA avait été adoptée, le Congrès des États-Unis aurait pu l'amender ou l'abroger plus tard . ACTA empêchera l'Union européenne et ses États membres, ainsi que les autres signataires, de changer leurs lois sur le droit d'auteur et les brevets. L'accord les empêchera aussi de modifier leurs politiques d'application brutales et inadaptées, lorsqu'ils souhaiteront s'adapter à la nouvelle économie du partage.
Si ACTA est adopté, il sera possible pour les industries du divertissement d'exercer des pressions sur chaque acteur de l'Internet sous la menace de sanctions pénales (art.23). Les intermédiaires seront donc obligés de déployer (art.27) une censure automatique, de filtrer des communications et de supprimer des contenus en ligne. De telles mesures vont inévitablement restreindre les libertés en ligne des usagers.
L'appel d'ACTA à une « coopération » entre ayants-droit et fournisseurs de services Internet est aussi défendu par la Commission européenne comme des « mesures extra-judiciaires » et une « alternative aux tribunaux ». Cela signifie que les missions de police (surveillance et collecte de preuves) et de justice (sanctions) pourront être gérées par des acteurs privés, outrepassant l'autorité judiciaire et le droit à un procès équitable. En défendant dans l'ACTA cette politique similaire à celle de SOPA, la Commission ouvre la voie à la mise en œuvre du programme en matière d'exécution du copyright poussé par les industries du divertissement, empêchant un vrai débat sur une alternative à la répression. Ceci coïncide avec l'annonce de la révision des directives IPRED et eCommerce.
Voir aussi l'analyse par La Quadrature du Net du texte final du chapitre numérique d'ACTA.
Dans un document publié sur son site et distribué aux parlementaires européens, la Commission propage de nouveaux mensonges sur ACTA.
Vous pouvez télécharger l'analyse suivante en PDF (en anglais)3.
1. « ACTA est important pour la compétitivité extérieure de l'UE, la croissance et l'emploi, ainsi que pour la sécurité des citoyens »
ACTA est un sous-produit direct de l'offensive lobbyiste lancée en 2004 par la Chambre de Commerce Internationale, présidée par Jean-René Fourtou alors PD-G de Vivendi-Universal, initiateur de l'Action contre la contrefaçon et le piratage (Business Action to Stop Counterfeiting and Piracy, BASCAP), et dont la femme était la rapporteure au Parlement européen pour la directive Intellectual Property Rights Enforcement (directive IPRED) adoptée la même année. C'est un des pires exemples de récupération par des intérêts privés du processus d'élaboration des lois et politiques.
ACTA a peut-être été négocié comme les autres accords commerciaux, mais il ne s'agit pas d'un simple accord commercial sur les tarifs douaniers. ACTA généralise les sanctions civiles disproportionnées et élargit le champ des sanctions pénales.
Lier l'UE à ces modèles dépassés, et déployer des mécanismes pouvant être utilisés comme des armes anti-concurrence, ne fera qu'entraver l'innovation, la compétitivité et la croissance. Non seulement dans le cadre de l'économie numérique, mais également dans d'autres domaines dépendant du libre partage de la connaissance, comme l'agriculture ou la santé.
Il n'y a jamais eu aucune évaluation d'impact sur le besoin d'un tel accord plurilatéral. La Commission n'a jamais prouvé que des standards d'application plus sévères au niveau mondial iraient dans le sens de l'intérêt public européen, et encore moins dans celui du reste du monde.
Plutôt que d'imposer ACTA aux pays en développement, l'Union européenne devrait urgemment examiner les conséquences à long terme de ses politiques actuelles (EUCD, IPRED) concernant l'innovation, l'accès à la culture et aux droits fondamentaux, et les réformer afin de mettre en place les bases d'une véritable économie basée sur la connaissance.
Contrairement aux affirmations de la Commission, la transparence sur ACTA a seulement été rendue possible suite à la divulgation de documents de négociation par des sources internes, inquiètes des conséquences d'ACTA. Ces fuites ont forcé les négociateurs à publier les textes au printemps 2010, plus de trois ans après le début des négociations.
La négociation et l'application d'ACTA contournent les institutions internationales légitimes (OMC, OMPI) où les politiques sur le droit d'auteur, les brevets et les licences sont débattues. Ceci est d'autant plus inacceptable qu'un nombre croissant de pays comprennent l'importance de réformer ces politiques en s'éloignant de la répression aveugle.
2. « ACTA est un accord équilibré, fournissant une protection adéquate aux secteurs qui en ont besoin, tout en sauvegardant les droits des citoyens et consommateurs. »
Les garanties dans le texte sont purement génériques et déclaratives, situées principalement dans les parties générales de l'accord, alors que les dispositions d'application, la plupart du temps formulées vaguement, sont légalement contraignantes pour les signataires. Par exemple, une étude des experts juridiques Kroff and Brown souligne qu'ACTA « durcit globalement de façon significative les mesures d'application (et particulièrement les mesures pénales), sans aucune des sauvegardes et exceptions nécessaires pour garantir un équilibre entre les intérêts des ayants droit et ceux du public. »
La Commission déclare qu'ACTA ne va pas au-delà pas de l'acquis européen4, mais d'éminents spécialistes européens du droit ont mis en évidence que c'est le cas sur certains points : en particulier sur les mesures pénales, pour lesquelles il n'y a pas d'acquis européen, et sur les mesures et dommages frontaliers.
La formulation d'ACTA n'est peut-être pas contraire à la directive eCommerce, l'EUCD ou l'IPRED, mais elle les renforce et empêche les législateurs européens de les amender sur des points cruciaux.
La logique générale du chapitre numérique d'ACTA ouvre la voie à des mesures extra-judiciaires, semblables à celles de SOPA et PIPA, par lesquelles les ayants droit et les FAI ou prestataires de paiement « coopéreraient » pour prendre des « mesures » contre des infractions présumées, mesures qui ne pourraient qu'invariablement aboutir à des mécanismes de censure, contournant les procédures réglementaires et le droit à un procès équitable.
Cette lecture est renforcée par les sanctions pénales prévues pour « complicité » d'infractions (art. 23.4). Ces inquiétudes sont également accentuées par la stratégie IPR (« Droits de Propriété Intellectuelle ») et le remodelage actuel de l'IPRED et de la directive eCommerce.
3. « ACTA permet d'appliquer de façon adéquate les droits de propriété intellectuelle existants, mais ne crée pas de nouveaux droits »
ACTA modifie l'étendue des sanctions pénales dans les pays membres de l'EU, faisant en sorte qu'elles soient appliquées dans les cas d'infractions « à échelle commerciale », définie comme « un avantage économique ou commercial direct ou indirect » (art 23.1). Ce terme est vague, sujet à interprétation, et tout simplement injustifiable lorsqu'il s'agit de déterminer l'étendue d'une application proportionnelle, puisqu'il ne fait pas de distinction entre les infractions commerciales et celles sans but lucratif. Des pratiques sociales répandues, telles que le partage de fichier non-marchand entre individus, de même que l'édition de contenus sur un site d'information populaire ou la distribution d'outils technologiques innovants, pourraient être interprétés comme « à échelle commerciale ».
En étendant la portée des sanctions pénales pour « complicité » à de telles « infractions à échelle commerciale », ACTA créera des outils juridiques menaçant tout acteur d'internet. Les fournisseurs d'accès, de service ou d'hébergement seront donc victimes d'une insécurité juridique majeur, les rendant vulnérables aux contentieux des industries du divertissement.
La Présidence du Conseil de l'Europe (représentant les 27 gouvernements des Etats Membres) a dû négocier ACTA conjointement avec la Commission. La Présidence a négocié le chapitre « sanctions pénales » d'ACTA, qui n'a pu être négociée par la Commission, le droit pénal faisant partie des attributions des États Membres. Ceci illustre le fait qu'il n'y a pas d'acquis européen sur les sanctions pénales et prouve qu'ACTA change effectivement le droit européen.
Outre l'élargissement de l'étendue d'application des droits d'auteur, brevets et licences, ACTA établit de nouvelles règles de procédure favorables aux industries du divertissement. Ces procédures auront un effet paralysant dramatique sur les innovateurs et créateurs potentiels, particulièrement si l'on considère les clauses de dommages et intérêts insensées de l'ACTA (lors d'un procès, les ayants droit pourront choisir et soumettre leurs propres méthodes d'estimation des dommages causés, voir art. 9.1).
À l'avenir, la portée d'ACTA pourrait également être aisément étendue à travers le « comité ACTA ». Celui-ci aura toute autorité pour interpréter et modifier l'accord après sa ratification, et proposer des amendements. Un tel procédé législatif parallèle, qui revient à donner carte blanche aux négociateurs d'ACTA, créerait un précédent au contournement durable des parlements dans l'élaboration de politiques cruciales, et est inacceptable en démocratie. Ce seul fait justifie le rejet d'ACTA.
4. « ACTA a une portée étendue, pour protéger tous les créateurs et innovateurs européens, à travers une large gamme de moyens. »
La Chine, la Russie, l'Inde et le Brésil, pays où l'essentiel de la contrefaçon se produit, ne font pas partie d'ACTA, et ont déclaré publiquement qu'ils ne le seront jamais. Compte-tenu de l'opposition généralisée à ACTA, l'accord a perdu toute légitimité sur la scène internationale.
Encore une fois, la Commission n'a même pas été capable de prouver le besoin de nouvelles mesures d'application, ni que les mesures prévues par les accords TRIPS ne sont pas suffisantes.
La Commission continue d'intensifier la répression, alors que dans de nombreux cas l'origine de la contrefaçon est fondamentalement une carence du marché, dû à l'inadéquation des modèles et contrats commerciaux des ayants droits. Parallèlement, il n'existe aucune initiative de la Commission européenne développant une approche positive, afin d'envisager de nouveaux modèles finançant la culture dans l'environnement numérique.
Les indications géographiques, qui sont au cœur des petites entreprises européennes et de l'héritage culturel, sont quasiment inexistantes dans ACTA. Les rares références géographiques présentes n'auront que peu ou aucun impact dans les lois nationales des pays non européens.
Contactez les parlementaires européens, et assurez-vous qu'ils sachent vraiment ce qu'est ACTA. Visitez notre page de campagne dédiée.
La FFII a également initié une réponse détaillée à un autre document de la commission européenne sur ACTA, appelée « 10 mythes à propos d'ACTA ».
Paris, 30 janvier 2012 – La Commission européenne a lancé une offensive tous azimuts pour présenter ACTA comme un banal accord commercial, inoffensif pour les droits fondamentaux et l'accès aux savoirs. Dans plusieurs documents, la Commission tente d'imposer l'ACTA au Parlement européen en balayant les critiques légitimes qui s'expriment à son encontre. Mais ces tromperies ne résistent pas à l'analyse.
Alors que la branche exécutive de l'UE (Commission européenne et les gouvernements de 22 États Membres) a officiellement signé ACTA1, la voie est ouverte à son examen par le Parlement européen. Ses 754 membres ont au cours d'un processus qui durera plusieurs mois, l'occasion d'accepter ou de rejeter ACTA.
Les membres du Parlement européen sont déjà soumis à de fortes pressions, non seulement des lobbyistes des industries du copyright mais aussi de la direction « commerce international » de la Commission européenne2 qui a négocié l'ACTA en toute opacité durant plus de trois ans. Les citoyens doivent contacter les membres du Parlement européen et dénoncer les mensonges révoltants de la Commission, afin de s'assurer que les valeurs démocratiques de l'UE soient respectées. Les eurodéputés doivent s'engager à travailler en commission parlementaire afin d'obtenir le rejet de l'ACTA.
« La Commission européenne ment éhontément aux eurodéputés en présentant ACTA comme un accord acceptable. En signant ACTA avec les États Membres de l'UE, la Commission européenne a fait fi des critiques légitimes de milliers de citoyens européens qui ont manifesté ces derniers jours contre ACTA. Les citoyens doivent contacter leurs élus pour rétablir la vérité : ACTA est un contournement de la démocratie et attaque les libertés pour tenter de protéger les modèles économiques dépassés d'industries de rentes. » déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Téléchargez notre analyse exposant les mensonges de la Commission européenne sur ACTA.
Sur son site, la Commission européenne prétend qu'ACTA « n'est pas SOPA ». C'est exact. Pour plusieurs raisons importantes, ACTA est pire que SOPA. ACTA est un cadre général pour de futures lois répressives comme SOPA :
ACTA a inspiré SOPA/PIPA aux États-Unis. Alors que SOPA a été écartée pour le moment, ACTA est un accord global négocié en dehors des processus démocratiques et est destiné à être appliqué au niveau global. De plus, si SOPA avait été adoptée, le Congrès des États-Unis aurait pu l'amender ou l'abroger plus tard . ACTA empêchera l'Union européenne et ses États membres, ainsi que les autres signataires, de changer leurs lois sur le droit d'auteur et les brevets. L'accord les empêchera aussi de modifier leurs politiques d'application brutales et inadaptées, lorsqu'ils souhaiteront s'adapter à la nouvelle économie du partage.
Si ACTA est adopté, il sera possible pour les industries du divertissement d'exercer des pressions sur chaque acteur de l'Internet sous la menace de sanctions pénales (art.23). Les intermédiaires seront donc obligés de déployer (art.27) une censure automatique, de filtrer des communications et de supprimer des contenus en ligne. De telles mesures vont inévitablement restreindre les libertés en ligne des usagers.
L'appel d'ACTA à une « coopération » entre ayants-droit et fournisseurs de services Internet est aussi défendu par la Commission européenne comme des « mesures extra-judiciaires » et une « alternative aux tribunaux ». Cela signifie que les missions de police (surveillance et collecte de preuves) et de justice (sanctions) pourront être gérées par des acteurs privés, outrepassant l'autorité judiciaire et le droit à un procès équitable. En défendant dans l'ACTA cette politique similaire à celle de SOPA, la Commission ouvre la voie à la mise en œuvre du programme en matière d'exécution du copyright poussé par les industries du divertissement, empêchant un vrai débat sur une alternative à la répression. Ceci coïncide avec l'annonce de la révision des directives IPRED et eCommerce.
Voir aussi l'analyse par La Quadrature du Net du texte final du chapitre numérique d'ACTA.
Dans un document publié sur son site et distribué aux parlementaires européens, la Commission propage de nouveaux mensonges sur ACTA.
Vous pouvez télécharger l'analyse suivante en PDF (en anglais)3.
1. « ACTA est important pour la compétitivité extérieure de l'UE, la croissance et l'emploi, ainsi que pour la sécurité des citoyens »
ACTA est un sous-produit direct de l'offensive lobbyiste lancée en 2004 par la Chambre de Commerce Internationale, présidée par Jean-René Fourtou alors PD-G de Vivendi-Universal, initiateur de l'Action contre la contrefaçon et le piratage (Business Action to Stop Counterfeiting and Piracy, BASCAP), et dont la femme était la rapporteure au Parlement européen pour la directive Intellectual Property Rights Enforcement (directive IPRED) adoptée la même année. C'est un des pires exemples de récupération par des intérêts privés du processus d'élaboration des lois et politiques.
ACTA a peut-être été négocié comme les autres accords commerciaux, mais il ne s'agit pas d'un simple accord commercial sur les tarifs douaniers. ACTA généralise les sanctions civiles disproportionnées et élargit le champ des sanctions pénales.
Lier l'UE à ces modèles dépassés, et déployer des mécanismes pouvant être utilisés comme des armes anti-concurrence, ne fera qu'entraver l'innovation, la compétitivité et la croissance. Non seulement dans le cadre de l'économie numérique, mais également dans d'autres domaines dépendant du libre partage de la connaissance, comme l'agriculture ou la santé.
Il n'y a jamais eu aucune évaluation d'impact sur le besoin d'un tel accord plurilatéral. La Commission n'a jamais prouvé que des standards d'application plus sévères au niveau mondial iraient dans le sens de l'intérêt public européen, et encore moins dans celui du reste du monde.
Plutôt que d'imposer ACTA aux pays en développement, l'Union européenne devrait urgemment examiner les conséquences à long terme de ses politiques actuelles (EUCD, IPRED) concernant l'innovation, l'accès à la culture et aux droits fondamentaux, et les réformer afin de mettre en place les bases d'une véritable économie basée sur la connaissance.
Contrairement aux affirmations de la Commission, la transparence sur ACTA a seulement été rendue possible suite à la divulgation de documents de négociation par des sources internes, inquiètes des conséquences d'ACTA. Ces fuites ont forcé les négociateurs à publier les textes au printemps 2010, plus de trois ans après le début des négociations.
La négociation et l'application d'ACTA contournent les institutions internationales légitimes (OMC, OMPI) où les politiques sur le droit d'auteur, les brevets et les licences sont débattues. Ceci est d'autant plus inacceptable qu'un nombre croissant de pays comprennent l'importance de réformer ces politiques en s'éloignant de la répression aveugle.
2. « ACTA est un accord équilibré, fournissant une protection adéquate aux secteurs qui en ont besoin, tout en sauvegardant les droits des citoyens et consommateurs. »
Les garanties dans le texte sont purement génériques et déclaratives, situées principalement dans les parties générales de l'accord, alors que les dispositions d'application, la plupart du temps formulées vaguement, sont légalement contraignantes pour les signataires. Par exemple, une étude des experts juridiques Kroff and Brown souligne qu'ACTA « durcit globalement de façon significative les mesures d'application (et particulièrement les mesures pénales), sans aucune des sauvegardes et exceptions nécessaires pour garantir un équilibre entre les intérêts des ayants droit et ceux du public. »
La Commission déclare qu'ACTA ne va pas au-delà pas de l'acquis européen4, mais d'éminents spécialistes européens du droit ont mis en évidence que c'est le cas sur certains points : en particulier sur les mesures pénales, pour lesquelles il n'y a pas d'acquis européen, et sur les mesures et dommages frontaliers.
La formulation d'ACTA n'est peut-être pas contraire à la directive eCommerce, l'EUCD ou l'IPRED, mais elle les renforce et empêche les législateurs européens de les amender sur des points cruciaux.
La logique générale du chapitre numérique d'ACTA ouvre la voie à des mesures extra-judiciaires, semblables à celles de SOPA et PIPA, par lesquelles les ayants droit et les FAI ou prestataires de paiement « coopéreraient » pour prendre des « mesures » contre des infractions présumées, mesures qui ne pourraient qu'invariablement aboutir à des mécanismes de censure, contournant les procédures réglementaires et le droit à un procès équitable.
Cette lecture est renforcée par les sanctions pénales prévues pour « complicité » d'infractions (art. 23.4). Ces inquiétudes sont également accentuées par la stratégie IPR (« Droits de Propriété Intellectuelle ») et le remodelage actuel de l'IPRED et de la directive eCommerce.
3. « ACTA permet d'appliquer de façon adéquate les droits de propriété intellectuelle existants, mais ne crée pas de nouveaux droits »
ACTA modifie l'étendue des sanctions pénales dans les pays membres de l'EU, faisant en sorte qu'elles soient appliquées dans les cas d'infractions « à échelle commerciale », définie comme « un avantage économique ou commercial direct ou indirect » (art 23.1). Ce terme est vague, sujet à interprétation, et tout simplement injustifiable lorsqu'il s'agit de déterminer l'étendue d'une application proportionnelle, puisqu'il ne fait pas de distinction entre les infractions commerciales et celles sans but lucratif. Des pratiques sociales répandues, telles que le partage de fichier non-marchand entre individus, de même que l'édition de contenus sur un site d'information populaire ou la distribution d'outils technologiques innovants, pourraient être interprétés comme « à échelle commerciale ».
En étendant la portée des sanctions pénales pour « complicité » à de telles « infractions à échelle commerciale », ACTA créera des outils juridiques menaçant tout acteur d'internet. Les fournisseurs d'accès, de service ou d'hébergement seront donc victimes d'une insécurité juridique majeur, les rendant vulnérables aux contentieux des industries du divertissement.
La Présidence du Conseil de l'Europe (représentant les 27 gouvernements des Etats Membres) a dû négocier ACTA conjointement avec la Commission. La Présidence a négocié le chapitre « sanctions pénales » d'ACTA, qui n'a pu être négociée par la Commission, le droit pénal faisant partie des attributions des États Membres. Ceci illustre le fait qu'il n'y a pas d'acquis européen sur les sanctions pénales et prouve qu'ACTA change effectivement le droit européen.
Outre l'élargissement de l'étendue d'application des droits d'auteur, brevets et licences, ACTA établit de nouvelles règles de procédure favorables aux industries du divertissement. Ces procédures auront un effet paralysant dramatique sur les innovateurs et créateurs potentiels, particulièrement si l'on considère les clauses de dommages et intérêts insensées de l'ACTA (lors d'un procès, les ayants droit pourront choisir et soumettre leurs propres méthodes d'estimation des dommages causés, voir art. 9.1).
À l'avenir, la portée d'ACTA pourrait également être aisément étendue à travers le « comité ACTA ». Celui-ci aura toute autorité pour interpréter et modifier l'accord après sa ratification, et proposer des amendements. Un tel procédé législatif parallèle, qui revient à donner carte blanche aux négociateurs d'ACTA, créerait un précédent au contournement durable des parlements dans l'élaboration de politiques cruciales, et est inacceptable en démocratie. Ce seul fait justifie le rejet d'ACTA.
4. « ACTA a une portée étendue, pour protéger tous les créateurs et innovateurs européens, à travers une large gamme de moyens. »
La Chine, la Russie, l'Inde et le Brésil, pays où l'essentiel de la contrefaçon se produit, ne font pas partie d'ACTA, et ont déclaré publiquement qu'ils ne le seront jamais. Compte-tenu de l'opposition généralisée à ACTA, l'accord a perdu toute légitimité sur la scène internationale.
Encore une fois, la Commission n'a même pas été capable de prouver le besoin de nouvelles mesures d'application, ni que les mesures prévues par les accords TRIPS ne sont pas suffisantes.
La Commission continue d'intensifier la répression, alors que dans de nombreux cas l'origine de la contrefaçon est fondamentalement une carence du marché, dû à l'inadéquation des modèles et contrats commerciaux des ayants droits. Parallèlement, il n'existe aucune initiative de la Commission européenne développant une approche positive, afin d'envisager de nouveaux modèles finançant la culture dans l'environnement numérique.
Les indications géographiques, qui sont au cœur des petites entreprises européennes et de l'héritage culturel, sont quasiment inexistantes dans ACTA. Les rares références géographiques présentes n'auront que peu ou aucun impact dans les lois nationales des pays non européens.
Contactez les parlementaires européens, et assurez-vous qu'ils sachent vraiment ce qu'est ACTA. Visitez notre page de campagne dédiée.
La FFII a également initié une réponse détaillée à un autre document de la commission européenne sur ACTA, appelée « 10 mythes à propos d'ACTA ».
";s:7:"dateiso";s:15:"20120130_152923";}s:15:"20120126_113753";a:7:{s:5:"title";s:57:"ACTA signé par l'UE. Ensemble, nous devons le vaincre !";s:4:"link";s:80:"http://www.laquadrature.net/fr/acta-sign-par-lue-ensemble-nous-devons-le-vaincre";s:4:"guid";s:35:"5100 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 26 Jan 2012 10:37:53 +0000";s:11:"description";s:5666:"
Paris, 26 janvier 2012 – Aujourd'hui à Tokyo, l'Union européenne et 22 de ses États Membres, dont la France, ont officiellement signé ACTA1, l'accord commercial anti-contrefaçon. Le mouvement citoyen mondial contre les lois américaines anti-partage SOPA et PIPA doit désormais vaincre leur équivalent global ACTA au Parlement européen.
Quelques jours après les manifestations en ligne contre les projets de loi anti-partage SOPA et PIPA aux États-Unis, la cérémonie de signature de l'ACTA est le symbole du contournement de la démocratie visant à imposer des politiques qui nuiront à la liberté de communication et à l'innovation de par le monde. Cette signature hautement symbolique n'est toutefois pas la fin du combat.
Chaque citoyen souhaitant agir pour vaincre ACTA a maintenant l'occasion de participer en vue de le faire rejeter. Chaque étape de la procédure de ratification qui conduira au vote final au Parlement européen (au plus tôt en juin) sera l'occasion de se faire entendre. (Voir ci-dessous).
« Ces derniers jours, on assiste à des manifestations2 très encourageantes de la part de citoyens polonais ou du reste de l'Europe, qui s'inquiètent des conséquences d'ACTA sur la liberté d'expression, l'accès aux médicaments, ainsi que le partage de la culture et de la connaissance. Cet important mouvement va prendre de l'ampleur. Les citoyens européens doivent reconquérir la démocratie face à l'influence néfaste d'intérêts industriels sur la politique globale3. Lors de chacun des débats et des votes sur ACTA au sein des commissions du Parlement européen, les citoyens doivent alerter leur élus. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La procédure ACTA au Parlement européen
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
The vote final du Parlement européen en session plénière aura lieu au plus tôt en juin.
Paris, 26 janvier 2012 – Aujourd'hui à Tokyo, l'Union européenne et 22 de ses États Membres, dont la France, ont officiellement signé ACTA1, l'accord commercial anti-contrefaçon. Le mouvement citoyen mondial contre les lois américaines anti-partage SOPA et PIPA doit désormais vaincre leur équivalent global ACTA au Parlement européen.
Quelques jours après les manifestations en ligne contre les projets de loi anti-partage SOPA et PIPA aux États-Unis, la cérémonie de signature de l'ACTA est le symbole du contournement de la démocratie visant à imposer des politiques qui nuiront à la liberté de communication et à l'innovation de par le monde. Cette signature hautement symbolique n'est toutefois pas la fin du combat.
Chaque citoyen souhaitant agir pour vaincre ACTA a maintenant l'occasion de participer en vue de le faire rejeter. Chaque étape de la procédure de ratification qui conduira au vote final au Parlement européen (au plus tôt en juin) sera l'occasion de se faire entendre. (Voir ci-dessous).
« Ces derniers jours, on assiste à des manifestations2 très encourageantes de la part de citoyens polonais ou du reste de l'Europe, qui s'inquiètent des conséquences d'ACTA sur la liberté d'expression, l'accès aux médicaments, ainsi que le partage de la culture et de la connaissance. Cet important mouvement va prendre de l'ampleur. Les citoyens européens doivent reconquérir la démocratie face à l'influence néfaste d'intérêts industriels sur la politique globale3. Lors de chacun des débats et des votes sur ACTA au sein des commissions du Parlement européen, les citoyens doivent alerter leur élus. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La procédure ACTA au Parlement européen
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
The vote final du Parlement européen en session plénière aura lieu au plus tôt en juin.
";s:7:"dateiso";s:15:"20120126_113753";}s:15:"20120123_103924";a:7:{s:5:"title";s:71:"Après SOPA et PIPA aux États-Unis, ACTA arrive au Parlement européen";s:4:"link";s:97:"http://www.laquadrature.net/fr/apr-s-sopa-et-pipa-aux-tats-unis-acta-arrive-au-parlement-europ-en";s:4:"guid";s:35:"5053 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 23 Jan 2012 09:39:24 +0000";s:11:"description";s:10814:"
Paris, 23 janvier 2012 – Après l'impressionnant mouvement d'opposition aux draconiens projets de loi anti-partage SOPA et PIPA, en discussion aux États-Unis, le Parlement européen entame ses travaux sur leur équivalent international : ACTA, l'accord commercial anti-contrefaçon. Les citoyens de toute l'Europe doivent lutter contre cet accord illégitime, voué à remettre en cause la liberté d'expression en ligne, ainsi que l'accès à la connaissance et l'innovation au niveau mondial.
Ce désastreux projet de rapport pour avis est trompeur en ce qu'il tente de justifier des mesures répressives extrémistes pour protéger un régime dépassé du droit d'auteur, des brevets et du droit des marques3.
Plus inquiétant encore, la version de travail du rapport fait complètement l'impasse sur les très nombreuses critiques émises contre ACTA4, venant non seulement d'ONG défendant l'accès aux médicaments, comme OXFAM ou Health Action International, mais également des principaux partenaires commerciaux de l'UE.
Étrangement, le projet de rapport pour avis ne remet pas en question le bien-fondé d'ACTA, et n'émet aucune critique sur la manière dont il a été négocié. La commission DEVE trouve-t-elle normal que des fonctionnaires non-élus proches des lobbyistes de l'industrie négocient de mesures pénales sans véritable contrôle démocratique ? Ou que les pays émergents et en développement aient été totalement exclus du processus ?
Le projet de rapport pour avis DEVE doit être amendé pour refléter les problèmes majeurs soulevés par l'ACTA. Même l'étude commanditée par le Parlement européen lui-même reconnaît qu'ACTA ne peut être accepté en l'état5.
« Encouragé par les même lobbies extrémistes que PIPA et SOPA aux États-Unis, ACTA est une initiative globale visant à protéger des industries rentières qui dominent l'économie mondiale. Le projet de rapport pour avis présenté par M. Zahradil en commission DEVE néglige tous les problèmes cruciaux posés par ACTA : son absence de légitimité démocratique, la vision dépassée du commerce international qu'il promeut, son impact sur l'accès aux médicaments dans les pays en développement, mais aussi sur la liberté d'expression et l'innovation de par le monde. Les membres du Parlement européen, à commencer par la commission en charge du développement, doivent prendre pleinement en compte ces différents problèmes et rejeter ACTA une fois pour toutes. Les citoyens doivent agir pour s'assurer que le Parlement européen reçoit le message. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Pour être informé de la campagne contre ACTA au Parlement européen, envoyez un email vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste.
Pour savoir comment agir contre ACTA maintenant, rendez vous sur notre page de campagne dédiée.
Vous pouvez ajouter cette vidéo à votre site, faites un simple copier/coller du code HTML suivant :
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
Paris, 23 janvier 2012 – Après l'impressionnant mouvement d'opposition aux draconiens projets de loi anti-partage SOPA et PIPA, en discussion aux États-Unis, le Parlement européen entame ses travaux sur leur équivalent international : ACTA, l'accord commercial anti-contrefaçon. Les citoyens de toute l'Europe doivent lutter contre cet accord illégitime, voué à remettre en cause la liberté d'expression en ligne, ainsi que l'accès à la connaissance et l'innovation au niveau mondial.
Ce désastreux projet de rapport pour avis est trompeur en ce qu'il tente de justifier des mesures répressives extrémistes pour protéger un régime dépassé du droit d'auteur, des brevets et du droit des marques3.
Plus inquiétant encore, la version de travail du rapport fait complètement l'impasse sur les très nombreuses critiques émises contre ACTA4, venant non seulement d'ONG défendant l'accès aux médicaments, comme OXFAM ou Health Action International, mais également des principaux partenaires commerciaux de l'UE.
Étrangement, le projet de rapport pour avis ne remet pas en question le bien-fondé d'ACTA, et n'émet aucune critique sur la manière dont il a été négocié. La commission DEVE trouve-t-elle normal que des fonctionnaires non-élus proches des lobbyistes de l'industrie négocient de mesures pénales sans véritable contrôle démocratique ? Ou que les pays émergents et en développement aient été totalement exclus du processus ?
Le projet de rapport pour avis DEVE doit être amendé pour refléter les problèmes majeurs soulevés par l'ACTA. Même l'étude commanditée par le Parlement européen lui-même reconnaît qu'ACTA ne peut être accepté en l'état5.
« Encouragé par les même lobbies extrémistes que PIPA et SOPA aux États-Unis, ACTA est une initiative globale visant à protéger des industries rentières qui dominent l'économie mondiale. Le projet de rapport pour avis présenté par M. Zahradil en commission DEVE néglige tous les problèmes cruciaux posés par ACTA : son absence de légitimité démocratique, la vision dépassée du commerce international qu'il promeut, son impact sur l'accès aux médicaments dans les pays en développement, mais aussi sur la liberté d'expression et l'innovation de par le monde. Les membres du Parlement européen, à commencer par la commission en charge du développement, doivent prendre pleinement en compte ces différents problèmes et rejeter ACTA une fois pour toutes. Les citoyens doivent agir pour s'assurer que le Parlement européen reçoit le message. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Pour être informé de la campagne contre ACTA au Parlement européen, envoyez un email vide à NOtoACTA-subscribe@laquadrature.net pour vous abonner à notre liste.
Pour savoir comment agir contre ACTA maintenant, rendez vous sur notre page de campagne dédiée.
Vous pouvez ajouter cette vidéo à votre site, faites un simple copier/coller du code HTML suivant :
La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA.
Les commissions Affaires Juridiques (DEVE), Libertés Publiques (LIBE) et Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis.
Ces derniers seront envoyés à INTA pour influencer son rapport final, qui sera ensuite transmis à l'ensemble du Parlement européen pour lui recommander de voter pour ou contre la ratification d'ACTA.
";s:7:"dateiso";s:15:"20120123_103924";}s:15:"20120120_092452";a:7:{s:5:"title";s:90:"MegaUpload : l'industrie du copyright en guerre contre les créatures qu'elle a enfantées";s:4:"link";s:115:"http://www.laquadrature.net/fr/megaupload-l-industrie-du-copyright-en-guerre-contre-les-creatures-qu-elle-a-enfante";s:4:"guid";s:35:"5044 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 20 Jan 2012 08:24:52 +0000";s:11:"description";s:4037:"
Paris, 20 janvier 2012 – Le retrait1 de MegaUpload d'Internet montre une tentative globale de contrôler et de censurer Internet, à l'image du Protect IP Act (PIPA) aux États Unis2 et de l'accord anti-contrefaçon ACTA3. Conduite en dehors du territoire américain et sans même une décision de justice, cette affaire met en évidence la violence de la guerre disproportionnée menée au nom d'un droit d'auteur dépassé.
Les énormes profits engrangés par MegaUpload grâce à une centralisation des œuvres soumises au droit d'auteur sont difficilement défendables. MegaUpload est un sous-produit direct de la guerre menée contre le partage pair à pair hors-marché entre individus. Après avoir promu une législation qui a encouragé le développement des sites centralisés, les lobbies du copyright leur déclarent aujourd'hui la guerre.
« Le retrait par le FBI du site MegaUpload est utile à de nombreux égards. Il montre bien la violence aveugle des États Unis dans l'application du droit d'auteur au niveau mondial. Cette affaire donne un aperçu de ce qui pourrait devenir la norme si PIPA ou ACTA étaient adoptées. En outre, la censure de MegaUpload montre à quel point les services centralisés sont fragiles et facilement contrôlables. Elle résonne comme un vibrant appel à l'utilisation de protocoles pair à pair décentralisés pour le partage sans but de profit entre individus. Il nous faut urgemment réformer un droit d'auteur malade devenu nuisible à l'architecture même de l'Internet libre. », souligne Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« La vraie solution est de reconnaître un droit bien circonscrit au partage hors marché entre individus, et de mettre en place de nouveaux mécanismes de financement pour une économie culturelle qui soit compatible avec ce partage. Cela garantira une juste rémunération des artistes et auteurs, mais aussi le droit du public à partager la culture, en accord avec l'article 27 de la Déclaration universelle des droits de l'Homme4. », déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
Paris, 20 janvier 2012 – Le retrait1 de MegaUpload d'Internet montre une tentative globale de contrôler et de censurer Internet, à l'image du Protect IP Act (PIPA) aux États Unis2 et de l'accord anti-contrefaçon ACTA3. Conduite en dehors du territoire américain et sans même une décision de justice, cette affaire met en évidence la violence de la guerre disproportionnée menée au nom d'un droit d'auteur dépassé.
Les énormes profits engrangés par MegaUpload grâce à une centralisation des œuvres soumises au droit d'auteur sont difficilement défendables. MegaUpload est un sous-produit direct de la guerre menée contre le partage pair à pair hors-marché entre individus. Après avoir promu une législation qui a encouragé le développement des sites centralisés, les lobbies du copyright leur déclarent aujourd'hui la guerre.
« Le retrait par le FBI du site MegaUpload est utile à de nombreux égards. Il montre bien la violence aveugle des États Unis dans l'application du droit d'auteur au niveau mondial. Cette affaire donne un aperçu de ce qui pourrait devenir la norme si PIPA ou ACTA étaient adoptées. En outre, la censure de MegaUpload montre à quel point les services centralisés sont fragiles et facilement contrôlables. Elle résonne comme un vibrant appel à l'utilisation de protocoles pair à pair décentralisés pour le partage sans but de profit entre individus. Il nous faut urgemment réformer un droit d'auteur malade devenu nuisible à l'architecture même de l'Internet libre. », souligne Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« La vraie solution est de reconnaître un droit bien circonscrit au partage hors marché entre individus, et de mettre en place de nouveaux mécanismes de financement pour une économie culturelle qui soit compatible avec ce partage. Cela garantira une juste rémunération des artistes et auteurs, mais aussi le droit du public à partager la culture, en accord avec l'article 27 de la Déclaration universelle des droits de l'Homme4. », déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
";s:7:"dateiso";s:15:"20120120_092452";}s:15:"20120118_100948";a:7:{s:5:"title";s:30:"SOPA = PIPA = ACTA = Censure !";s:4:"link";s:53:"http://www.laquadrature.net/fr/sopa-pipa-acta-censure";s:4:"guid";s:35:"5014 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 18 Jan 2012 09:09:48 +0000";s:11:"description";s:3473:"
Paris, 18 janvier 2012 - Le site de La Quadrature du Net est éteint aujourd'hui, pour protester contre les projets de lois SOPA (Stop Online Piracy Act) et PIPA (PROTECT-IP Act) actuellement en discussion au Congrès des États-Unis1, et contre l'accord sur la contrefaçon ACTA, actuellement en débat au Parlement européen2.
Ces initiatives sont une tentative globalisée de censure d'Internet au nom du droit d'auteur. Elles porteront inévitablement3 atteinte à la liberté d'expression, à la protection de la vie privée, l'innovation et la libre concurrence sur Internet.
Nous, citoyens, devons appeler nos responsables politiques4 à s'opposer à ces textes illégitimes et dangereux.
En savoir plus sur SOPA (Wikipedia), PIPA (Wikipedia, en anglais), et ACTA (video).
Paris, 18 janvier 2012 - Le site de La Quadrature du Net est éteint aujourd'hui, pour protester contre les projets de lois SOPA (Stop Online Piracy Act) et PIPA (PROTECT-IP Act) actuellement en discussion au Congrès des États-Unis1, et contre l'accord sur la contrefaçon ACTA, actuellement en débat au Parlement européen2.
Ces initiatives sont une tentative globalisée de censure d'Internet au nom du droit d'auteur. Elles porteront inévitablement3 atteinte à la liberté d'expression, à la protection de la vie privée, l'innovation et la libre concurrence sur Internet.
Nous, citoyens, devons appeler nos responsables politiques4 à s'opposer à ces textes illégitimes et dangereux.
En savoir plus sur SOPA (Wikipedia), PIPA (Wikipedia, en anglais), et ACTA (video).
";s:7:"dateiso";s:15:"20120118_100948";}s:15:"20120117_162536";a:7:{s:5:"title";s:67:"Le PS prêt à sacrifier les citoyens et les créateurs innovants ?";s:4:"link";s:93:"http://www.laquadrature.net/fr/le-ps-pret-a-sacrifier-les-citoyens-et-les-createurs-innovants";s:4:"guid";s:35:"5012 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 17 Jan 2012 15:25:36 +0000";s:11:"description";s:4442:"
Paris, 17 janvier 2012 – François Hollande va-t-il sacrifier à la fois les libertés sur Internet et le développement de la création numérique par peur de quelques lobbyistes internes qui avancent des arguments dignes du sarkozysme culturel ? On peut le craindre à voir les louvoiements de plus en plus préoccupants du candidat. La Quadrature du Net appelle à la vigilance démocratique contre ces pressions, et à sanctionner avec force tout candidat qui maintiendrait les orientations de l'Internet policé, même sous de nouveaux habits.
Alors que les propositions de reconnaissance du partage non-marchand de la culture et de mise en place de nouveaux financements culturels contributifs suscitent un soutien croissant chez les acteurs de la création1, un tir de barrage se développe contre cette éventualité.
Des lobbyistes mus en coulisses par ceux qui n'ont jamais accepté les arbitrages anti-HADOPI2 font une campagne d'intimidation forcenée accusant l'abrogation d'HADOPI d'être à l'égard des créateurs l'équivalent de ce que serait l'abrogation de la PAC pour les agriculteurs.
« S'il maintient en existence l'HADOPI et ignore les propositions innovantes en matière de politiques culturelles pour l'ère numérique, François Hollande tournera le dos non seulement à la jeunesse qu'il prétend servir, mais à toute la création vivante. » déclare Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature du Net. « Par peur de quelques lobbyistes bruyants et bien introduits, on abandonnerait les acteurs de la création et de son commerce équitable, l'accès à la culture par tous et le potentiel d'une économie culturelle florissante qui soit compatible avec le partage non-marchand. » poursuit-il.
1. L'ensemble des groupes de travail réunissant créateurs, nouvelles structures de production, analystes culturels et défenseurs des libertés sur Internet au PS comme à EELV ont convergé sur des propositions associant l'abrogation d'HADOPI à des financements contributifs. Ces propositions sont également cohérentes en ce qui concerne les montants et la répartition de l'effort entre ménages et intermédiaires techniques (FAI, moteurs de recherche, etc.).
Paris, 17 janvier 2012 – François Hollande va-t-il sacrifier à la fois les libertés sur Internet et le développement de la création numérique par peur de quelques lobbyistes internes qui avancent des arguments dignes du sarkozysme culturel ? On peut le craindre à voir les louvoiements de plus en plus préoccupants du candidat. La Quadrature du Net appelle à la vigilance démocratique contre ces pressions, et à sanctionner avec force tout candidat qui maintiendrait les orientations de l'Internet policé, même sous de nouveaux habits.
Alors que les propositions de reconnaissance du partage non-marchand de la culture et de mise en place de nouveaux financements culturels contributifs suscitent un soutien croissant chez les acteurs de la création1, un tir de barrage se développe contre cette éventualité.
Des lobbyistes mus en coulisses par ceux qui n'ont jamais accepté les arbitrages anti-HADOPI2 font une campagne d'intimidation forcenée accusant l'abrogation d'HADOPI d'être à l'égard des créateurs l'équivalent de ce que serait l'abrogation de la PAC pour les agriculteurs.
« S'il maintient en existence l'HADOPI et ignore les propositions innovantes en matière de politiques culturelles pour l'ère numérique, François Hollande tournera le dos non seulement à la jeunesse qu'il prétend servir, mais à toute la création vivante. » déclare Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature du Net. « Par peur de quelques lobbyistes bruyants et bien introduits, on abandonnerait les acteurs de la création et de son commerce équitable, l'accès à la culture par tous et le potentiel d'une économie culturelle florissante qui soit compatible avec le partage non-marchand. » poursuit-il.
1. L'ensemble des groupes de travail réunissant créateurs, nouvelles structures de production, analystes culturels et défenseurs des libertés sur Internet au PS comme à EELV ont convergé sur des propositions associant l'abrogation d'HADOPI à des financements contributifs. Ces propositions sont également cohérentes en ce qui concerne les montants et la répartition de l'effort entre ménages et intermédiaires techniques (FAI, moteurs de recherche, etc.).
";s:7:"dateiso";s:15:"20120117_162536";}s:15:"20120113_104540";a:7:{s:5:"title";s:68:"La Commission européenne ouvre la voie à la censure privée du Net";s:4:"link";s:96:"http://www.laquadrature.net/fr/la-commission-europeenne-ouvre-la-voie-a-la-censure-privee-du-net";s:4:"guid";s:35:"4986 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 13 Jan 2012 09:45:40 +0000";s:11:"description";s:6525:"
Paris, le 13 janvier 2012 – Un document stratégique clé sur les politiques Internet montre que la Commission européenne se prépare à proposer de nouvelles politiques répressives. Avec le vote de consentement à venir sur l'accord anti-contrefaçon ACTA et la révision de la directive sur les « droits de propriété intellectuelle » (IPRED), les mécanismes de censure qui font actuellement débat aux États-Unis arriveront bientôt en Europe.
Mercredi, la Commission européenne a publié une communication sur le marché unique numérique, abordant la plupart des politiques européennes liées à l'Agenda Numérique1. Comme ce document le laisse entendre, la Commission travaille à combattre les sites illégaux de jeux en ligne, lutte qui pourrait prendre la forme de mesures de censure telles que celles mises en œuvre en France et dans d'autres États Membres2. De manière hypocrite, et probablement pour satisfaire l'industrie bancaire, la Commission ne prend même pas en considération la possibilité de s'attaquer aux flux financiers des entreprises hors-la-loi, ce qui serait pourtant une manière efficace de les combattre. Au lieu de cela, la Commission préfère ouvrir la voie à des mesures de censure en cœur de réseau.
Dans le champ du droit d'auteur, la Commission européenne ressort la dangereuse notion de « contenu illégal », qui n'a pas de sens, sauf à dire que le réseau sera programmé pour déterminer la licéité des contenus. Elle pousse également à davantage de « coopération » extra-judiciaire entre les acteurs d'Internet, les services de paiement et les industries du divertissement, dans la veine des très controversés projets de loi SOPA (Stop Online Piracy Act) et PIPA (Protect IP Act) actuellement débattus par le Congrès des États-Unis3.
« Dans la lignée de l'ACTA et de SOPA aux États-Unis, la Commission veut imposer des mécanismes de censure privatisée4 où les entreprises (FAI, services de paiement) “coopéreraient” directement avec les industries du divertissement pour censurer certains sites. L'exécutif européen est visiblement prêt à satisfaire quelques industries en plaçant Internet sous contrôle. Les citoyens doivent rester attentifs et s'opposer à toute politique qui ne respecte pas le droit à un procès équitable ou la liberté d'expression. » déclare Jérémie Zimmermann, porte-parole de l'initiative citoyenne La Quadrature du Net.
3. Voir page 13 de la communication : « La collaboration entre parties prenantes, en particulier les prestataires de l'Internet, les ayant-droit et les services de paiements, engagée dans l'Union européenne et aux États-Unis, peut aussi permettre de lutter contre les contenus illégaux. ».
4. Dès notification par les industries du divertissement, les moteurs de recherche ainsi que les services de paiement et les régies publicitaires pourraient se voir interdit de fournir des services ou de contracter avec les sites visés, sans la moindre décision judiciaire. Comme le souligne le professeur de droit Yochai Benkler, SOPA et PIPA reviendraient à légaliser le type de techniques de censures utilisées par les États-Unis contre WikiLeaks, en transposant dans le domaine civil des mesures jusque lors réservées à l’antiterrorisme. Voir: http://benkler.org/WikiLeaks_PROTECT-IP_Benkler.pdf
";s:7:"content";s:6525:"
Paris, le 13 janvier 2012 – Un document stratégique clé sur les politiques Internet montre que la Commission européenne se prépare à proposer de nouvelles politiques répressives. Avec le vote de consentement à venir sur l'accord anti-contrefaçon ACTA et la révision de la directive sur les « droits de propriété intellectuelle » (IPRED), les mécanismes de censure qui font actuellement débat aux États-Unis arriveront bientôt en Europe.
Mercredi, la Commission européenne a publié une communication sur le marché unique numérique, abordant la plupart des politiques européennes liées à l'Agenda Numérique1. Comme ce document le laisse entendre, la Commission travaille à combattre les sites illégaux de jeux en ligne, lutte qui pourrait prendre la forme de mesures de censure telles que celles mises en œuvre en France et dans d'autres États Membres2. De manière hypocrite, et probablement pour satisfaire l'industrie bancaire, la Commission ne prend même pas en considération la possibilité de s'attaquer aux flux financiers des entreprises hors-la-loi, ce qui serait pourtant une manière efficace de les combattre. Au lieu de cela, la Commission préfère ouvrir la voie à des mesures de censure en cœur de réseau.
Dans le champ du droit d'auteur, la Commission européenne ressort la dangereuse notion de « contenu illégal », qui n'a pas de sens, sauf à dire que le réseau sera programmé pour déterminer la licéité des contenus. Elle pousse également à davantage de « coopération » extra-judiciaire entre les acteurs d'Internet, les services de paiement et les industries du divertissement, dans la veine des très controversés projets de loi SOPA (Stop Online Piracy Act) et PIPA (Protect IP Act) actuellement débattus par le Congrès des États-Unis3.
« Dans la lignée de l'ACTA et de SOPA aux États-Unis, la Commission veut imposer des mécanismes de censure privatisée4 où les entreprises (FAI, services de paiement) “coopéreraient” directement avec les industries du divertissement pour censurer certains sites. L'exécutif européen est visiblement prêt à satisfaire quelques industries en plaçant Internet sous contrôle. Les citoyens doivent rester attentifs et s'opposer à toute politique qui ne respecte pas le droit à un procès équitable ou la liberté d'expression. » déclare Jérémie Zimmermann, porte-parole de l'initiative citoyenne La Quadrature du Net.
3. Voir page 13 de la communication : « La collaboration entre parties prenantes, en particulier les prestataires de l'Internet, les ayant-droit et les services de paiements, engagée dans l'Union européenne et aux États-Unis, peut aussi permettre de lutter contre les contenus illégaux. ».
4. Dès notification par les industries du divertissement, les moteurs de recherche ainsi que les services de paiement et les régies publicitaires pourraient se voir interdit de fournir des services ou de contracter avec les sites visés, sans la moindre décision judiciaire. Comme le souligne le professeur de droit Yochai Benkler, SOPA et PIPA reviendraient à légaliser le type de techniques de censures utilisées par les États-Unis contre WikiLeaks, en transposant dans le domaine civil des mesures jusque lors réservées à l’antiterrorisme. Voir: http://benkler.org/WikiLeaks_PROTECT-IP_Benkler.pdf
";s:7:"dateiso";s:15:"20120113_104540";}s:15:"20120111_121852";a:7:{s:5:"title";s:92:"Notification & action : La Commission européenne doit faire primer la liberté d'expression";s:4:"link";s:116:"http://www.laquadrature.net/fr/notification-action-la-commission-europeenne-doit-faire-primer-la-liberte-dexpression";s:4:"guid";s:35:"4978 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 11 Jan 2012 11:18:52 +0000";s:11:"description";s:8422:"
Paris, 11 janvier 2012 – Suite à la consultation organisée fin 2010, la Commission européenne vient d'annoncer un plan d'action sur le rôle des acteurs de l'Internet dans la régulation des contenus en ligne1. La problématique centrale est celle des mesures de « notification et retrait » des contenus en ligne, qui sont aujourd'hui mises en œuvre en totale opacité au détriment de la liberté de communication. Alors que la guerre globale contre le partage de la culture sévit, cette annonce souligne le besoin d'une participation citoyenne dans ce débat crucial pour l'avenir des libertés en ligne.
La directive sur les services en ligne publiée en 2000 (également appelée directive e-Commerce) crée un cadre légal pour la plupart des activités en ligne2. Grâce aux exemptions de responsabilité dont disposent les acteurs Internet (fournisseurs d'accès ou fournisseurs de services en ligne tels que les plate-formes d'hébergement) la directive a mis en place un cadre juridique à part, différent de celui régulant les médias et moyens de communication interpersonnels, protégeant de ce fait la liberté de communication et encourageant l'innovation et la croissance de l'économie numérique.
Mais ces dix dernières années, les lobbies, en particulier ceux des industries du divertissement, ont fait pression sur le législateur et ont mené nombre d'actions en justice pour forcer les acteurs de l'Internet à faire la police sur leurs réseaux. Les responsables politiques, et notamment la Commission européenne, sont sensibles à leurs demandes et encouragent une plus grande « coopération » entre les acteurs d'Internet, les pouvoirs publics et les autres parties prenantes afin de censurer de manière extra-judiciaire les contenus en ligne3. Du fait de ces initiatives, nombre de services en ligne recourent désormais à des mécanismes de censure et se livrent à des retraits abusifs de contenus4, violant ainsi la liberté d'expression des utilisateurs d'Internet.
« L'annonce de la Commission européenne montre l'urgence de faire la lumière sur les pratiques néfastes de nombreux acteurs de l'Internet, contraints de se muer en police de l'Internet. Les droits des citoyens sont bien souvent victimes de la censure privée, sans possibilité d'un procès équitable. Comme le Parlement européen l'a souligné à de nombreuses occasions, toute restriction aux droits fondamentaux en ligne ne doit être possible qu'après une décision judiciaire5. Mais face aux nombreuses initiatives cherchant à accroître le rôle des acteurs Internet dans la régulation des contenus en ligne, à l'image de l'ACTA, il faut s'attendre à une violente offensive de la part des lobbies contre la liberté de communication en ligne. Les citoyens doivent suivre de près les discussions sur cette directive et se tenir prêts à défendre leurs droits. » déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Les propositions de La Quadrature du Net sur les procédures de « notification et retrait »
Fin 2010, dans notre réponse au questionnaire de la Commission européenne sur la directive « services en ligne », nous insistions sur les points suivants :
En l'absence de décision judiciaire, les fournisseurs de service doivent être tenus de répondre à leurs clients dans un délai raisonnable.
Dans l'attente de la réponse, le contenu ne doit pas être retiré.
En cas de contre-notification de la part de l'utilisateur (s'il estime que le contenu litigieux est licite), le fournisseur doit notifier à la partie tierce qui a envoyé la demande de retrait que l'utilisateur s'y oppose, et propose que l'affaire soit renvoyée devant un tribunal.
Le droit communautaire doit aussi prévoir des sanctions pour les demandes de retrait abusives, ainsi que pour les retraits injustifiés de la part de fournisseurs de services en ligne.
Enfin, les fournisseurs doivent offrir à leurs utilisateurs des informations aisément compréhensibles sur les procédures de gestion des notifications et de retrait qu'elles mettent en œuvre.
4. Cet été, en Allemagne, la censure illégale par YouTube du film maintes fois récompensés de Nina Paley, « Sita Sings the Blues », a montré une nouvelle fois que l'application par des acteurs privés d'un régime de droit d'auteur obsolète nuit à la culture et à la liberté d'expression. Voir http://www.laquadrature.net/en/like-nina-fight-privatized-censorship-of-culture
Paris, 11 janvier 2012 – Suite à la consultation organisée fin 2010, la Commission européenne vient d'annoncer un plan d'action sur le rôle des acteurs de l'Internet dans la régulation des contenus en ligne1. La problématique centrale est celle des mesures de « notification et retrait » des contenus en ligne, qui sont aujourd'hui mises en œuvre en totale opacité au détriment de la liberté de communication. Alors que la guerre globale contre le partage de la culture sévit, cette annonce souligne le besoin d'une participation citoyenne dans ce débat crucial pour l'avenir des libertés en ligne.
La directive sur les services en ligne publiée en 2000 (également appelée directive e-Commerce) crée un cadre légal pour la plupart des activités en ligne2. Grâce aux exemptions de responsabilité dont disposent les acteurs Internet (fournisseurs d'accès ou fournisseurs de services en ligne tels que les plate-formes d'hébergement) la directive a mis en place un cadre juridique à part, différent de celui régulant les médias et moyens de communication interpersonnels, protégeant de ce fait la liberté de communication et encourageant l'innovation et la croissance de l'économie numérique.
Mais ces dix dernières années, les lobbies, en particulier ceux des industries du divertissement, ont fait pression sur le législateur et ont mené nombre d'actions en justice pour forcer les acteurs de l'Internet à faire la police sur leurs réseaux. Les responsables politiques, et notamment la Commission européenne, sont sensibles à leurs demandes et encouragent une plus grande « coopération » entre les acteurs d'Internet, les pouvoirs publics et les autres parties prenantes afin de censurer de manière extra-judiciaire les contenus en ligne3. Du fait de ces initiatives, nombre de services en ligne recourent désormais à des mécanismes de censure et se livrent à des retraits abusifs de contenus4, violant ainsi la liberté d'expression des utilisateurs d'Internet.
« L'annonce de la Commission européenne montre l'urgence de faire la lumière sur les pratiques néfastes de nombreux acteurs de l'Internet, contraints de se muer en police de l'Internet. Les droits des citoyens sont bien souvent victimes de la censure privée, sans possibilité d'un procès équitable. Comme le Parlement européen l'a souligné à de nombreuses occasions, toute restriction aux droits fondamentaux en ligne ne doit être possible qu'après une décision judiciaire5. Mais face aux nombreuses initiatives cherchant à accroître le rôle des acteurs Internet dans la régulation des contenus en ligne, à l'image de l'ACTA, il faut s'attendre à une violente offensive de la part des lobbies contre la liberté de communication en ligne. Les citoyens doivent suivre de près les discussions sur cette directive et se tenir prêts à défendre leurs droits. » déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
Les propositions de La Quadrature du Net sur les procédures de « notification et retrait »
Fin 2010, dans notre réponse au questionnaire de la Commission européenne sur la directive « services en ligne », nous insistions sur les points suivants :
En l'absence de décision judiciaire, les fournisseurs de service doivent être tenus de répondre à leurs clients dans un délai raisonnable.
Dans l'attente de la réponse, le contenu ne doit pas être retiré.
En cas de contre-notification de la part de l'utilisateur (s'il estime que le contenu litigieux est licite), le fournisseur doit notifier à la partie tierce qui a envoyé la demande de retrait que l'utilisateur s'y oppose, et propose que l'affaire soit renvoyée devant un tribunal.
Le droit communautaire doit aussi prévoir des sanctions pour les demandes de retrait abusives, ainsi que pour les retraits injustifiés de la part de fournisseurs de services en ligne.
Enfin, les fournisseurs doivent offrir à leurs utilisateurs des informations aisément compréhensibles sur les procédures de gestion des notifications et de retrait qu'elles mettent en œuvre.
4. Cet été, en Allemagne, la censure illégale par YouTube du film maintes fois récompensés de Nina Paley, « Sita Sings the Blues », a montré une nouvelle fois que l'application par des acteurs privés d'un régime de droit d'auteur obsolète nuit à la culture et à la liberté d'expression. Voir http://www.laquadrature.net/en/like-nina-fight-privatized-censorship-of-culture
";s:7:"dateiso";s:15:"20120111_121852";}s:15:"20111219_160249";a:7:{s:5:"title";s:58:"Le Sénat enterre la copie privée et les droits du public";s:4:"link";s:87:"http://www.laquadrature.net/fr/le-senat-enterre-la-copie-privee-et-les-droits-du-public";s:4:"guid";s:35:"4958 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 19 Dec 2011 15:02:49 +0000";s:11:"description";s:6813:"
Paris, 19 décembre 2011 – Les sénateurs viennent d'adopter le projet de loi sur la rémunération pour copie privée en séance plénière, sans revenir sur l'amendement Tardy restreignant les droits du public. Cet enterrement de la copie privée est l'inquiétante continuité de la logique répressive d'un droit d'auteur tourné contre le public.
Le texte a été voté conforme, et l'amendement 31 du rapporteur André Gattolin et de l'ensemble du groupe Europe Écologie-Les Verts, qui proposait de ne pas subordonner la définition de la copie privée à la licéité de la source servant à l'acte de copie, a été repoussé.
Le projet de loi initial du gouvernement ne restreignait pas la définition de l'exception pour copie privée, se contentant de modifier l'assiette de la redevance afin de tenir compte de la jurisprudence. La restriction de l'exception promue par la SACEM et autres lobbies des industries du divertissement a été introduite à l'Assemblée nationale par le député Lionel Tardy2. Le vote des sénateurs socialistes acceptant la restriction des droits d'usage augure mal de la politique qui sera conduite par la nouvelle majorité sénatoriale.
« Cette notion de licéité de la source n'a strictement aucun rapport avec ce projet de loi – qui ne concerne que la redevance –, mais est poussée depuis longtemps par les industries du divertissement qui souhaitent restreindre le champ des exceptions au droit d'auteur. En effet, cette notion prétend exiger de chaque individu qu'il se livre à un examen juridique approfondi pour s'assurer de la licéité de la source avant de réaliser une copie. Cela sera en pratique très difficile, voire impossible à déterminer, ce qui en pratique découragera l'acte de copie ou le rendra illicite ! », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« Au travers de cet amendement, c'est l'ensemble du régime des exceptions qui est attaqué par le Sénat comme par l'Assemblée. Cette réduction sans relâche des “droits du public” s'inscrit dans une logique répressive pour surveiller et contraindre les pratiques culturelles qui se développent dans l'espace numérique, dans la droite ligne des lois DADVSI et HADOPI. Avec l'adoption de l'amendement Tardy, le Parlement français accentue un peu plus la grave crise de légitimité que traverse le droit d'auteur, et rend inévitable sa réforme globale. », conclut Jérémie Zimmermann.
Pour plus d'information sur la dangerosité de la notion de licéité de la source, voir la note juridique de La Quadrature qui lui est consacrée3.
Retrouvez les propositions de La Quadrature pour une réforme du droit d'auteur sur http://lqdn.fr/propositions
2. Voir l'article 1er amendé par la commission des Affaires culturelles de l'Assemblée : http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié par l'amendement Tardy dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ». http://www.laquadrature.net/fr/prives-de-copie-les-droits-du-public-disc...
Paris, 19 décembre 2011 – Les sénateurs viennent d'adopter le projet de loi sur la rémunération pour copie privée en séance plénière, sans revenir sur l'amendement Tardy restreignant les droits du public. Cet enterrement de la copie privée est l'inquiétante continuité de la logique répressive d'un droit d'auteur tourné contre le public.
Le texte a été voté conforme, et l'amendement 31 du rapporteur André Gattolin et de l'ensemble du groupe Europe Écologie-Les Verts, qui proposait de ne pas subordonner la définition de la copie privée à la licéité de la source servant à l'acte de copie, a été repoussé.
Le projet de loi initial du gouvernement ne restreignait pas la définition de l'exception pour copie privée, se contentant de modifier l'assiette de la redevance afin de tenir compte de la jurisprudence. La restriction de l'exception promue par la SACEM et autres lobbies des industries du divertissement a été introduite à l'Assemblée nationale par le député Lionel Tardy2. Le vote des sénateurs socialistes acceptant la restriction des droits d'usage augure mal de la politique qui sera conduite par la nouvelle majorité sénatoriale.
« Cette notion de licéité de la source n'a strictement aucun rapport avec ce projet de loi – qui ne concerne que la redevance –, mais est poussée depuis longtemps par les industries du divertissement qui souhaitent restreindre le champ des exceptions au droit d'auteur. En effet, cette notion prétend exiger de chaque individu qu'il se livre à un examen juridique approfondi pour s'assurer de la licéité de la source avant de réaliser une copie. Cela sera en pratique très difficile, voire impossible à déterminer, ce qui en pratique découragera l'acte de copie ou le rendra illicite ! », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« Au travers de cet amendement, c'est l'ensemble du régime des exceptions qui est attaqué par le Sénat comme par l'Assemblée. Cette réduction sans relâche des “droits du public” s'inscrit dans une logique répressive pour surveiller et contraindre les pratiques culturelles qui se développent dans l'espace numérique, dans la droite ligne des lois DADVSI et HADOPI. Avec l'adoption de l'amendement Tardy, le Parlement français accentue un peu plus la grave crise de légitimité que traverse le droit d'auteur, et rend inévitable sa réforme globale. », conclut Jérémie Zimmermann.
Pour plus d'information sur la dangerosité de la notion de licéité de la source, voir la note juridique de La Quadrature qui lui est consacrée3.
Retrouvez les propositions de La Quadrature pour une réforme du droit d'auteur sur http://lqdn.fr/propositions
2. Voir l'article 1er amendé par la commission des Affaires culturelles de l'Assemblée : http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié par l'amendement Tardy dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ». http://www.laquadrature.net/fr/prives-de-copie-les-droits-du-public-disc...
";s:7:"dateiso";s:15:"20111219_160249";}s:15:"20111215_134500";a:7:{s:5:"title";s:72:"Le Conseil de l'UE soutient la neutralité du Net. Maintenant, une loi !";s:4:"link";s:97:"http://www.laquadrature.net/fr/le-conseil-de-lue-soutient-la-neutralite-du-net-maintenant-une-loi";s:4:"guid";s:35:"4955 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 15 Dec 2011 12:45:00 +0000";s:11:"description";s:5926:"
Paris, le 15 décembre 2011 – Les États Membres de l'Union Européenne ont adopté des conclusions sur la neutralité du Net1.
Dans ce document, le Conseil de l'UE souligne l'importance de préserver le caractère ouvert d'Internet en s'assurant que l'accès Internet ne fasse pas l'objet de restrictions imposées par les opérateurs télécoms2. Malheureusement, le document ne va pas jusqu'à affirmer que ce principe doit être inscrit dans la loi.
« Après l'appel du Parlement européen demandant que la Commission évalue rapidement la nécessité d'une réglementation pour protéger la neutralité du Net3, c'est désormais au tour des États Membres de souligner l'importance de ce principe fondateur pour la liberté de communication, la vie privée ainsi que l'innovation dans l'environnement numérique. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation La Quadrature du Net.
« Malheureusement, sans doute sous la pression des opérateurs dominants, le Conseil refuse de joindre les actes à la parole en exigeant une véritable législation pour protéger la neutralité des réseaux. Le “laisser-faire” actuel prôné par la Commissaire Neelie Kroes, fondé uniquement sur la transparence et la concurrence, n'est plus tenable. Comme le montre la plate-forme de signalement RespectMyNet.eu4, la neutralité du Net est dores-et-déjà mise en cause par les opérateurs télécoms qui interfèrent de manière illégitime avec les communications de leurs abonnés, et nous arrivons à un point de non-retour. », conclut Zimmermann.
2. Les conclusions insistent sur :
la nécessité « de préserver le caractère ouvert et neutre de l'internet et de considérer la neutralité de l'internet comme un objectif général (...) ».
le fait « qu'il importe de s'attaquer aux problèmes de discrimination et de dégradation du service susceptibles de résulter de certaines pratiques de gestion du trafic (notamment le
blocage, l'obstruction et les politiques de connexion et d'interconnexion restrictives) (…). »
Le Conseil appelle également la Commission européenne à « suivre, en collaboration avec l'ORECE, la question de la gestion du trafic pour assurer la bonne diffusion de pratiques proportionnelles, nécessaires et transparentes en matière de gestion du trafic qui ne portent pas atteinte à la neutralité de l'internet ». Le Conseil dit aussi accueillir favorablement « l'intention exprimée par la Commission d'évaluer, sur la base des investigations de l'ORECE, la nécessité de prévoir des mesures plus strictes et de publier des orientations supplémentaires sur la neutralité de l'internet, si nécessaire ».
Paris, le 15 décembre 2011 – Les États Membres de l'Union Européenne ont adopté des conclusions sur la neutralité du Net1.
Dans ce document, le Conseil de l'UE souligne l'importance de préserver le caractère ouvert d'Internet en s'assurant que l'accès Internet ne fasse pas l'objet de restrictions imposées par les opérateurs télécoms2. Malheureusement, le document ne va pas jusqu'à affirmer que ce principe doit être inscrit dans la loi.
« Après l'appel du Parlement européen demandant que la Commission évalue rapidement la nécessité d'une réglementation pour protéger la neutralité du Net3, c'est désormais au tour des États Membres de souligner l'importance de ce principe fondateur pour la liberté de communication, la vie privée ainsi que l'innovation dans l'environnement numérique. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation La Quadrature du Net.
« Malheureusement, sans doute sous la pression des opérateurs dominants, le Conseil refuse de joindre les actes à la parole en exigeant une véritable législation pour protéger la neutralité des réseaux. Le “laisser-faire” actuel prôné par la Commissaire Neelie Kroes, fondé uniquement sur la transparence et la concurrence, n'est plus tenable. Comme le montre la plate-forme de signalement RespectMyNet.eu4, la neutralité du Net est dores-et-déjà mise en cause par les opérateurs télécoms qui interfèrent de manière illégitime avec les communications de leurs abonnés, et nous arrivons à un point de non-retour. », conclut Zimmermann.
2. Les conclusions insistent sur :
la nécessité « de préserver le caractère ouvert et neutre de l'internet et de considérer la neutralité de l'internet comme un objectif général (...) ».
le fait « qu'il importe de s'attaquer aux problèmes de discrimination et de dégradation du service susceptibles de résulter de certaines pratiques de gestion du trafic (notamment le
blocage, l'obstruction et les politiques de connexion et d'interconnexion restrictives) (…). »
Le Conseil appelle également la Commission européenne à « suivre, en collaboration avec l'ORECE, la question de la gestion du trafic pour assurer la bonne diffusion de pratiques proportionnelles, nécessaires et transparentes en matière de gestion du trafic qui ne portent pas atteinte à la neutralité de l'internet ». Le Conseil dit aussi accueillir favorablement « l'intention exprimée par la Commission d'évaluer, sur la base des investigations de l'ORECE, la nécessité de prévoir des mesures plus strictes et de publier des orientations supplémentaires sur la neutralité de l'internet, si nécessaire ».
";s:7:"dateiso";s:15:"20111215_134500";}s:15:"20111214_164444";a:7:{s:5:"title";s:45:"Copie privée en voie d'enterrement au Sénat";s:4:"link";s:73:"http://www.laquadrature.net/fr/copie-privee-en-voie-denterrement-au-senat";s:4:"guid";s:35:"4939 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 14 Dec 2011 15:44:44 +0000";s:11:"description";s:2590:"
Paris, 14 décembre 2011 – Les sénateurs ont aujourd'hui rejeté, en Commission des affaires culturelles, un amendement visant à annuler la modification poussée par le député Tardy à l'Assemblée, visant à restreindre le périmètre de l'exception pour copie privée.
L'examen en commission s'est déroulé – fait rare – en présence du ministre Frédéric Mitterrand, qui a pris position contre toute modification du texte, et sous pression de la SACEM. C'est en séance, le lundi 19 décembre, que les sénateurs auront une ultime occasion de sauver les droits du public, afin d'éviter que le droit d'auteur ne s'enfonce toujours plus loin dans sa grave crise de légitimité.
« Le ministre de la culture est allé jusqu'à intervenir en commission, ce qui est rare et montre à quel point ce tiroir-caisse de la copie privée est crucial pour les industries du divertissement. Il est scandaleux que les sénateurs de gauche se soient abstenus sur une mesure qui vise à rétablir les droits du public, massacrés à l'Assemblée. Le Sénat doit absolument revenir sur cette notion de “licéité de la source” de la copie privée, qui en pratique rend impossible toute copie dans le cercle privé. Imposer que tous les citoyens répondent à des questions juridiques extrêmement complexes, même pour les juges, avant d'accéder à la culture est véritablement scandaleux ! Il s'agit là de la négation du principe même des exceptions au droit d'auteur, c'est-à-dire des droits du public et d'un accès non-marchand à la culture. », déclare Jérémie Zimermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net publie une note rappelant les dangers de la notion de licéité de la source à faire circuler aux sénateurs1.
Paris, 14 décembre 2011 – Les sénateurs ont aujourd'hui rejeté, en Commission des affaires culturelles, un amendement visant à annuler la modification poussée par le député Tardy à l'Assemblée, visant à restreindre le périmètre de l'exception pour copie privée.
L'examen en commission s'est déroulé – fait rare – en présence du ministre Frédéric Mitterrand, qui a pris position contre toute modification du texte, et sous pression de la SACEM. C'est en séance, le lundi 19 décembre, que les sénateurs auront une ultime occasion de sauver les droits du public, afin d'éviter que le droit d'auteur ne s'enfonce toujours plus loin dans sa grave crise de légitimité.
« Le ministre de la culture est allé jusqu'à intervenir en commission, ce qui est rare et montre à quel point ce tiroir-caisse de la copie privée est crucial pour les industries du divertissement. Il est scandaleux que les sénateurs de gauche se soient abstenus sur une mesure qui vise à rétablir les droits du public, massacrés à l'Assemblée. Le Sénat doit absolument revenir sur cette notion de “licéité de la source” de la copie privée, qui en pratique rend impossible toute copie dans le cercle privé. Imposer que tous les citoyens répondent à des questions juridiques extrêmement complexes, même pour les juges, avant d'accéder à la culture est véritablement scandaleux ! Il s'agit là de la négation du principe même des exceptions au droit d'auteur, c'est-à-dire des droits du public et d'un accès non-marchand à la culture. », déclare Jérémie Zimermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net publie une note rappelant les dangers de la notion de licéité de la source à faire circuler aux sénateurs1.
";s:7:"dateiso";s:15:"20111214_164444";}s:15:"20111214_160547";a:7:{s:5:"title";s:80:"Les gouvernements de l'UE adoptent ACTA, désormais entre les mains du Parlement";s:4:"link";s:108:"http://www.laquadrature.net/fr/les-gouvernements-de-lue-adoptent-acta-desormais-entre-les-mains-du-parlement";s:4:"guid";s:35:"4938 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 14 Dec 2011 15:05:47 +0000";s:11:"description";s:12969:"
Paris, 14 décembre 2011 – Les États membres de l'Union européenne – représentés par le Conseil de l'UE – adoptent aujourd'hui l'accord commercial anti-contrefaçon (ACTA) qui vise à imposer de nouvelles sanctions pénales et la censure en ligne privatisée au nom du droit d'auteur. L'ACTA est désormais entre les mains du Parlement européen, qui peut encore y faire obstacle. Les citoyens doivent s'assurer que leurs libertés en ligne seront protégées en obtenant le rejet définitif de l'ACTA.
Mise-à-jour : Le Conseil de l'UE a finalement adopté l'instrument ouvrant la voie à la signature de l'ACTA le 16 décembre 2011.
Après l'adoption de l'instrument juridique permettant sa signature par le Conseil de l'Union Européenne cet après-midi1, ACTA sera bientôt présenté devant le Parlement européen qui l'acceptera ou le rejettera dans les mois à venir, après avoir élaboré son rapport2.
Pour les États Membres et la Commission européenne, qui avec les États-Unis et le Japon ont poussé l'ACTA3, cet accord a pour but d'imposer des mesures qu'ils savent inacceptables si elles étaient normalement débattues dans les arènes démocratiques. Les États Membres vont ainsi forcer la censure privatisée du Net sous couvert de « coopération »4 entre l'industrie du divertissement et les acteurs d'Internet5. Cette transformation des acteurs d'Internet en une police privée du droit d'auteur sera rendue possible par la menace de nouvelles sanctions pénales draconiennes6.
Le processus de ratification au Parlement européen est déja entaché par l'absence de transparence. Le Parlement européen a refusé de publier l'intégralité de l'avis de ses services juridiques sur l'accord, expliquant qu'une telle publication « interférerait sérieusement avec la complexe procédure de ratification »7. Les citoyens ont désormais un rôle majeur à jouer pour s'assurer que les membres du Parlement européen feront face à leur responsabilités en rejetant l'ACTA.
« Nos gouvernements contournent les processus démocratiques pour imposer des mesures répressives draconiennes. Ils savent que de telles dispositions seraient très difficiles à faire passer par les circuits législatifs normaux, alors ils ont choisi de les imposer en douce. En privatisant la censure du Net au nom du droit d'auteur, ACTA aura un impact désastreux sur nos libertés en ligne, mais aussi sur l'innovation et le développement des entreprises de l'Internet. Le Parlement européen est notre dernier espoir de rejeter l'ACTA. Nous, citoyens, devons agir dès maintenant », déclare Jérémie Zimemrmann, co-fondateur et porte-parole de La Quadrature du Net.
1. Voir l'agenda du Conseil de l'UE pour aujourd'hui : http://www.consilium.europa.eu/ueDocs/cms_Data/docs/pressData/EN/foraff/... « The Council is expected to adopt a decision authorising the signing of an anti-counterfeiting trade agreement (ACTA) between the EU and Australia, Canada, Japan, the Republic of Korea, Mexico, Morocco, New Zealand, Singapore, Switzerland and the United States. »
2. La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA. Les commissions Affaires Juridiques (JURI) et Développement (DEVE), ainsi que la commission Libertés Publiques (LIBE), la commission Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis. Ces derniers seront envoyés à INTA pour influencer son rapport final. Voir la fiche de procédure d'ACTA : http://www.europarl.europa.eu/oeil/file.jsp?id=5924982
4. Dans son article 27.3, l'ACTA appelle à la « coopération » entre l'industrie du divertissement et les fournisseurs de service Internet. Les mêmes mécanismes sont encouragés par la Commission sous le nom de « mesures extra judiciaires » et « alternatives aux tribunaux ». Voir : https://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-versi...
5. Intermédiaires d'Internet comme les fournisseurs d'accès, de service ou les hébergeurs.
6. Voir l'analyse de l'article 23.4 par la Quadrature du Net. Il est intolérable que de telles mesures pénales soient inclues dans un « accord commercial ». De telles mesures ne devrait être débattues que dans des enceintes démocratiques. De plus, la limite entre « aider » aux infractions et fournir des liens ou indexer de l'information est particulièrement floue. Les sanctions pénales doivent être mis en place pour des infractions à « échelle commerciale ». La notion d'échelle commerciale est excessivement vaste, incluant les avantages indirects. Voir : https://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-versi...
7. Voir l'article de la FFII à ce sujet : http://acta.ffii.org/?p=904. D'après le Parlement : “Important trading partners of the EU, such as the United States, Canada, Japan, Korea and Switzerland are contracting parties to the ACTA agreement. Disclosure of the parts of the legal opinion under consideration dealing with questions 1, 2 and 3 would seriously interfere with the complex ratification procedures of the ACTA agreement and the EU’s relations with the other contracting parties, as it might prejudice the ratification procedures by these countries"
";s:7:"content";s:12972:"
Paris, 14 décembre 2011 – Les États membres de l'Union européenne – représentés par le Conseil de l'UE – adoptent aujourd'hui l'accord commercial anti-contrefaçon (ACTA) qui vise à imposer de nouvelles sanctions pénales et la censure en ligne privatisée au nom du droit d'auteur. L'ACTA est désormais entre les mains du Parlement européen, qui peut encore y faire obstacle. Les citoyens doivent s'assurer que leurs libertés en ligne seront protégées en obtenant le rejet définitif de l'ACTA.
Mise-à-jour : Le Conseil de l'UE a finalement adopté l'instrument ouvrant la voie à la signature de l'ACTA le 16 décembre 2011.
Après l'adoption de l'instrument juridique permettant sa signature par le Conseil de l'Union Européenne cet après-midi1, ACTA sera bientôt présenté devant le Parlement européen qui l'acceptera ou le rejettera dans les mois à venir, après avoir élaboré son rapport2.
Pour les États Membres et la Commission européenne, qui avec les États-Unis et le Japon ont poussé l'ACTA3, cet accord a pour but d'imposer des mesures qu'ils savent inacceptables si elles étaient normalement débattues dans les arènes démocratiques. Les États Membres vont ainsi forcer la censure privatisée du Net sous couvert de « coopération »4 entre l'industrie du divertissement et les acteurs d'Internet5. Cette transformation des acteurs d'Internet en une police privée du droit d'auteur sera rendue possible par la menace de nouvelles sanctions pénales draconiennes6.
Le processus de ratification au Parlement européen est déja entaché par l'absence de transparence. Le Parlement européen a refusé de publier l'intégralité de l'avis de ses services juridiques sur l'accord, expliquant qu'une telle publication « interférerait sérieusement avec la complexe procédure de ratification »7. Les citoyens ont désormais un rôle majeur à jouer pour s'assurer que les membres du Parlement européen feront face à leur responsabilités en rejetant l'ACTA.
« Nos gouvernements contournent les processus démocratiques pour imposer des mesures répressives draconiennes. Ils savent que de telles dispositions seraient très difficiles à faire passer par les circuits législatifs normaux, alors ils ont choisi de les imposer en douce. En privatisant la censure du Net au nom du droit d'auteur, ACTA aura un impact désastreux sur nos libertés en ligne, mais aussi sur l'innovation et le développement des entreprises de l'Internet. Le Parlement européen est notre dernier espoir de rejeter l'ACTA. Nous, citoyens, devons agir dès maintenant », déclare Jérémie Zimemrmann, co-fondateur et porte-parole de La Quadrature du Net.
1. Voir l'agenda du Conseil de l'UE pour aujourd'hui : http://www.consilium.europa.eu/ueDocs/cms_Data/docs/pressData/EN/foraff/... « The Council is expected to adopt a decision authorising the signing of an anti-counterfeiting trade agreement (ACTA) between the EU and Australia, Canada, Japan, the Republic of Korea, Mexico, Morocco, New Zealand, Singapore, Switzerland and the United States. »
2. La commission Commerce International (INTA) du Parlement européen est la principale commission travaillant sur ACTA. Les commissions Affaires Juridiques (JURI) et Développement (DEVE), ainsi que la commission Libertés Publiques (LIBE), la commission Industrie (ITRE) seront les premières à voter sur leurs rapports pour avis. Ces derniers seront envoyés à INTA pour influencer son rapport final. Voir la fiche de procédure d'ACTA : http://www.europarl.europa.eu/oeil/file.jsp?id=5924982
4. Dans son article 27.3, l'ACTA appelle à la « coopération » entre l'industrie du divertissement et les fournisseurs de service Internet. Les mêmes mécanismes sont encouragés par la Commission sous le nom de « mesures extra judiciaires » et « alternatives aux tribunaux ». Voir : https://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-versi...
5. Intermédiaires d'Internet comme les fournisseurs d'accès, de service ou les hébergeurs.
6. Voir l'analyse de l'article 23.4 par la Quadrature du Net. Il est intolérable que de telles mesures pénales soient inclues dans un « accord commercial ». De telles mesures ne devrait être débattues que dans des enceintes démocratiques. De plus, la limite entre « aider » aux infractions et fournir des liens ou indexer de l'information est particulièrement floue. Les sanctions pénales doivent être mis en place pour des infractions à « échelle commerciale ». La notion d'échelle commerciale est excessivement vaste, incluant les avantages indirects. Voir : https://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-versi...
7. Voir l'article de la FFII à ce sujet : http://acta.ffii.org/?p=904. D'après le Parlement : “Important trading partners of the EU, such as the United States, Canada, Japan, Korea and Switzerland are contracting parties to the ACTA agreement. Disclosure of the parts of the legal opinion under consideration dealing with questions 1, 2 and 3 would seriously interfere with the complex ratification procedures of the ACTA agreement and the EU’s relations with the other contracting parties, as it might prejudice the ratification procedures by these countries"
";s:7:"dateiso";s:15:"20111214_160547";}s:15:"20111209_162715";a:7:{s:5:"title";s:50:"Libertés sur Internet : halte au double-langage !";s:4:"link";s:76:"http://www.laquadrature.net/fr/libertes-sur-internet-halte-au-double-langage";s:4:"guid";s:35:"4931 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 09 Dec 2011 15:27:15 +0000";s:11:"description";s:6538:"
Paris, le 9 décembre 2011 – Les Pays-Bas organisent aujourd'hui une conférence internationale consacrée aux libertés sur Internet. Alors que les États-Unis et l'Europe se posent en défendeurs des libertés en ligne, la Quadrature rappelle que leurs politiques Internet vont à l'encontre des grands principes affichés lors de cette conférence, notamment en encourageant la censure du Net au travers de l'accord anti-contrefaçon (ACTA) et d'autres initiatives.
« Mesdames Clinton et Kroes feignent d'ignorer que les libertés en ligne sont menacées partout dans le monde, pas uniquement dans les régimes autoritaires mais aussi dans les démocraties comme l'Inde1, les pays de l'UE ou les États-Unis. Alors que dans son discours, la secrétaire d'État américaine Hillary Clinton promeut un Internet sans frontière, elle assimile les atteintes au droit d'auteur à la cybercriminalité, usant de la même rhétorique fallacieuse que les partisans des mécanismes de censure actuellement débattus au Congrès américain2. Que ce soit par l'accord ACTA3, les conclusions du G84, ou la stratégie de l'UE pour le droit d'auteur5, de nombreuses initiatives visent à confier des missions de police et de justice aux entreprises de l'Internet et aux machines qu'elles programment. Le risque d'abus est inévitable, et les conséquences pour la liberté d'expression seraient terribles. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« L'appel de la Commissaire Neelie Kroes en faveur d'une “auto-régulation” de l'industrie de la censure et de la surveillance restera sans effet sur l'exportation de ces technologies, souvent développées avec l'aide des gouvernements occidentaux eux-mêmes6. Il faut aller au-delà du double-langage, et joindre les actes à la parole en rejetant l'ACTA et les autres dispositifs de censure, et en préservant l'universalité d'Internet à travers une protection législative de la neutralité du Net. Nous voulons des actions concrètes pour protéger les libertés des citoyens, et le rejet inconditionnel de la censure automatisée et privatisée d'Internet sous couvert d'“auto-régulation”. » conclut Zimmermann.
Paris, le 9 décembre 2011 – Les Pays-Bas organisent aujourd'hui une conférence internationale consacrée aux libertés sur Internet. Alors que les États-Unis et l'Europe se posent en défendeurs des libertés en ligne, la Quadrature rappelle que leurs politiques Internet vont à l'encontre des grands principes affichés lors de cette conférence, notamment en encourageant la censure du Net au travers de l'accord anti-contrefaçon (ACTA) et d'autres initiatives.
« Mesdames Clinton et Kroes feignent d'ignorer que les libertés en ligne sont menacées partout dans le monde, pas uniquement dans les régimes autoritaires mais aussi dans les démocraties comme l'Inde1, les pays de l'UE ou les États-Unis. Alors que dans son discours, la secrétaire d'État américaine Hillary Clinton promeut un Internet sans frontière, elle assimile les atteintes au droit d'auteur à la cybercriminalité, usant de la même rhétorique fallacieuse que les partisans des mécanismes de censure actuellement débattus au Congrès américain2. Que ce soit par l'accord ACTA3, les conclusions du G84, ou la stratégie de l'UE pour le droit d'auteur5, de nombreuses initiatives visent à confier des missions de police et de justice aux entreprises de l'Internet et aux machines qu'elles programment. Le risque d'abus est inévitable, et les conséquences pour la liberté d'expression seraient terribles. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« L'appel de la Commissaire Neelie Kroes en faveur d'une “auto-régulation” de l'industrie de la censure et de la surveillance restera sans effet sur l'exportation de ces technologies, souvent développées avec l'aide des gouvernements occidentaux eux-mêmes6. Il faut aller au-delà du double-langage, et joindre les actes à la parole en rejetant l'ACTA et les autres dispositifs de censure, et en préservant l'universalité d'Internet à travers une protection législative de la neutralité du Net. Nous voulons des actions concrètes pour protéger les libertés des citoyens, et le rejet inconditionnel de la censure automatisée et privatisée d'Internet sous couvert d'“auto-régulation”. » conclut Zimmermann.
";s:7:"dateiso";s:15:"20111209_162715";}s:15:"20111209_103033";a:7:{s:5:"title";s:80:"Télé connectée : un pas vers l'interopérabilité, gare à la censure privée";s:4:"link";s:100:"http://www.laquadrature.net/fr/tele-connectee-un-pas-vers-linteroperabilite-gare-a-la-censure-privee";s:4:"guid";s:35:"4927 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 09 Dec 2011 09:30:33 +0000";s:11:"description";s:4792:"
Paris, 9 décembre 2011 - La mission de concertation sur la télévision connectée1 vient de rendre son rapport2 au gouvernement. La Quadrature du Net avait été auditionnée cet été, et avait envoyé une contribution écrite, dans laquelle l'accent était mis sur l'importance de respecter la neutralité du Net et de favoriser l'interopérabilité3.
« À quelques jours de l'audience AlloStreaming4, on peut se réjouir de voir la mission rappeler que le blocage de l'accès aux sites de streaming est absolument inefficace pour lutter contre les atteintes aux droits d'auteur. Comme le souligne le rapport, la seule solution consiste à renforcer la coopération internationale visant à obtenir le retrait de ces contenus des serveurs.
En revanche, les appels à davantage de "coopération" entre les plate-formes d'hébergement et les industries du divertissement constituent une véritable menace pour les libertés fondamentales : ce type de coopération, encouragé aussi bien par l'ACTA que par le G85, aboutit inévitablement à une censure privée et automatisée, en confiant à des machines programmées par des entreprises le soin de déterminer la licéité des contenus.
Enfin, si la mission évite de rentrer dans le débat sur la neutralité du Net, elle affiche néanmoins son soutien aux standards ouverts à l'interopérabilité des équipements. Comme nous l'avions souligné dans notre réponse à la consultation, c'est là un élément clé pour permettre aux auteurs et entreprises françaises et européennes de contrer les stratégies prédatrices d'acteurs comme Apple ou Google.», a déclaré Jérémie Zimmermann, porte-parole de La Quadrature du Net.
Paris, 9 décembre 2011 - La mission de concertation sur la télévision connectée1 vient de rendre son rapport2 au gouvernement. La Quadrature du Net avait été auditionnée cet été, et avait envoyé une contribution écrite, dans laquelle l'accent était mis sur l'importance de respecter la neutralité du Net et de favoriser l'interopérabilité3.
« À quelques jours de l'audience AlloStreaming4, on peut se réjouir de voir la mission rappeler que le blocage de l'accès aux sites de streaming est absolument inefficace pour lutter contre les atteintes aux droits d'auteur. Comme le souligne le rapport, la seule solution consiste à renforcer la coopération internationale visant à obtenir le retrait de ces contenus des serveurs.
En revanche, les appels à davantage de "coopération" entre les plate-formes d'hébergement et les industries du divertissement constituent une véritable menace pour les libertés fondamentales : ce type de coopération, encouragé aussi bien par l'ACTA que par le G85, aboutit inévitablement à une censure privée et automatisée, en confiant à des machines programmées par des entreprises le soin de déterminer la licéité des contenus.
Enfin, si la mission évite de rentrer dans le débat sur la neutralité du Net, elle affiche néanmoins son soutien aux standards ouverts à l'interopérabilité des équipements. Comme nous l'avions souligné dans notre réponse à la consultation, c'est là un élément clé pour permettre aux auteurs et entreprises françaises et européennes de contrer les stratégies prédatrices d'acteurs comme Apple ou Google.», a déclaré Jérémie Zimmermann, porte-parole de La Quadrature du Net.
";s:7:"dateiso";s:15:"20111209_103033";}s:15:"20111201_145711";a:7:{s:5:"title";s:39:"La censure du Net contre le streaming ?";s:4:"link";s:68:"http://www.laquadrature.net/fr/la-censure-du-net-contre-le-streaming";s:4:"guid";s:35:"4912 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 01 Dec 2011 13:57:11 +0000";s:11:"description";s:3818:"
Paris, 1er décembre 2011 – Plusieurs syndicats professionnels représentant les producteurs, éditeurs et les distributeurs de vidéos ont assignés en justice des fournisseurs d'accès à Internet et des plate-formes en ligne pour leur demander la censure de l'accès à plusieurs sites Internet qui proposent des contenus audiovisuels en streaming1.
« La tentation de recourir à la censure des contenus sur Internet pour combattre le streaming est une fuite en avant répressive, disproportionnée et extrêmement préoccupante sur le plan des libertés fondamentales. Cette assignation en justice n'est guère surprenante, après les annonces répétées de Nicolas Sarkozy2 faisant écho aux demandes des lobbyistes des industries transnationales de la musique et du film. De telles mesures visent à rendre acceptable la censure du Net comme outil de mise en œuvre du droit d'auteur, pour au bout du compte généraliser son utilisation. Les dommages collatéraux pour la liberté d'expression et le respect du secret des communications personnelles seraient terribles. Il existe d'autres façons de s'attaquer aux intermédiaires qui font profit de la distribution d'œuvres, mais surtout, il faut reconnaître une fois pour toutes la légitimité et l'utilité du partage entre individus, hors-marché, dont la répression conduit à l'explosion des revenus des sites de streaming.», déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
2. Nicolas Sarkozy, lors de ses vœux 2010 au monde de la culture, estimait déjà qu'il fallait « expérimenter sans délai des dispositifs de filtrage visant à dépolluer automatiquement les réseaux et serveurs de toutes sources de piratage » : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
Voir également l'article L336-2 du code de la propriété intellectuelle, créé par HADOPI, et qui autorise le juge à ordonner des mesures de filtrage.
";s:7:"content";s:3818:"
Paris, 1er décembre 2011 – Plusieurs syndicats professionnels représentant les producteurs, éditeurs et les distributeurs de vidéos ont assignés en justice des fournisseurs d'accès à Internet et des plate-formes en ligne pour leur demander la censure de l'accès à plusieurs sites Internet qui proposent des contenus audiovisuels en streaming1.
« La tentation de recourir à la censure des contenus sur Internet pour combattre le streaming est une fuite en avant répressive, disproportionnée et extrêmement préoccupante sur le plan des libertés fondamentales. Cette assignation en justice n'est guère surprenante, après les annonces répétées de Nicolas Sarkozy2 faisant écho aux demandes des lobbyistes des industries transnationales de la musique et du film. De telles mesures visent à rendre acceptable la censure du Net comme outil de mise en œuvre du droit d'auteur, pour au bout du compte généraliser son utilisation. Les dommages collatéraux pour la liberté d'expression et le respect du secret des communications personnelles seraient terribles. Il existe d'autres façons de s'attaquer aux intermédiaires qui font profit de la distribution d'œuvres, mais surtout, il faut reconnaître une fois pour toutes la légitimité et l'utilité du partage entre individus, hors-marché, dont la répression conduit à l'explosion des revenus des sites de streaming.», déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
2. Nicolas Sarkozy, lors de ses vœux 2010 au monde de la culture, estimait déjà qu'il fallait « expérimenter sans délai des dispositifs de filtrage visant à dépolluer automatiquement les réseaux et serveurs de toutes sources de piratage » : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
Voir également l'article L336-2 du code de la propriété intellectuelle, créé par HADOPI, et qui autorise le juge à ordonner des mesures de filtrage.
";s:7:"dateiso";s:15:"20111201_145711";}s:15:"20111201_104922";a:7:{s:5:"title";s:93:"RespectMyNet : les restrictions d'accès à Internet sur la table des régulateurs européens";s:4:"link";s:117:"http://www.laquadrature.net/fr/respectmynet-les-restrictions-dacces-a-internet-sur-la-table-des-regulateurs-europeens";s:4:"guid";s:35:"4910 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 01 Dec 2011 09:49:22 +0000";s:11:"description";s:7263:"
Paris, 1er décembre 2011 – La Quadrature du Net a rencontré l'office des régulateurs européens des télécoms, le BEREC, qui suite à une demande de la Commission européenne mène actuellement une étude sur les restrictions d'accès à Internet imposées par les opérateurs télécom en Europe. Grâce à la plateforme RespectMyNet.eu1 et à la participation de citoyens de toute l'Europe qui ont aidé à documenter ces pratiques illégitimes, le BEREC ne peut plus ignorer les multiples restrictions d'accès qui sapent la liberté d'expression et de communication, la vie privée, ainsi que la concurrence et l'innovation en ligne. En continuant à contribuer à RespectMyNet, les citoyens peuvent aider à faire monter la pression sur la Commission pour qu'elle légifère en faveur de la neutralité du Net.
Au printemps dernier, la Commissaire européenne à l'agenda numérique, Neelie Kroes, avait affirmé au sujet de la neutralité du Net qu'il était urgent d'attendre2 et avait demandé à l'office des régulateurs européens des communications éléctroniques (BEREC3) de mener une étude sur les restrictions d'accès imposées par les fournisseurs d'accès à Internet dans l'Union européenne. Il y a peu, le Parlement européen a quant à lui adopté une résolution, augmentant la pression sur la Commission et le BEREC, leur demandant de protéger la neutralité du Net en « évaluant le besoin d'une réglementation supplémentaire » dès que le BEREC aura conclu son étude4.
Ainsi, les travaux en cours du BEREC sur les restrictions d'accès à Internet – qui devraient être publiés en février 2012 – seront cruciaux pour l'avenir de la neutralité du Net. Si l'étude montre que les violations de la neutralité du Net sont monnaie courante, la Commission n'aura d'autre choix que de proposer une régulation au niveau de l'Union pour garantir ce principe fondateur d'Internet. Au contraire, l'absence de preuves concluantes quant à ces restrictions d'accès favorisera les opérateurs télécoms, comme AT&T et d'autres, qui lobbient sans répit depuis deux ans contre toute mesure protégeant les libertés en ligne et l'économie numérique5.
La Quadrature a rencontré le BEREC la semaine dernière, et a clairement indiqué que les atteintes signalées sur la plate-forme RespectMyNet.eu lui fournissent déjà des éléments qu'il ne peut ignorer. Les représentants du BEREC ont confirmé qu'ils utiliseraient les signalements de la plate-forme citoyenne dans le cadre de leur étude. Dans tous les cas, alors que le BEREC finalise ses travaux sur les restrictions d'accès et les pratiques discriminatoires, les citoyens de toute l'Europe doivent continuer à prendre part au débat en signalant et en confirmant les cas sur RespectMyNet.eu.
« Qu'il s'agisse du bridage de certains protocoles, du blocage de ports ou même d'applications, les restrictions d'accès à Internet signalées sur RespectMyNet.eu montrent déjà le besoin d'une réglementation imposant aux opérateurs télécoms le respect de la neutralité du Net. Le BEREC ne peut que reconnaître l'existence de ces restrictions d'accès, mais il y a encore du travail avant d'avoir un tableau complet de la situation. En aidant le BEREC à dresser la liste des restrictions au travers de RespectMyNet.eu, les citoyens peuvent forcer la Commissaire Neelie Kroes à rompre avec son approche attentiste. Chacun peut prendre part au débat en testant ses connexions fixes et mobiles, et en ajoutant ou en confirmant des signalements d'atteintes à la neutralité. Neelie Kroes sera bientôt forcée d'admettre qu'une action législative déterminée est nécessaire. » explique Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 1er décembre 2011 – La Quadrature du Net a rencontré l'office des régulateurs européens des télécoms, le BEREC, qui suite à une demande de la Commission européenne mène actuellement une étude sur les restrictions d'accès à Internet imposées par les opérateurs télécom en Europe. Grâce à la plateforme RespectMyNet.eu1 et à la participation de citoyens de toute l'Europe qui ont aidé à documenter ces pratiques illégitimes, le BEREC ne peut plus ignorer les multiples restrictions d'accès qui sapent la liberté d'expression et de communication, la vie privée, ainsi que la concurrence et l'innovation en ligne. En continuant à contribuer à RespectMyNet, les citoyens peuvent aider à faire monter la pression sur la Commission pour qu'elle légifère en faveur de la neutralité du Net.
Au printemps dernier, la Commissaire européenne à l'agenda numérique, Neelie Kroes, avait affirmé au sujet de la neutralité du Net qu'il était urgent d'attendre2 et avait demandé à l'office des régulateurs européens des communications éléctroniques (BEREC3) de mener une étude sur les restrictions d'accès imposées par les fournisseurs d'accès à Internet dans l'Union européenne. Il y a peu, le Parlement européen a quant à lui adopté une résolution, augmentant la pression sur la Commission et le BEREC, leur demandant de protéger la neutralité du Net en « évaluant le besoin d'une réglementation supplémentaire » dès que le BEREC aura conclu son étude4.
Ainsi, les travaux en cours du BEREC sur les restrictions d'accès à Internet – qui devraient être publiés en février 2012 – seront cruciaux pour l'avenir de la neutralité du Net. Si l'étude montre que les violations de la neutralité du Net sont monnaie courante, la Commission n'aura d'autre choix que de proposer une régulation au niveau de l'Union pour garantir ce principe fondateur d'Internet. Au contraire, l'absence de preuves concluantes quant à ces restrictions d'accès favorisera les opérateurs télécoms, comme AT&T et d'autres, qui lobbient sans répit depuis deux ans contre toute mesure protégeant les libertés en ligne et l'économie numérique5.
La Quadrature a rencontré le BEREC la semaine dernière, et a clairement indiqué que les atteintes signalées sur la plate-forme RespectMyNet.eu lui fournissent déjà des éléments qu'il ne peut ignorer. Les représentants du BEREC ont confirmé qu'ils utiliseraient les signalements de la plate-forme citoyenne dans le cadre de leur étude. Dans tous les cas, alors que le BEREC finalise ses travaux sur les restrictions d'accès et les pratiques discriminatoires, les citoyens de toute l'Europe doivent continuer à prendre part au débat en signalant et en confirmant les cas sur RespectMyNet.eu.
« Qu'il s'agisse du bridage de certains protocoles, du blocage de ports ou même d'applications, les restrictions d'accès à Internet signalées sur RespectMyNet.eu montrent déjà le besoin d'une réglementation imposant aux opérateurs télécoms le respect de la neutralité du Net. Le BEREC ne peut que reconnaître l'existence de ces restrictions d'accès, mais il y a encore du travail avant d'avoir un tableau complet de la situation. En aidant le BEREC à dresser la liste des restrictions au travers de RespectMyNet.eu, les citoyens peuvent forcer la Commissaire Neelie Kroes à rompre avec son approche attentiste. Chacun peut prendre part au débat en testant ses connexions fixes et mobiles, et en ajoutant ou en confirmant des signalements d'atteintes à la neutralité. Neelie Kroes sera bientôt forcée d'admettre qu'une action législative déterminée est nécessaire. » explique Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20111201_104922";}s:15:"20111129_160441";a:7:{s:5:"title";s:70:"Le Sénat défendra-t-il les droits du public minés à l'Assemblée ?";s:4:"link";s:93:"http://www.laquadrature.net/fr/le-senat-defendra-t-il-les-droits-du-public-mines-a-lassemblee";s:4:"guid";s:35:"4903 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 29 Nov 2011 15:04:41 +0000";s:11:"description";s:8171:"
Paris, 29 novembre 2011 – L'Assemblée nationale vient d'adopter le projet de loi sur la copie privée, incluant l'amendement du député Lionel Tardy limitant la capacité du public à réaliser des copies pour son usage privé. Alors qu'elle ne correspond en aucun cas à l'objectif du projet de loi, qui ne concerne que la redevance pour copie privée, cette remise en cause des droits du public laisse la porte ouverte à de nouvelles mesures répressives. La balle est désormais dans le camp de la nouvelle majorité au Sénat.
L'Assemblée nationale vient d'adopter le projet de loi sur la copie privée, un texte technique, uniquement destiné à adapter le régime de la redevance pour copie privée à une récente jurisprudence du Conseil d'État. Des décisions sur le périmètre des exceptions et de leur usage, en particulier adoptées dans l'urgence, n'y ont aucune place.
Or, le texte adopté aujourd'hui contient un amendement présenté et défendu par le député Lionel Tardy1 qui restreint l'exception pour copie privée en la conditionnant à la licéité de la source, qui est la plupart du temps impossible à déterminer. Il constitue une nouvelle remise en cause des droits du public, qui aggrave un peu plus la crise de légitimité que traverse le droit d'auteur.
« Au détour d'un texte technique sur le financement de la création, on attaque en douce les droits du public ! Par cette modification de l'exception pour copie privée 2, tout acte de copie à des fins privées serait rendu illégal, à moins que l'utilisateur ne soit en mesure de démontrer la licéité de la source utilisée. Comment déterminer dans quelles conditions une œuvre a été mise en ligne, qui l'a mise en ligne ? Avec ou sans autorisation de l'auteur et si oui, portant sur quels territoires ? Un CD prêté par son cousin est-il contrefait ? Impossible de répondre à ces questions sans une procédure complexe, ce qui en pratique créera une insécurité juridique considérable pour le public. », explique Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« Outre la négation rampante du principe même de l'exception pour copie privée, cet amendement ouvre la porte à de nouvelles politiques répressives. Afin de déterminer si les œuvres copiées proviennent de sources licites ou non, les industries du divertissement ne manqueront pas de demander de nouveaux verrous numériques destinés à la surveillance et au contrôle des usages, et de nouvelles lois dans la droite ligne des DADVSI et HADOPI. Seul le Sénat peut encore supprimer cette disposition et revenir au projet de loi présenté par le gouvernement. », déclare Jérémie Zimmermann.
Dans le cadre de son audition par le rapporteur au Sénat, André Gattolin, La Quadrature du Net a insisté sur la nécessité de revenir au projet de loi initial en supprimant cette disposition profondément attentatoire aux droits du public. Les citoyens constateront si la nouvelle majorité au Sénat défend les droits du public plutôt que les intérêts des industries du divertissement.
1. Extrait de l'intervention de Lionel Tardy sur cet amendement : « Cet amendement propose de préciser, en complément des dispositions de l’article 1er, que l’exception de copie privée ne sera exigible que sur les copies réalisées à partir d’un support licite, c’est-à-dire d’un fichier ou d’un CD acheté. Cet amendement n’est pas anodin car, quoi qu’en disent les ayants droit, la copie privée est apparue à beaucoup comme une compensation de fait pour piratage et échange illicite de fichiers sur internet. Qu’il faille traiter le problème du piratage sur internet, je n’en disconviens pas – même si je ne vois pas quelles solutions techniques on pourrait lui apporter –, mais sa résolution ne passe pas par l’exception pour copie privée. La difficulté vient justement de cette extension non assumée et de l’arrêt Padawan. Cet amendement constitue donc un coup d’arrêt à cette dérive. » http://www.assemblee-nationale.fr/13/cr-cedu/11-12/c1112011.asp#P2_66
2. Voir l'article 1er amendé par la commission des Affaires culturelles: http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ».
";s:7:"content";s:8177:"
Paris, 29 novembre 2011 – L'Assemblée nationale vient d'adopter le projet de loi sur la copie privée, incluant l'amendement du député Lionel Tardy limitant la capacité du public à réaliser des copies pour son usage privé. Alors qu'elle ne correspond en aucun cas à l'objectif du projet de loi, qui ne concerne que la redevance pour copie privée, cette remise en cause des droits du public laisse la porte ouverte à de nouvelles mesures répressives. La balle est désormais dans le camp de la nouvelle majorité au Sénat.
L'Assemblée nationale vient d'adopter le projet de loi sur la copie privée, un texte technique, uniquement destiné à adapter le régime de la redevance pour copie privée à une récente jurisprudence du Conseil d'État. Des décisions sur le périmètre des exceptions et de leur usage, en particulier adoptées dans l'urgence, n'y ont aucune place.
Or, le texte adopté aujourd'hui contient un amendement présenté et défendu par le député Lionel Tardy1 qui restreint l'exception pour copie privée en la conditionnant à la licéité de la source, qui est la plupart du temps impossible à déterminer. Il constitue une nouvelle remise en cause des droits du public, qui aggrave un peu plus la crise de légitimité que traverse le droit d'auteur.
« Au détour d'un texte technique sur le financement de la création, on attaque en douce les droits du public ! Par cette modification de l'exception pour copie privée 2, tout acte de copie à des fins privées serait rendu illégal, à moins que l'utilisateur ne soit en mesure de démontrer la licéité de la source utilisée. Comment déterminer dans quelles conditions une œuvre a été mise en ligne, qui l'a mise en ligne ? Avec ou sans autorisation de l'auteur et si oui, portant sur quels territoires ? Un CD prêté par son cousin est-il contrefait ? Impossible de répondre à ces questions sans une procédure complexe, ce qui en pratique créera une insécurité juridique considérable pour le public. », explique Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
« Outre la négation rampante du principe même de l'exception pour copie privée, cet amendement ouvre la porte à de nouvelles politiques répressives. Afin de déterminer si les œuvres copiées proviennent de sources licites ou non, les industries du divertissement ne manqueront pas de demander de nouveaux verrous numériques destinés à la surveillance et au contrôle des usages, et de nouvelles lois dans la droite ligne des DADVSI et HADOPI. Seul le Sénat peut encore supprimer cette disposition et revenir au projet de loi présenté par le gouvernement. », déclare Jérémie Zimmermann.
Dans le cadre de son audition par le rapporteur au Sénat, André Gattolin, La Quadrature du Net a insisté sur la nécessité de revenir au projet de loi initial en supprimant cette disposition profondément attentatoire aux droits du public. Les citoyens constateront si la nouvelle majorité au Sénat défend les droits du public plutôt que les intérêts des industries du divertissement.
1. Extrait de l'intervention de Lionel Tardy sur cet amendement : « Cet amendement propose de préciser, en complément des dispositions de l’article 1er, que l’exception de copie privée ne sera exigible que sur les copies réalisées à partir d’un support licite, c’est-à-dire d’un fichier ou d’un CD acheté. Cet amendement n’est pas anodin car, quoi qu’en disent les ayants droit, la copie privée est apparue à beaucoup comme une compensation de fait pour piratage et échange illicite de fichiers sur internet. Qu’il faille traiter le problème du piratage sur internet, je n’en disconviens pas – même si je ne vois pas quelles solutions techniques on pourrait lui apporter –, mais sa résolution ne passe pas par l’exception pour copie privée. La difficulté vient justement de cette extension non assumée et de l’arrêt Padawan. Cet amendement constitue donc un coup d’arrêt à cette dérive. » http://www.assemblee-nationale.fr/13/cr-cedu/11-12/c1112011.asp#P2_66
2. Voir l'article 1er amendé par la commission des Affaires culturelles: http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ».
";s:7:"dateiso";s:15:"20111129_160441";}s:15:"20111124_112317";a:7:{s:5:"title";s:102:"Cour de Justice de l'Union européenne : la censure au nom du copyright viole les droits fondamentaux";s:4:"link";s:128:"http://www.laquadrature.net/fr/cour-de-justice-de-lunion-europeenne-la-censure-au-nom-du-copyright-viole-les-droits-fondamentaux";s:4:"guid";s:35:"4887 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 24 Nov 2011 10:23:17 +0000";s:11:"description";s:8167:"
Paris, le 24 novembre 2011 — La Cour de Justice de l'Union européenne vient de rendre une décision historique dans l'affaire Scarlet Extended, cruciale pour le futur des droits et libertés sur Internet. Dans son arrêt, la Cour indique que forcer les fournisseurs d'accès Internet à surveiller et à bloquer les communications de leurs abonnés viole le droit communautaire, et notamment la liberté de communication. À l'heure d'une large offensive contre le partage de la culture en ligne, cette décision montre que les mesures de censure exigées par l'industrie du divertissement sont un moyen disproportionné et illégitime de faire appliquer un droit d'auteur dépassé. Les décideurs publics doivent prendre acte de cette décision en refusant toute fuite en avant répressive, telle qu'encouragée par l'accord anti-contrefaçon ACTA, et en s'engageant dans une véritable réforme du droit d'auteur.
Contexte : Dans cette affaire particulièrement importante, la société de gestion de droits d'auteur belge SABAM avait demandé en 2004 aux tribunaux belges d'ordonner au FAI Scarlet la mise en place de mesures de censure pour bloquer toute transmission non-autorisée d'œuvres couvertes par le droit d'auteur1. En appel, le juge belge a renvoyé la question devant la Cour de justice de l'Union européenne (CJUE), en posant aux juges européens la question suivante : « Le droit européen autorise-t-il un juge national à prononcer à l'encontre d'un FAI une injonction de filtrage de toutes les communications électroniques passant par son réseau, et ce à titre préventif ? ».
Analyse : Dans son jugement final2, la CJUE rejoint les conclusions de l'avocat général et insiste sur le fait que de telles mesures de filtrage ont des conséquences drastiques sur la liberté d'expression et la vie privée. Les juges européens indiquent aussi que ces mesures violent l'interdiction faite par la directive eCommerce d'obliger les FAI à se livrer à la surveillance généralisée des communications de leurs utilisateurs.
Conséquence : Le jugement de la CJUE aura des conséquences cruciales sur le droit de l'Internet dans toute l'Europe, en particulier à l'heure où le Parlement européen entame ses travaux sur le vote de consentement à l'ACTA et alors que la Commission travaille à la révision de la directive d'application du droit d'auteur (IPRED).
« Alors que la guerre contre le partage de la culture est plus féroce que jamais, cet arrêt de la CJUE vient à point nommé. Après l'arrêt Promusicae3, il s'agit d'un nouveau revers pour la Commission européenne, qui appelait de ses vœux ces systèmes de filtrage voulus par les industries du divertissement4. Cet arrêt rappelle qu'au lieu d'encourager une escalade répressive, les décideurs publics européens doivent engager une véritable réforme du droit d'auteur, à même de protéger les libertés des citoyens. Le rejet d'ACTA et des autres mesures extrémistes imposées au nom du droit d'auteur constituerait une première étape. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature Net.
Au-delà du droit d'auteur, cette décision souligne également les dangers du filtrage du Net et appelle à d'importants débats démocratiques sur leur caractère disproportionné.
« Après le rapport du rapporteur spécial pour la liberté d'expression de l'ONU pointant du doigt les dangers de la censure du Net, ce jugement est un nouveau rappel à l'ordre. Il faut mettre un terme à l'extension continue du filtrage à de nouveaux domaines, et les législateurs européens doivent abroger toutes les mesures de contrôle d'Internet contraires aux libertés fondamentales. », conclut Jérémie Zimmermann.
4. Voir notre analyse des documents de travail de la Commission sur la révision de la directive IPRED : http://www.laquadrature.net/fr/lqdn-repond-a-la-consultation-ipred
La Commission explique : “injunctions often tend to be ‘title specific’. Rights-holders therefore have to provide a full list of titles when asking for an injunction and the injunction will normally relate only to the indicated titles, while infringements with a view to titles not contained in the list can continue.” Thus, the Commission is proposing to generalize the wide censorship scheme ordered by the first instance judge in the SABAM case by eroding the liability exemptions enjoyed by technical intermediary.
";s:7:"content";s:8170:"
Paris, le 24 novembre 2011 — La Cour de Justice de l'Union européenne vient de rendre une décision historique dans l'affaire Scarlet Extended, cruciale pour le futur des droits et libertés sur Internet. Dans son arrêt, la Cour indique que forcer les fournisseurs d'accès Internet à surveiller et à bloquer les communications de leurs abonnés viole le droit communautaire, et notamment la liberté de communication. À l'heure d'une large offensive contre le partage de la culture en ligne, cette décision montre que les mesures de censure exigées par l'industrie du divertissement sont un moyen disproportionné et illégitime de faire appliquer un droit d'auteur dépassé. Les décideurs publics doivent prendre acte de cette décision en refusant toute fuite en avant répressive, telle qu'encouragée par l'accord anti-contrefaçon ACTA, et en s'engageant dans une véritable réforme du droit d'auteur.
Contexte : Dans cette affaire particulièrement importante, la société de gestion de droits d'auteur belge SABAM avait demandé en 2004 aux tribunaux belges d'ordonner au FAI Scarlet la mise en place de mesures de censure pour bloquer toute transmission non-autorisée d'œuvres couvertes par le droit d'auteur1. En appel, le juge belge a renvoyé la question devant la Cour de justice de l'Union européenne (CJUE), en posant aux juges européens la question suivante : « Le droit européen autorise-t-il un juge national à prononcer à l'encontre d'un FAI une injonction de filtrage de toutes les communications électroniques passant par son réseau, et ce à titre préventif ? ».
Analyse : Dans son jugement final2, la CJUE rejoint les conclusions de l'avocat général et insiste sur le fait que de telles mesures de filtrage ont des conséquences drastiques sur la liberté d'expression et la vie privée. Les juges européens indiquent aussi que ces mesures violent l'interdiction faite par la directive eCommerce d'obliger les FAI à se livrer à la surveillance généralisée des communications de leurs utilisateurs.
Conséquence : Le jugement de la CJUE aura des conséquences cruciales sur le droit de l'Internet dans toute l'Europe, en particulier à l'heure où le Parlement européen entame ses travaux sur le vote de consentement à l'ACTA et alors que la Commission travaille à la révision de la directive d'application du droit d'auteur (IPRED).
« Alors que la guerre contre le partage de la culture est plus féroce que jamais, cet arrêt de la CJUE vient à point nommé. Après l'arrêt Promusicae3, il s'agit d'un nouveau revers pour la Commission européenne, qui appelait de ses vœux ces systèmes de filtrage voulus par les industries du divertissement4. Cet arrêt rappelle qu'au lieu d'encourager une escalade répressive, les décideurs publics européens doivent engager une véritable réforme du droit d'auteur, à même de protéger les libertés des citoyens. Le rejet d'ACTA et des autres mesures extrémistes imposées au nom du droit d'auteur constituerait une première étape. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature Net.
Au-delà du droit d'auteur, cette décision souligne également les dangers du filtrage du Net et appelle à d'importants débats démocratiques sur leur caractère disproportionné.
« Après le rapport du rapporteur spécial pour la liberté d'expression de l'ONU pointant du doigt les dangers de la censure du Net, ce jugement est un nouveau rappel à l'ordre. Il faut mettre un terme à l'extension continue du filtrage à de nouveaux domaines, et les législateurs européens doivent abroger toutes les mesures de contrôle d'Internet contraires aux libertés fondamentales. », conclut Jérémie Zimmermann.
4. Voir notre analyse des documents de travail de la Commission sur la révision de la directive IPRED : http://www.laquadrature.net/fr/lqdn-repond-a-la-consultation-ipred
La Commission explique : “injunctions often tend to be ‘title specific’. Rights-holders therefore have to provide a full list of titles when asking for an injunction and the injunction will normally relate only to the indicated titles, while infringements with a view to titles not contained in the list can continue.” Thus, the Commission is proposing to generalize the wide censorship scheme ordered by the first instance judge in the SABAM case by eroding the liability exemptions enjoyed by technical intermediary.
";s:7:"dateiso";s:15:"20111124_112317";}s:15:"20111123_095756";a:7:{s:5:"title";s:79:"Privés de copie ! Les droits du public discrètement laminés à l'Assemblée";s:4:"link";s:101:"http://www.laquadrature.net/fr/prives-de-copie-les-droits-du-public-discretement-lamines-a-lassemblee";s:4:"guid";s:35:"4882 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 23 Nov 2011 08:57:56 +0000";s:11:"description";s:4595:"
Paris, le 23 novembre 2011 – Les députés profitent du projet de loi sur la rémunération pour copie privée, examiné en toute urgence, pour sonner l'arrêt de mort de l'exception pour copie privée. Sous prétexte de sauver la collecte des fonds, les députés ont au passage redéfini à la baisse les droits du public. En cédant une fois de plus à la pression des lobbies du disque et du film, l'Assemblée poursuit ainsi la politique répressive de Nicolas Sarkozy contre Internet et les nouvelles pratiques culturelles.
L'examen en urgence du projet de loi relatif à la rémunération pour copie privée commence, mercredi 23 novembre, à l'Assemblée Nationale. Au prétexte de s'adapter à une jurisprudence limitant l'assiette de la collecte des redevances, le texte a d'ores-et-déja été amendé pour restreindre drastiquement le périmètre de l'exception pour copie privée1.
En introduisant la notion de « licéité de la source », les députés imposent que chacun, pour faire une copie en vue d'un usage privé, se livre à une analyse juridique basée sur des éléments la plupart du temps impossibles à déterminer. La source utilisée pour réaliser l'acte de copie privée était-elle licite ? S'il s'agit d'une diffusion sur Internet, qui l'a mise en ligne ? Cette personne avait-elle une autorisation de l'auteur ? etc. Autant de questions qui n'auront jamais de réponse en pratique, et qui rendront par défaut la copie illicite.
« Restreindre l'exception de copie privée en modifiant l'article 122-5 du code de la PI est un véritable cavalier législatif contre les droits du public. On prend prétexte de l'urgence de ne pas interrompre une collecte de fonds pour poursuivre sans aucun débat la guerre contre tout droit d'usage culturel hors marché. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« Au nom de la rémunération pour copie privée, on veut nous priver de copie ! Une telle négation des droits du public est cohérente avec la politique menée au cours de ces dernières années pour transformer le droit d'auteur en un droit de répression des pratiques culturelles, à la solde des lobbies industriels. Au travers de ces manœuvres, c'est le droit d'auteur dans son ensemble qui perd sa légitimité. » conclut Jérémie Zimmermann, co-fondateur de La Quadrature du Net.
1. Voir l'article 1er amendé par la commission des Affaires culturelles: http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ».
";s:7:"content";s:4595:"
Paris, le 23 novembre 2011 – Les députés profitent du projet de loi sur la rémunération pour copie privée, examiné en toute urgence, pour sonner l'arrêt de mort de l'exception pour copie privée. Sous prétexte de sauver la collecte des fonds, les députés ont au passage redéfini à la baisse les droits du public. En cédant une fois de plus à la pression des lobbies du disque et du film, l'Assemblée poursuit ainsi la politique répressive de Nicolas Sarkozy contre Internet et les nouvelles pratiques culturelles.
L'examen en urgence du projet de loi relatif à la rémunération pour copie privée commence, mercredi 23 novembre, à l'Assemblée Nationale. Au prétexte de s'adapter à une jurisprudence limitant l'assiette de la collecte des redevances, le texte a d'ores-et-déja été amendé pour restreindre drastiquement le périmètre de l'exception pour copie privée1.
En introduisant la notion de « licéité de la source », les députés imposent que chacun, pour faire une copie en vue d'un usage privé, se livre à une analyse juridique basée sur des éléments la plupart du temps impossibles à déterminer. La source utilisée pour réaliser l'acte de copie privée était-elle licite ? S'il s'agit d'une diffusion sur Internet, qui l'a mise en ligne ? Cette personne avait-elle une autorisation de l'auteur ? etc. Autant de questions qui n'auront jamais de réponse en pratique, et qui rendront par défaut la copie illicite.
« Restreindre l'exception de copie privée en modifiant l'article 122-5 du code de la PI est un véritable cavalier législatif contre les droits du public. On prend prétexte de l'urgence de ne pas interrompre une collecte de fonds pour poursuivre sans aucun débat la guerre contre tout droit d'usage culturel hors marché. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« Au nom de la rémunération pour copie privée, on veut nous priver de copie ! Une telle négation des droits du public est cohérente avec la politique menée au cours de ces dernières années pour transformer le droit d'auteur en un droit de répression des pratiques culturelles, à la solde des lobbies industriels. Au travers de ces manœuvres, c'est le droit d'auteur dans son ensemble qui perd sa légitimité. » conclut Jérémie Zimmermann, co-fondateur de La Quadrature du Net.
1. Voir l'article 1er amendé par la commission des Affaires culturelles: http://www.assemblee-nationale.fr/13/ta-commission/r3953-a0.asp
Le 2° de l'article 122-5 modifié dispose que, lorsque l'œuvre a été divulguée, l'auteur ne peut interdire (...) « les copies ou reproductions réalisées à partir d'une source licite et strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective, à l'exception des copies des œuvres d'art destinées à être utilisées pour des fins identiques à celles pour lesquelles l'œuvre originale a été créée et des copies d'un logiciel autres que la copie de sauvegarde établie dans les conditions prévues au II de l'article L. 122-6-1 ainsi que des copies ou des reproductions d'une base de données électronique ».
";s:7:"dateiso";s:15:"20111123_095756";}s:15:"20111118_091113";a:7:{s:5:"title";s:76:"La culture selon Sarkozy : aveuglement numérique et mépris pour les droits";s:4:"link";s:103:"http://www.laquadrature.net/fr/la-culture-selon-sarkozy-aveuglement-numerique-et-mepris-pour-les-droits";s:4:"guid";s:35:"4871 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 18 Nov 2011 08:11:13 +0000";s:11:"description";s:6001:"
Paris, le 18 Novembre 2011 – À l'occasion du Forum d'Avignon sur la culture, l'économie et les médias, Nicolas Sarkozy tente aujourd'hui un tour de passe-passe : se faire passer pour le défenseur de la culture numérique et d'Internet. La Quadrature du Net rappelle le bilan désastreux des politiques effectivement conduites, et appelle les citoyens à en juger à travers les votes à venir au Conseil de l'UE et au Parlement européen, notamment concernant l'accord anti-contrefaçon ACTA.
Reconnu internationalement comme ayant conduit la pire politique des pays développés à l'égard des libertés, des droits et de la culture numériques1, Nicolas Sarkozy se présente, comme il avait déjà tenté de le faire lors de l'eG8 de mai dernier2, en défenseur équilibré d'Internet et du droit d'auteur.
HADOPI, filtrage du Net3, intimidation constante pour stigmatiser le partage culturel sans but de profit, réduction à l'économie de toutes les activités immatérielles4, servilité à l'égard des lobbies des médias dominants, ont été des constantes de l'ensemble de la politique menée ces dernières années.
Cette politique s'est développée sur fond de méconnaissance de la réalité du partage hors marché qui se développe chaque jour sur Internet, méconnaissance hélas également souvent présente dans d'autres segments de la classe politique.
Les politiques culturelles conduites par Nicolas Sarkozy dans le champ numérique servent un club d'intérêts : au nom du droit d'auteur, on a constamment pris des mesures qui favorisent les groupes de médias proches du président et n'apportent ni ressources, ni capacités nouvelles aux auteurs et contributeurs qui font vivre la culture.
« On a décrit Nicolas Sarkozy comme le président des riches, mais il restera aussi comme le président des médias du passé, du refus de l'innovation dans les politiques du droit d'auteur et de la culture. Avec la marchandisation sans frein du domaine public et le refus des pratiques hors marché des individus, le président de “l'Internet civilisé” ignore la culture numérique. », déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« La culture, la vraie, est celle qui s'épanouit et s'embellit dans le partage. La culture pour Sarkozy, ce sont les œuvres formatées que de grands groupes industriels imposent en verrouillant la distribution. Nous sommes tous responsables de la protection de l'Internet libre comme outil essentiel de la diversité culturelle et de la rencontre des auteurs, des artistes et du public. », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
1. Quelques développements récents aux États-Unis comme la loi SOPA lui disputent ce trophée.
3. Nicolas Sarkozy, lors de ses vœux 2010 au monde de la culture, estimait déjà qu'il fallait « expérimenter sans délai des dispositifs de filtrage visant à dépolluer automatiquement les réseaux et serveurs de toutes sources de piratage » : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
Voir également l'article L336-2 du code de la propriété intellectuelle, créé par HADOPI, et qui autorise le juge à ordonner des mesures de filtrage.
4. Pour s'en convaincre, voir l'action du secrétariat d'État à l'économie numérique et la composition du Conseil national du numérique.
";s:7:"content";s:6001:"
Paris, le 18 Novembre 2011 – À l'occasion du Forum d'Avignon sur la culture, l'économie et les médias, Nicolas Sarkozy tente aujourd'hui un tour de passe-passe : se faire passer pour le défenseur de la culture numérique et d'Internet. La Quadrature du Net rappelle le bilan désastreux des politiques effectivement conduites, et appelle les citoyens à en juger à travers les votes à venir au Conseil de l'UE et au Parlement européen, notamment concernant l'accord anti-contrefaçon ACTA.
Reconnu internationalement comme ayant conduit la pire politique des pays développés à l'égard des libertés, des droits et de la culture numériques1, Nicolas Sarkozy se présente, comme il avait déjà tenté de le faire lors de l'eG8 de mai dernier2, en défenseur équilibré d'Internet et du droit d'auteur.
HADOPI, filtrage du Net3, intimidation constante pour stigmatiser le partage culturel sans but de profit, réduction à l'économie de toutes les activités immatérielles4, servilité à l'égard des lobbies des médias dominants, ont été des constantes de l'ensemble de la politique menée ces dernières années.
Cette politique s'est développée sur fond de méconnaissance de la réalité du partage hors marché qui se développe chaque jour sur Internet, méconnaissance hélas également souvent présente dans d'autres segments de la classe politique.
Les politiques culturelles conduites par Nicolas Sarkozy dans le champ numérique servent un club d'intérêts : au nom du droit d'auteur, on a constamment pris des mesures qui favorisent les groupes de médias proches du président et n'apportent ni ressources, ni capacités nouvelles aux auteurs et contributeurs qui font vivre la culture.
« On a décrit Nicolas Sarkozy comme le président des riches, mais il restera aussi comme le président des médias du passé, du refus de l'innovation dans les politiques du droit d'auteur et de la culture. Avec la marchandisation sans frein du domaine public et le refus des pratiques hors marché des individus, le président de “l'Internet civilisé” ignore la culture numérique. », déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« La culture, la vraie, est celle qui s'épanouit et s'embellit dans le partage. La culture pour Sarkozy, ce sont les œuvres formatées que de grands groupes industriels imposent en verrouillant la distribution. Nous sommes tous responsables de la protection de l'Internet libre comme outil essentiel de la diversité culturelle et de la rencontre des auteurs, des artistes et du public. », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
1. Quelques développements récents aux États-Unis comme la loi SOPA lui disputent ce trophée.
3. Nicolas Sarkozy, lors de ses vœux 2010 au monde de la culture, estimait déjà qu'il fallait « expérimenter sans délai des dispositifs de filtrage visant à dépolluer automatiquement les réseaux et serveurs de toutes sources de piratage » : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
Voir également l'article L336-2 du code de la propriété intellectuelle, créé par HADOPI, et qui autorise le juge à ordonner des mesures de filtrage.
4. Pour s'en convaincre, voir l'action du secrétariat d'État à l'économie numérique et la composition du Conseil national du numérique.
";s:7:"dateiso";s:15:"20111118_091113";}s:15:"20111117_125703";a:7:{s:5:"title";s:70:"Le Parlement européen vote massivement en faveur d'un Internet neutre";s:4:"link";s:99:"http://www.laquadrature.net/fr/le-parlement-europeen-vote-massivement-en-faveur-dun-internet-neutre";s:4:"guid";s:35:"4866 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 17 Nov 2011 11:57:03 +0000";s:11:"description";s:7781:"
Paris, le 17 novembre 2011 – Le Parlement européen a aujourd'hui massivement adopté sa résolution sur la neutralité du Net appelant la Commission européenne à protéger Internet, qui est aujourd'hui sous la menace d'un nombre croissant de restrictions imposées par les opérateurs télécom. Cette résolution globalement positive demande instamment à la Commissaire européenne Neelie Kroes d'abandonner sa position attentiste vouée à l'échec en évaluant rapidement le besoin de régulation plus poussée pour préserver l'Internet libre et ouvert. Ce vote représente un engagement politique de la part du Parlement européen en faveur de la protection d'Internet contre toute forme de restriction ou de censure.
L'adoption par le Parlement européen d'une résolution sur la neutralité du Net1 vient à point nommé, alors que la Commissaire européenne à l'Agenda numérique Neelie Kroes continue de nier2 les restrictions illégitimes que les opérateurs télécoms imposent de par l'Europe, et mises en évidence sur la plate-forme de signalement RespectMyNet.
Ce vote est également un signal envoyé au BEREC — l'organe des régulateurs européens des télécoms qui doit prochainement rendre son rapport très attendu sur les atteintes à la neutralité du Net3 — les eurodéputés ayant rappelé les dangers que font peser les restrictions d'accès sur la liberté de communication ainsi que sur la concurrence et l'innovation dans l'économie numérique.
Bien que la résolution contienne certaines failles4, il s'agit d'un engagement politique fort en faveur de l'Internet neutre. En particulier, le Parlement exige de la Commission qu'elle évalue rapidement le besoin de nouvelle réglementation pour protéger la neutralité du Net, et ce dès que BEREC aura conclu son étude5.
« Les opérateurs télécom européens violent déjà allégrement6 la neutralité du Net en restreignant l'accès à Internet de manière totalement illégitime. Si la Commissaire Neelie Kroes est réellement attachée à la défense de la liberté d'expression, comme elle l'a affirmé dans le passé, elle doit agir en conséquence en imposant par la loi la neutralité du Net, comme cela a été fait aux Pays-Bas. Le vote massif du Parlement européen fait clairement monter la pression sur la Commission pour qu'elle garantisse la concurrence, l'innovation ainsi que la liberté d'expression et la vie privée des citoyens. Alors que le Parlement européen s'engage à défendre l'universalité du Net, il doit maintenant aller plus loin en continuant d'appeler à une réglementation effective et en rejetant toute tentative d'imposer des restrictions d'accès ou une censure au nom d'un régime du droit d'auteur dépassé, comme l'ACTA. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
5. La résolution appelle la Commission à « veiller à ce que les fournisseurs de services internet ne puissent bloquer, défavoriser, affecter ou amoindrir la capacité de chacun à utiliser un service en vue d'accéder à tout contenu, application ou service mis à disposition via Internet, de l'utiliser, de le transmettre, de le poster, de le recevoir ou de le proposer, quelle qu'en soit la source ou la cible ».
Paris, le 17 novembre 2011 – Le Parlement européen a aujourd'hui massivement adopté sa résolution sur la neutralité du Net appelant la Commission européenne à protéger Internet, qui est aujourd'hui sous la menace d'un nombre croissant de restrictions imposées par les opérateurs télécom. Cette résolution globalement positive demande instamment à la Commissaire européenne Neelie Kroes d'abandonner sa position attentiste vouée à l'échec en évaluant rapidement le besoin de régulation plus poussée pour préserver l'Internet libre et ouvert. Ce vote représente un engagement politique de la part du Parlement européen en faveur de la protection d'Internet contre toute forme de restriction ou de censure.
L'adoption par le Parlement européen d'une résolution sur la neutralité du Net1 vient à point nommé, alors que la Commissaire européenne à l'Agenda numérique Neelie Kroes continue de nier2 les restrictions illégitimes que les opérateurs télécoms imposent de par l'Europe, et mises en évidence sur la plate-forme de signalement RespectMyNet.
Ce vote est également un signal envoyé au BEREC — l'organe des régulateurs européens des télécoms qui doit prochainement rendre son rapport très attendu sur les atteintes à la neutralité du Net3 — les eurodéputés ayant rappelé les dangers que font peser les restrictions d'accès sur la liberté de communication ainsi que sur la concurrence et l'innovation dans l'économie numérique.
Bien que la résolution contienne certaines failles4, il s'agit d'un engagement politique fort en faveur de l'Internet neutre. En particulier, le Parlement exige de la Commission qu'elle évalue rapidement le besoin de nouvelle réglementation pour protéger la neutralité du Net, et ce dès que BEREC aura conclu son étude5.
« Les opérateurs télécom européens violent déjà allégrement6 la neutralité du Net en restreignant l'accès à Internet de manière totalement illégitime. Si la Commissaire Neelie Kroes est réellement attachée à la défense de la liberté d'expression, comme elle l'a affirmé dans le passé, elle doit agir en conséquence en imposant par la loi la neutralité du Net, comme cela a été fait aux Pays-Bas. Le vote massif du Parlement européen fait clairement monter la pression sur la Commission pour qu'elle garantisse la concurrence, l'innovation ainsi que la liberté d'expression et la vie privée des citoyens. Alors que le Parlement européen s'engage à défendre l'universalité du Net, il doit maintenant aller plus loin en continuant d'appeler à une réglementation effective et en rejetant toute tentative d'imposer des restrictions d'accès ou une censure au nom d'un régime du droit d'auteur dépassé, comme l'ACTA. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
5. La résolution appelle la Commission à « veiller à ce que les fournisseurs de services internet ne puissent bloquer, défavoriser, affecter ou amoindrir la capacité de chacun à utiliser un service en vue d'accéder à tout contenu, application ou service mis à disposition via Internet, de l'utiliser, de le transmettre, de le poster, de le recevoir ou de le proposer, quelle qu'en soit la source ou la cible ».
";s:7:"dateiso";s:15:"20111117_125703";}s:15:"20111116_151407";a:7:{s:5:"title";s:69:"Stoppons la censure du Net aux US avant qu'ACTA ne l'impose en Europe";s:4:"link";s:98:"http://www.laquadrature.net/fr/stoppons-la-censure-du-net-aux-us-avant-quacta-ne-limpose-en-europe";s:4:"guid";s:35:"4862 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 16 Nov 2011 14:14:07 +0000";s:11:"description";s:7796:"
Paris, le 16 novembre 2011 – La Quadrature du Net se joint à d'importantes organisations de la société civile de par le monde à l'occasion d'une lettre envoyée à la Chambre des représentants des États-Unis pour dénoncer le projet de loi Stop Online Piracy Act (SOPA). SOPA vise a créer une censure globale d'Internet au nom d'un régime du droit d'auteur dépassé. Si cette dangereuse législation était adoptée aux États-Unis, elle deviendrait la norme mondiale dans la guerre contre le partage de la culture, avec l'Accord Commercial Anti-Contrefaçon (ACTA) comme vecteur. Alors que l'Union européenne entame les débats sur la ratification d'ACTA, les citoyens doivent se mobiliser pour défendre leurs libertés en appelant au rejet de cette impitoyable répression en ligne.
Dans une lettre envoyée au Président de la commission des Affaires juridiques de la Chambre des représentants des États-Unis1, plus de 40 organisations de la société civile critiquent le Stop Online Piracy Act (SOPA), et son équivalent au Sénat américain, le Protect IP Act (PIPA). Ces deux projets visent à créer un mécanisme de censure basé sur la saisie des noms de domaines de sites web suspectés d'enfreindre le droit d'auteur, et violeraient le droit à un procès équitable avec d'inévitables « dégâts collatéraux » pour la liberté d'expression.
Dès notification par les industries du divertissement, les moteurs de recherche ainsi que les prestataires de services de paiement et les annonceurs publicitaires se verraient également interdits de fournir des services ou de contracter avec les sites visés, et ce sans aucune intervention judiciaire2. Comme le fait remarquer le professeur de droit Yochai Benkler3, SOPA et PIPA cherchent à légaliser le type de méthodes de censure utilisées contre WikiLeaks fin 2010, transposant dans le domaine civil des mesures auparavant réservées à l'anti-terrorisme4.
« Des mesures de censure du Net aussi vastes et disproportionnées au nom du droit d'auteur sont la conséquence directe de la guerre globale des industries du divertissement contre le partage sur Internet, dont l'OCDE et le G8 se font désormais le relais5. Alors que la Commission européenne et les États Membres de l'Union européenne poussent à la ratification de l'ACTA pour intensifier la guerre contre le partage, il est clair que les mesures inclues dans SOPA et PIPA seront bientôt discutées en Europe si rien n'est fait pour les arrêter. En effet, le chapitre numérique de l'ACTA vise à exercer des pressions sur les acteurs d'Internet pour qu'ils “coopèrent” avec les ayants droit, et serait l'instrument idéal pour faire adopter des mesures aussi draconiennes6. Les citoyens doivent agir et faire entendre leur voix ! », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, le 16 novembre 2011 – La Quadrature du Net se joint à d'importantes organisations de la société civile de par le monde à l'occasion d'une lettre envoyée à la Chambre des représentants des États-Unis pour dénoncer le projet de loi Stop Online Piracy Act (SOPA). SOPA vise a créer une censure globale d'Internet au nom d'un régime du droit d'auteur dépassé. Si cette dangereuse législation était adoptée aux États-Unis, elle deviendrait la norme mondiale dans la guerre contre le partage de la culture, avec l'Accord Commercial Anti-Contrefaçon (ACTA) comme vecteur. Alors que l'Union européenne entame les débats sur la ratification d'ACTA, les citoyens doivent se mobiliser pour défendre leurs libertés en appelant au rejet de cette impitoyable répression en ligne.
Dans une lettre envoyée au Président de la commission des Affaires juridiques de la Chambre des représentants des États-Unis1, plus de 40 organisations de la société civile critiquent le Stop Online Piracy Act (SOPA), et son équivalent au Sénat américain, le Protect IP Act (PIPA). Ces deux projets visent à créer un mécanisme de censure basé sur la saisie des noms de domaines de sites web suspectés d'enfreindre le droit d'auteur, et violeraient le droit à un procès équitable avec d'inévitables « dégâts collatéraux » pour la liberté d'expression.
Dès notification par les industries du divertissement, les moteurs de recherche ainsi que les prestataires de services de paiement et les annonceurs publicitaires se verraient également interdits de fournir des services ou de contracter avec les sites visés, et ce sans aucune intervention judiciaire2. Comme le fait remarquer le professeur de droit Yochai Benkler3, SOPA et PIPA cherchent à légaliser le type de méthodes de censure utilisées contre WikiLeaks fin 2010, transposant dans le domaine civil des mesures auparavant réservées à l'anti-terrorisme4.
« Des mesures de censure du Net aussi vastes et disproportionnées au nom du droit d'auteur sont la conséquence directe de la guerre globale des industries du divertissement contre le partage sur Internet, dont l'OCDE et le G8 se font désormais le relais5. Alors que la Commission européenne et les États Membres de l'Union européenne poussent à la ratification de l'ACTA pour intensifier la guerre contre le partage, il est clair que les mesures inclues dans SOPA et PIPA seront bientôt discutées en Europe si rien n'est fait pour les arrêter. En effet, le chapitre numérique de l'ACTA vise à exercer des pressions sur les acteurs d'Internet pour qu'ils “coopèrent” avec les ayants droit, et serait l'instrument idéal pour faire adopter des mesures aussi draconiennes6. Les citoyens doivent agir et faire entendre leur voix ! », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20111116_151407";}s:15:"20111109_154016";a:7:{s:5:"title";s:100:"Le Parlement européen retourne sa veste et abandonne la défense des communications sans-fil libres";s:4:"link";s:129:"http://www.laquadrature.net/fr/le-parlement-europeen-retourne-sa-veste-et-abandonne-la-defense-des-communications-sans-fil-libres";s:4:"guid";s:35:"4853 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 09 Nov 2011 14:40:16 +0000";s:11:"description";s:11848:"
Paris, le 9 novembre 2011 — Le Parlement européen a cédé face aux États membres lors des discussions sur l'avenir des communication sans-fil en acceptant une version fortement edulcorée du programme de politique du spectre radioéléctrique. Au printemps dernier, le Parlement avait mis sur la table des propositions constructives en faveur de l'ouverture du spectre radio, en appelant1 au développement de réseaux sans-fils contrôlés par les citoyens. Malheureusement, ce premier effort d'harmonisation des politiques européennes du spectre est bloqué par le conservatisme des gouvernements de l'Union européenne et la résignation coupable du Parlement.
Jeudi2, la commission « Industrie » du Parlement européen (ITRE) devrait finaliser les débats sur le premier Programme de Politique du Spectre Radio3, en acceptant les mauvais amendements proposés par les gouvernements nationaux4. Les États membres refusent toute politique européenne les engageant à libérer les ondes radio et encourageant les utilisations citoyennes du spectre5. Ce faisant, ils retardent le développement d'une réelle concurrence, de l'innovation et de meilleurs accès sans-fil à Internet. Les réels bénéficiaires du contrôle étatique sur cette ressource publique cruciale seront les opérateurs télécoms dominants qui pourront ainsi consolider leur mainmise sur les ondes radio.
Le Parlement a entamé les négociations avec un appel fort en faveur de l'ouverture du spectre aux innovateurs et aux entrepreneurs. Au printemps, les eurodéputés avaient adopté6 d'importants amendements appelant la Commission et les États Membres à autoriser la création de « super réseaux Wi-Fi » en élargissant l'utilisation non soumise à licence du spectre7, notamment dans les « espaces blancs » (les bandes de fréquences attribuées aux radios et télé-diffuseurs mais non utilisées)8. Cela aurait permis de rendre plus ouvert et plus abordable l'accès à internet sans-fil, lequel est actuellement l'objet de dangereuses restrictions imposées par les opérateurs télécom9.
« Alors que les États membres proposent un mauvais compromis, le Parlement refuse de se battre et préfère céder10, renonçant ainsi à défendre les intérêts des citoyens. Au moment où les États-Unis sont sur le point d'achever la mise en place d'un cadre réglementaire pour les communications sans-fil ouvertes11, l'Europe va prendre du retard à cause du manque de courage politique du Parlement et du conservatisme de nos gouvernements. L'Union européenne est en train de passer à côté d'une occasion unique de promouvoir le développement d'un Internet sans-fil décentralisé, d’accélérer l'innovation et de lutter contre la fracture numérique. Au lieu de cela, elle fait le jeu des opérateurs télécoms dominants qui cherchent à contrôler les communications sans-fil. », déclare Félix Tréguer, chargé des affaires juridiques et institutionnelles à La Quadrature du Net.
5. Voir notre analyse des amendements de compromis sur le spectre ouvert : https://www.laquadrature.net/wiki/RSPP_Compromise (anglais).
Les États Membres ont retiré « sans-licence » (“unlicensed”) et introduit le terme « lorsque approprié » (“where appropriate”) dans un amendement très important, le rendant de ce fait inopérant et non contraignant.
Paris, le 9 novembre 2011 — Le Parlement européen a cédé face aux États membres lors des discussions sur l'avenir des communication sans-fil en acceptant une version fortement edulcorée du programme de politique du spectre radioéléctrique. Au printemps dernier, le Parlement avait mis sur la table des propositions constructives en faveur de l'ouverture du spectre radio, en appelant1 au développement de réseaux sans-fils contrôlés par les citoyens. Malheureusement, ce premier effort d'harmonisation des politiques européennes du spectre est bloqué par le conservatisme des gouvernements de l'Union européenne et la résignation coupable du Parlement.
Jeudi2, la commission « Industrie » du Parlement européen (ITRE) devrait finaliser les débats sur le premier Programme de Politique du Spectre Radio3, en acceptant les mauvais amendements proposés par les gouvernements nationaux4. Les États membres refusent toute politique européenne les engageant à libérer les ondes radio et encourageant les utilisations citoyennes du spectre5. Ce faisant, ils retardent le développement d'une réelle concurrence, de l'innovation et de meilleurs accès sans-fil à Internet. Les réels bénéficiaires du contrôle étatique sur cette ressource publique cruciale seront les opérateurs télécoms dominants qui pourront ainsi consolider leur mainmise sur les ondes radio.
Le Parlement a entamé les négociations avec un appel fort en faveur de l'ouverture du spectre aux innovateurs et aux entrepreneurs. Au printemps, les eurodéputés avaient adopté6 d'importants amendements appelant la Commission et les États Membres à autoriser la création de « super réseaux Wi-Fi » en élargissant l'utilisation non soumise à licence du spectre7, notamment dans les « espaces blancs » (les bandes de fréquences attribuées aux radios et télé-diffuseurs mais non utilisées)8. Cela aurait permis de rendre plus ouvert et plus abordable l'accès à internet sans-fil, lequel est actuellement l'objet de dangereuses restrictions imposées par les opérateurs télécom9.
« Alors que les États membres proposent un mauvais compromis, le Parlement refuse de se battre et préfère céder10, renonçant ainsi à défendre les intérêts des citoyens. Au moment où les États-Unis sont sur le point d'achever la mise en place d'un cadre réglementaire pour les communications sans-fil ouvertes11, l'Europe va prendre du retard à cause du manque de courage politique du Parlement et du conservatisme de nos gouvernements. L'Union européenne est en train de passer à côté d'une occasion unique de promouvoir le développement d'un Internet sans-fil décentralisé, d’accélérer l'innovation et de lutter contre la fracture numérique. Au lieu de cela, elle fait le jeu des opérateurs télécoms dominants qui cherchent à contrôler les communications sans-fil. », déclare Félix Tréguer, chargé des affaires juridiques et institutionnelles à La Quadrature du Net.
5. Voir notre analyse des amendements de compromis sur le spectre ouvert : https://www.laquadrature.net/wiki/RSPP_Compromise (anglais).
Les États Membres ont retiré « sans-licence » (“unlicensed”) et introduit le terme « lorsque approprié » (“where appropriate”) dans un amendement très important, le rendant de ce fait inopérant et non contraignant.
";s:7:"dateiso";s:15:"20111109_154016";}s:15:"20111104_135846";a:7:{s:5:"title";s:85:"La vidéo « NO to ACTA! » vue plus d'un million de fois ! Agissons maintenant !";s:4:"link";s:99:"http://www.laquadrature.net/fr/la-video-no-to-acta-vue-plus-dun-million-de-fois-agissons-maintenant";s:4:"guid";s:35:"4845 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 04 Nov 2011 12:58:46 +0000";s:11:"description";s:6069:"
Paris, le 4 novembre 2011 — « NO to ACTA! », la vidéo publiée la semaine dernière par La Quadrature du Net a été vue plus d'un million de fois. Elle est la mieux notée et la plus vue cette semaine dans la section « Actualités & Politique » de Youtube. Un accueil aussi impressionnant illustre la responsabilité cruciale qui repose sur les épaules des eurodéputés avec le vote à venir sur ACTA. C'est également un pas encourageant vers le rejet de ce dangereux accord — un effort qui demandera une large mobilisation citoyenne.
Avec plus d'un million de vues en moins d'une semaine (600k sur Youtube et près de 500k sur le mediakit de La Quadrature du Net), la vidéo « NO to ACTA! » a été un succès immédiat : n°1 des vidéos les mieux notées, n°1 des vidéos les plus vues, n°2 des vidéos les plus ajoutées aux favoris, et n°5 des vidéos les plus discutées de la semaine dans la section « Actualités & Politique » ! Elle a également atteint la place de 52è vidéo la plus vue et 87è la mieux notée de la semaine pour l'ensemble de Youtube !
« Des chiffres et récompenses aussi impressionnants révèlent un profond intérêt des citoyens pour la protection de leurs libertés en ligne contre des attaques illégitimes et anti-démocratiques menées par les gouvernements. Les députés du Parlement européen ne peuvent ignorer l'impact majeur d'ACTA sur nos vies et sur un Internet libre. Nous devons leur faire comprendre qu'il est de leur devoir de nous protéger contre ACTA en rejetant cet accord à l'occasion de leur vote de consentement. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La procédure comporte encore plusieurs étapes 1 avant le vote final de consentement. Les eurodéputés auront alors une occasion historique de mettre ACTA en échec, début 20122.
« Si chaque personne qui a regardé cette vidéo envoyait un courrier ou passait un coup de téléphone à un eurodéputé, nous gagnerions contre ACTA. Mais il y a de nombreuses manières d'agir : informer autour de soi à propos d'ACTA, partager cette vidéo et des éléments d'analyse, créer des outils de sensibilisation, contacter ses représentants, etc. Notre imagination et notre énergie feront la différence. », conclut Zimmermann.
1. La commission du Commerce international (INTA) du Parlement européen est la commission principale saisie sur ACTA. Les commissions des Affaires juridiques (JURI), du Développement (DEVE), ainsi que les commissions des Libertés publiques LIBE) et de l'Industrie (ITRE) donneront leur avis sur le texte. Ces derniers influenceront le rapport final de la commission INTA. Voir la fiche de procédure de l'ACTA (qui doit encore être mise à jour avec les rapports pour avis de ITRE et LIBE): http://www.europarl.europa.eu/oeil/file.jsp?id=5924982
2. La date exacte est encore incertaine. Le vote pourrait avoir lieu au plus tôt à la mi-janvier
";s:7:"content";s:6069:"
Paris, le 4 novembre 2011 — « NO to ACTA! », la vidéo publiée la semaine dernière par La Quadrature du Net a été vue plus d'un million de fois. Elle est la mieux notée et la plus vue cette semaine dans la section « Actualités & Politique » de Youtube. Un accueil aussi impressionnant illustre la responsabilité cruciale qui repose sur les épaules des eurodéputés avec le vote à venir sur ACTA. C'est également un pas encourageant vers le rejet de ce dangereux accord — un effort qui demandera une large mobilisation citoyenne.
Avec plus d'un million de vues en moins d'une semaine (600k sur Youtube et près de 500k sur le mediakit de La Quadrature du Net), la vidéo « NO to ACTA! » a été un succès immédiat : n°1 des vidéos les mieux notées, n°1 des vidéos les plus vues, n°2 des vidéos les plus ajoutées aux favoris, et n°5 des vidéos les plus discutées de la semaine dans la section « Actualités & Politique » ! Elle a également atteint la place de 52è vidéo la plus vue et 87è la mieux notée de la semaine pour l'ensemble de Youtube !
« Des chiffres et récompenses aussi impressionnants révèlent un profond intérêt des citoyens pour la protection de leurs libertés en ligne contre des attaques illégitimes et anti-démocratiques menées par les gouvernements. Les députés du Parlement européen ne peuvent ignorer l'impact majeur d'ACTA sur nos vies et sur un Internet libre. Nous devons leur faire comprendre qu'il est de leur devoir de nous protéger contre ACTA en rejetant cet accord à l'occasion de leur vote de consentement. », déclare Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La procédure comporte encore plusieurs étapes 1 avant le vote final de consentement. Les eurodéputés auront alors une occasion historique de mettre ACTA en échec, début 20122.
« Si chaque personne qui a regardé cette vidéo envoyait un courrier ou passait un coup de téléphone à un eurodéputé, nous gagnerions contre ACTA. Mais il y a de nombreuses manières d'agir : informer autour de soi à propos d'ACTA, partager cette vidéo et des éléments d'analyse, créer des outils de sensibilisation, contacter ses représentants, etc. Notre imagination et notre énergie feront la différence. », conclut Zimmermann.
1. La commission du Commerce international (INTA) du Parlement européen est la commission principale saisie sur ACTA. Les commissions des Affaires juridiques (JURI), du Développement (DEVE), ainsi que les commissions des Libertés publiques LIBE) et de l'Industrie (ITRE) donneront leur avis sur le texte. Ces derniers influenceront le rapport final de la commission INTA. Voir la fiche de procédure de l'ACTA (qui doit encore être mise à jour avec les rapports pour avis de ITRE et LIBE): http://www.europarl.europa.eu/oeil/file.jsp?id=5924982
2. La date exacte est encore incertaine. Le vote pourrait avoir lieu au plus tôt à la mi-janvier
";s:7:"dateiso";s:15:"20111104_135846";}s:15:"20111102_184357";a:7:{s:5:"title";s:97:"Consultation sur la neutralité du Net : La Quadrature dénonce l'échec de l'approche attentiste";s:4:"link";s:121:"http://www.laquadrature.net/fr/consultation-sur-la-neutralite-du-net-la-quadrature-denonce-lechec-de-lapproche-attentiste";s:4:"guid";s:35:"4842 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 02 Nov 2011 17:43:57 +0000";s:11:"description";s:8709:"
Paris, le 2 novembre 2011 — La Quadrature du Net publie aujourd'hui sa réponse1 à la consultation2 du BEREC sur la « transparence et la neutralité du Net ». Le BEREC et la Commission européenne doivent délaisser l'approche attentiste défendue par la Commissaire Neelie Kroes, en adoptant une réglementation européenne pour protéger la neutralité. Les citoyens peuvent contribuer à la protection d'Internet en répondant à la consultation3 pour dénoncer la « transparence » comme solution aux atteintes à la neutralité du Net.
Le BEREC4 a publié son projet de lignes directrices5 concernant « la transparence et la neutralité du Net », et les a soumises à consultation. Ces lignes directrices proposent de laisser les opérateurs gérer leurs réseaux sans aucun égard pour la neutralité du Net tant que leurs pratiques sont documentées, et expliquent que la « transparence » permettra aux consommateurs de choisir. Pourtant, les défauts de cette approche attentiste défendue par le BEREC et la Commission européenne sont manifestes. Elle reproduit en effet la politique du régulateur britannique, l'Ofcom, et échouera de la même manière puisqu'elle ne garantit aucunement aux citoyens une réelle possibilité d'opter pour un opérateur neutre.
Comme le montre clairement la plate-forme de signalement RespectMyNet.eu6, les violations de la neutralité du Net deviennent monnaie courante dans les marchés européens de l'accès Internet, en particulier dans le secteur mobile. Ces atteintes portent gravement préjudice aux droits fondamentaux, à la concurrence, et à l'innovation. De plus, l'attitude laxiste des régulateurs vis-à-vis de ces pratiques nuisibles de gestion de trafic décourage l'investissement dans les réseaux haut-débit, fixes et mobiles.
« Par le passé, la Commission européenne, au travers de la Commissaire Kroes, s'est engagée7 à préserver la neutralité du Net. Elle fait maintenant marche arrière, et se refuse à toute action concrète. Il est temps que cesse cette ambivalence, et que soit adoptée une réglementation européenne en matière de neutralité du Net. Le BEREC doit rapidement publier son étude sur les pratiques discriminatoires de gestion de trafic, comme l'exige le Parlement européen8, afin que la nécessité d'une réglementation en la matière soit clairement établie. Les citoyens concernés par la neutralité du Net devraient répondre à la consultation du BEREC pour dénoncer l'approche attentiste et la « transparence », vendue comme solution miracle aux atteintes à la neutralité du Net ! » déclare Jérémie Zimmerman, co-fondateur et porte-parole de l'initiative citoyenne la Quadrature du Net.
Envoyez vos réponse à la consultation du BEREC et dénoncez l'approche attentiste selon laquelle la simple transparence peut protéger l'universalité d'Internet. La date limite pour les réponses est le mercredi 2 novembre 2011, mais elles seront probablement acceptées jusqu'à la fin de la semaine. Envoyez vos réponses libres à berec[a]ec.europa.eu ou voyez notre page de campagne pour plus d'informations.
4. Body of European Regulators for Electronic Communications, (Office des Régulateurs Européens des Communications Électroniques en français) : http://erg.eu.int/about/index_fr.htm
Paris, le 2 novembre 2011 — La Quadrature du Net publie aujourd'hui sa réponse1 à la consultation2 du BEREC sur la « transparence et la neutralité du Net ». Le BEREC et la Commission européenne doivent délaisser l'approche attentiste défendue par la Commissaire Neelie Kroes, en adoptant une réglementation européenne pour protéger la neutralité. Les citoyens peuvent contribuer à la protection d'Internet en répondant à la consultation3 pour dénoncer la « transparence » comme solution aux atteintes à la neutralité du Net.
Le BEREC4 a publié son projet de lignes directrices5 concernant « la transparence et la neutralité du Net », et les a soumises à consultation. Ces lignes directrices proposent de laisser les opérateurs gérer leurs réseaux sans aucun égard pour la neutralité du Net tant que leurs pratiques sont documentées, et expliquent que la « transparence » permettra aux consommateurs de choisir. Pourtant, les défauts de cette approche attentiste défendue par le BEREC et la Commission européenne sont manifestes. Elle reproduit en effet la politique du régulateur britannique, l'Ofcom, et échouera de la même manière puisqu'elle ne garantit aucunement aux citoyens une réelle possibilité d'opter pour un opérateur neutre.
Comme le montre clairement la plate-forme de signalement RespectMyNet.eu6, les violations de la neutralité du Net deviennent monnaie courante dans les marchés européens de l'accès Internet, en particulier dans le secteur mobile. Ces atteintes portent gravement préjudice aux droits fondamentaux, à la concurrence, et à l'innovation. De plus, l'attitude laxiste des régulateurs vis-à-vis de ces pratiques nuisibles de gestion de trafic décourage l'investissement dans les réseaux haut-débit, fixes et mobiles.
« Par le passé, la Commission européenne, au travers de la Commissaire Kroes, s'est engagée7 à préserver la neutralité du Net. Elle fait maintenant marche arrière, et se refuse à toute action concrète. Il est temps que cesse cette ambivalence, et que soit adoptée une réglementation européenne en matière de neutralité du Net. Le BEREC doit rapidement publier son étude sur les pratiques discriminatoires de gestion de trafic, comme l'exige le Parlement européen8, afin que la nécessité d'une réglementation en la matière soit clairement établie. Les citoyens concernés par la neutralité du Net devraient répondre à la consultation du BEREC pour dénoncer l'approche attentiste et la « transparence », vendue comme solution miracle aux atteintes à la neutralité du Net ! » déclare Jérémie Zimmerman, co-fondateur et porte-parole de l'initiative citoyenne la Quadrature du Net.
Envoyez vos réponse à la consultation du BEREC et dénoncez l'approche attentiste selon laquelle la simple transparence peut protéger l'universalité d'Internet. La date limite pour les réponses est le mercredi 2 novembre 2011, mais elles seront probablement acceptées jusqu'à la fin de la semaine. Envoyez vos réponses libres à berec[a]ec.europa.eu ou voyez notre page de campagne pour plus d'informations.
4. Body of European Regulators for Electronic Communications, (Office des Régulateurs Européens des Communications Électroniques en français) : http://erg.eu.int/about/index_fr.htm
";s:7:"dateiso";s:15:"20111102_184357";}s:15:"20111028_142552";a:7:{s:5:"title";s:34:"[video] ACTA: s'informer et agir !";s:4:"link";s:59:"http://www.laquadrature.net/fr/video-acta-sinformer-et-agir";s:4:"guid";s:35:"4835 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 28 Oct 2011 12:25:52 +0000";s:11:"description";s:5499:"
À l'occasion du Free Culture Forum à Barcelone, La Quadrature du Net publie trois films pour informer les citoyens et les inciter à se mobiliser contre ACTA, l'accord commercial anti-contrefaçon.
ACTA est un danger pour les libertés fondamentales des utilisateurs d'Internet, ainsi que pour la libre concurrence et la compétitivité des entreprises de l'Internet. Le Parlement européen décidera bientôt s'il donne son consentement à ACTA, ou s'il le rejette une fois pour toutes.
Tout citoyen peut aider à contrer ACTA en diffusant cette vidéo sur Internet, en incitant ses concitoyens à agir et en contactant ses élus.
À l'occasion du Free Culture Forum à Barcelone, La Quadrature du Net publie trois films pour informer les citoyens et les inciter à se mobiliser contre ACTA, l'accord commercial anti-contrefaçon.
ACTA est un danger pour les libertés fondamentales des utilisateurs d'Internet, ainsi que pour la libre concurrence et la compétitivité des entreprises de l'Internet. Le Parlement européen décidera bientôt s'il donne son consentement à ACTA, ou s'il le rejette une fois pour toutes.
Tout citoyen peut aider à contrer ACTA en diffusant cette vidéo sur Internet, en incitant ses concitoyens à agir et en contactant ses élus.
";s:7:"dateiso";s:15:"20111028_142552";}s:15:"20111020_112449";a:7:{s:5:"title";s:72:"La résolution sur la neutralité du Net adoptée au Parlement européen";s:4:"link";s:99:"http://www.laquadrature.net/fr/la-resolution-sur-la-neutralite-du-net-adoptee-au-parlement-europeen";s:4:"guid";s:35:"4822 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 20 Oct 2011 09:24:49 +0000";s:11:"description";s:6869:"
Paris, le 20 octobre 2011 – La commission « Industrie » du Parlement européen a adopté à l'unanimité la résolution sur la neutralité du Net. À travers ce vote demandant à la Commission européenne d'évaluer rapidement le besoin de légiférer, le Parlement prend une position forte en faveur de la neutralité du Net. La pression s'accroît sur la Commissaire européenne Neelie Kroes qui pourrait être contrainte d'abandonner son approche attentiste et de prendre des mesures concrètes.
La résolution adoptée à l'unanimité par la commission Industrie (ITRE) du Parlement européen, qui a été farouchement négociée1, est un texte positif dans l'ensemble. Il engage le Parlement européen sur plusieurs points cruciaux :
Ce texte est un engagement politique fort en faveur de la neutralité du Net. Il propose une définition utile de la neutralité du Net et des pratiques de gestion de traffic qui nuisent aux libertés des utilisateur et à la concurrence2.
La résolution demande également à la Commission européenne de sortir de son attitude attentiste en évaluant la nécessité d'une réglementation en matière de neutralité du Net, dans les six mois suivant la publication de l'étude des régulateurs européens des télécoms au sujet des pratiques discriminatoires des opérateurs3.
Toutefois, la résolution se refuse à demander une action législative immédiate pour protéger la neutralité, ou des sanctions à l'encontre des fournisseurs d'accès Internet (FAI) qui restreignent l'accès à Internet de leurs abonnés. Elle comporte également une imprécision majeure4 qui pourrait être interprétée comme l'acceptation de restrictions sur l'Internet mobile au prétexte d'une supposée congestion des réseaux5.
« Bien qu’assez faible, la résolution adoptée constitue un engagement politique du Parlement européen en faveur de la neutralité du Net, et tend à empêcher les opérateurs télécom de restreindre l'accès à Internet de leurs abonnés. La pression augmente sur la commissaire Neelie Kroes et les régulateurs européens des télécoms pour qu'ils légifèrent sur la question. Mme. Kroes doit abandonner sa position attentiste et prendre des mesures concrètes pour protéger la concurrence, l'innovation ainsi que la liberté d'expression et la vie privée des citoyens. », a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Le texte adopté aujourd'hui lors du vote de la commission ITRE sera présenté en séance plénière lors d'un vote prévu pour fin novembre, sans possibilité d'amendement.
2. Voir l'amendement de compromis 8: [The EU Parliament] "calls on the Commission consequently to guard that Internet Service Providers do not block, discriminate against, impair, or degrade the ability of any person to use a service to access, use, send, post, receive, or offer any content, application, or service of their choice irrespective of source or target". https://www.laquadrature.net/wiki/Network_Neutrality_resolution_amendmen...
3. L'étude de l'office régulateurs européens des communications électroniques (BEREC) est attendue pour février 2012.
Paris, le 20 octobre 2011 – La commission « Industrie » du Parlement européen a adopté à l'unanimité la résolution sur la neutralité du Net. À travers ce vote demandant à la Commission européenne d'évaluer rapidement le besoin de légiférer, le Parlement prend une position forte en faveur de la neutralité du Net. La pression s'accroît sur la Commissaire européenne Neelie Kroes qui pourrait être contrainte d'abandonner son approche attentiste et de prendre des mesures concrètes.
La résolution adoptée à l'unanimité par la commission Industrie (ITRE) du Parlement européen, qui a été farouchement négociée1, est un texte positif dans l'ensemble. Il engage le Parlement européen sur plusieurs points cruciaux :
Ce texte est un engagement politique fort en faveur de la neutralité du Net. Il propose une définition utile de la neutralité du Net et des pratiques de gestion de traffic qui nuisent aux libertés des utilisateur et à la concurrence2.
La résolution demande également à la Commission européenne de sortir de son attitude attentiste en évaluant la nécessité d'une réglementation en matière de neutralité du Net, dans les six mois suivant la publication de l'étude des régulateurs européens des télécoms au sujet des pratiques discriminatoires des opérateurs3.
Toutefois, la résolution se refuse à demander une action législative immédiate pour protéger la neutralité, ou des sanctions à l'encontre des fournisseurs d'accès Internet (FAI) qui restreignent l'accès à Internet de leurs abonnés. Elle comporte également une imprécision majeure4 qui pourrait être interprétée comme l'acceptation de restrictions sur l'Internet mobile au prétexte d'une supposée congestion des réseaux5.
« Bien qu’assez faible, la résolution adoptée constitue un engagement politique du Parlement européen en faveur de la neutralité du Net, et tend à empêcher les opérateurs télécom de restreindre l'accès à Internet de leurs abonnés. La pression augmente sur la commissaire Neelie Kroes et les régulateurs européens des télécoms pour qu'ils légifèrent sur la question. Mme. Kroes doit abandonner sa position attentiste et prendre des mesures concrètes pour protéger la concurrence, l'innovation ainsi que la liberté d'expression et la vie privée des citoyens. », a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Le texte adopté aujourd'hui lors du vote de la commission ITRE sera présenté en séance plénière lors d'un vote prévu pour fin novembre, sans possibilité d'amendement.
2. Voir l'amendement de compromis 8: [The EU Parliament] "calls on the Commission consequently to guard that Internet Service Providers do not block, discriminate against, impair, or degrade the ability of any person to use a service to access, use, send, post, receive, or offer any content, application, or service of their choice irrespective of source or target". https://www.laquadrature.net/wiki/Network_Neutrality_resolution_amendmen...
3. L'étude de l'office régulateurs européens des communications électroniques (BEREC) est attendue pour février 2012.
";s:7:"dateiso";s:15:"20111020_112449";}s:15:"20111017_160801";a:7:{s:5:"title";s:90:"La timide résolution du Parlement européen sur la neutralité du Net bientôt finalisée";s:4:"link";s:116:"http://www.laquadrature.net/fr/la-timide-resolution-du-parlement-europeen-sur-la-neutralite-du-net-bientot-finalisee";s:4:"guid";s:35:"4917 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 17 Oct 2011 14:08:01 +0000";s:11:"description";s:7834:"
Paris, le 17 octobre 2011 — Le Parlement européen finalise actuellement la négociation des « amendements de compromis » à sa résolution sur la neutralité du Net. À l’heure actuelle, ce texte faible forcerait le Parlement à suivre l’approche attentiste de la Commissaire européenne Neelie Kroes, laissant les opérateurs libres de restreindre l’accès à Internet afin de poursuivre leurs intérêts économiques à court terme. La résolution pourrait toutefois apporter une définition utile de la neutralité du Net et permettre d'accroître la pression sur la Commission pour qu'elle enquête sur les pratiques des opérateurs télécoms et prenne des mesures concrètes.
La commission « Industrie » (ITRE) du Parlement européen votera sur une résolution sur la neutralité du Net ce jeudi 20 octobre 20111. Des « amendements de compromis » sont actuellement en train d'être finalisés lors de négociations entre les différents groupes politiques. Ils constitueront probablement le texte final de cette résolution non-législative.
Les tentatives de l’ancien rapporteur du « Paquet Télécom », Malcolm Harbour, d’inclure dans la définition de la neutralité du Net des références au droit d'auteur semblent pour l’heure avoir été repoussées avec succès2. Il est toutefois encore possible que les lobbyistes de l’industrie des télécoms réussissent, à la dernière minute, à neutraliser le texte déjà faible de la résolution.
Les amendements de compromis pourraient cependant inclure une définition utile de la neutralité du Net. S'il était adopté, un amendement appellerait la Commission à « empêcher que les fournisseurs d’accès à Internet ne bloquent, discriminent, nuisent à ou dégradent la capacité d’une personne à utiliser un service haut débit, pour accéder, envoyer, publier, recevoir ou offrir n'importe quel contenu, application ou service de leur choix quelle que soit la source ou la destination ».
La résolution pourrait ainsi fournir des critères clairs à la Commission et à l’Office des régulateurs européens des communications électroniques (ORECE, ou BEREC en anglais), qui mène actuellement une étude sur les pratiques de gestion de trafic des opérateurs. Cependant, le groupe conservateur (EPP) s'évertue à rejeter toute référence à une éventuelle nouvelle régulation dans le texte final, qui pourrait bien ne même pas évoquer timidement le besoin d'une action législative future.
« En dépit de l’approche attentiste de la commissaire européenne Neelie Kroes, les preuves de restrictions d’accès à Internet sont largement disponibles, comme l'illustre la plate-forme de signalement RespectMyNet.eu3. Les citoyens et le Parlement doivent utiliser les cas avérés de blocage ou de restriction des communications sur Internet pour augmenter la pression sur la Commission et le BEREC, afin qu’au lieu d'une inaction coupable ils adoptent des mesures concrètes pour protéger la neutralité du Net et défendent nos libertés sur Internet. » a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne la Quadrature du Net.
2. Dans une lettre aux membres de la commission ITRE, Malcolm Harbour a suggéré le texte suivant (traduction par nos soins) : « Accueille favorablement la communication de la Commission et est d’accord avec l'analyse, en particulier sur la nécessité de préserver le caractère ouvert et neutre d’Internet comme un facteur clé d’innovation et de la demande des consommateurs tout en veillant à ce qu’Internet puisse continuer à fournir des services de qualité dans un cadre qui encourage et respecte les droits fondamentaux comme les droits de propriété intellectuelle, la liberté d’expression et la liberté d’entreprendre et appelle la Commission européenne à empêcher les fournisseurs de services Internet de bloquer, discriminer, altérer ou dégrader la capacité de toute personne à utiliser un service en ligne haut-débit pour accéder, utiliser, envoyer, afficher, recevoir, ou offrir tout contenu, application ou service licitemis à disposition via l’Internet de leur choix quelle que soit la source ou cible ; ». Heureusement, les mentions de « propriété intellectuelle » et de contenu « licite » n’apparaissent pas dans les dernières versions des amendements de compromis.
Paris, le 17 octobre 2011 — Le Parlement européen finalise actuellement la négociation des « amendements de compromis » à sa résolution sur la neutralité du Net. À l’heure actuelle, ce texte faible forcerait le Parlement à suivre l’approche attentiste de la Commissaire européenne Neelie Kroes, laissant les opérateurs libres de restreindre l’accès à Internet afin de poursuivre leurs intérêts économiques à court terme. La résolution pourrait toutefois apporter une définition utile de la neutralité du Net et permettre d'accroître la pression sur la Commission pour qu'elle enquête sur les pratiques des opérateurs télécoms et prenne des mesures concrètes.
La commission « Industrie » (ITRE) du Parlement européen votera sur une résolution sur la neutralité du Net ce jeudi 20 octobre 20111. Des « amendements de compromis » sont actuellement en train d'être finalisés lors de négociations entre les différents groupes politiques. Ils constitueront probablement le texte final de cette résolution non-législative.
Les tentatives de l’ancien rapporteur du « Paquet Télécom », Malcolm Harbour, d’inclure dans la définition de la neutralité du Net des références au droit d'auteur semblent pour l’heure avoir été repoussées avec succès2. Il est toutefois encore possible que les lobbyistes de l’industrie des télécoms réussissent, à la dernière minute, à neutraliser le texte déjà faible de la résolution.
Les amendements de compromis pourraient cependant inclure une définition utile de la neutralité du Net. S'il était adopté, un amendement appellerait la Commission à « empêcher que les fournisseurs d’accès à Internet ne bloquent, discriminent, nuisent à ou dégradent la capacité d’une personne à utiliser un service haut débit, pour accéder, envoyer, publier, recevoir ou offrir n'importe quel contenu, application ou service de leur choix quelle que soit la source ou la destination ».
La résolution pourrait ainsi fournir des critères clairs à la Commission et à l’Office des régulateurs européens des communications électroniques (ORECE, ou BEREC en anglais), qui mène actuellement une étude sur les pratiques de gestion de trafic des opérateurs. Cependant, le groupe conservateur (EPP) s'évertue à rejeter toute référence à une éventuelle nouvelle régulation dans le texte final, qui pourrait bien ne même pas évoquer timidement le besoin d'une action législative future.
« En dépit de l’approche attentiste de la commissaire européenne Neelie Kroes, les preuves de restrictions d’accès à Internet sont largement disponibles, comme l'illustre la plate-forme de signalement RespectMyNet.eu3. Les citoyens et le Parlement doivent utiliser les cas avérés de blocage ou de restriction des communications sur Internet pour augmenter la pression sur la Commission et le BEREC, afin qu’au lieu d'une inaction coupable ils adoptent des mesures concrètes pour protéger la neutralité du Net et défendent nos libertés sur Internet. » a déclaré Jérémie Zimmermann, porte-parole de l'organisation citoyenne la Quadrature du Net.
2. Dans une lettre aux membres de la commission ITRE, Malcolm Harbour a suggéré le texte suivant (traduction par nos soins) : « Accueille favorablement la communication de la Commission et est d’accord avec l'analyse, en particulier sur la nécessité de préserver le caractère ouvert et neutre d’Internet comme un facteur clé d’innovation et de la demande des consommateurs tout en veillant à ce qu’Internet puisse continuer à fournir des services de qualité dans un cadre qui encourage et respecte les droits fondamentaux comme les droits de propriété intellectuelle, la liberté d’expression et la liberté d’entreprendre et appelle la Commission européenne à empêcher les fournisseurs de services Internet de bloquer, discriminer, altérer ou dégrader la capacité de toute personne à utiliser un service en ligne haut-débit pour accéder, utiliser, envoyer, afficher, recevoir, ou offrir tout contenu, application ou service licitemis à disposition via l’Internet de leur choix quelle que soit la source ou cible ; ». Heureusement, les mentions de « propriété intellectuelle » et de contenu « licite » n’apparaissent pas dans les dernières versions des amendements de compromis.
";s:7:"dateiso";s:15:"20111017_160801";}s:15:"20111014_181537";a:7:{s:5:"title";s:43:"Censure politique et judiciaire de Copwatch";s:4:"link";s:74:"http://www.laquadrature.net/fr/censure-politique-et-judiciaire-de-copwatch";s:4:"guid";s:35:"4799 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 14 Oct 2011 16:15:37 +0000";s:11:"description";s:1520:"
Paris, 14 octobre 2011 - Le Tribunal de Grande Instance de Paris à ordonné le blocage du site Copwatch Nord-Paris IDF, accusé par le gouvernement de porter atteinte à l'honneur et à la sécurité des fonctionnaires de police.
« L'affaire Copwatch montre que le blocage de sites Internet, même s'il est mis en œuvre au prétexte de la lutte contre la diffusion de représentations d'agressions sexuelles sur mineurs ou de jeux en lignes illégaux, est en fin de compte un outil de censure politique d'Internet.
Après la LOPPSI, l'ARJEL ou les propos tenus contre WikiLeaks, cette décision judiciaire illustre une nouvelle fois la volonté manifeste du gouvernement de contrôle et de censure de la nouvelle sphère publique citoyenne.
Une décision de l'autorité judiciaire est une maigre protection contre le risque que font peser ces mesures draconiennes sur la liberté d'expression, à travers le sur-blocage de sites parfaitement légitimes.
En pratique, Claude Guéant a lancé une grande campagne de marketing viral pour Copwatch. Ce site était peu connu avant, et alors qu'il restera accessible grâce aux douzaines de moyens triviaux de contourner la censure, il bénéficie désormais d'une attention et d'une couverture médiatique internationales ! » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"content";s:1520:"
Paris, 14 octobre 2011 - Le Tribunal de Grande Instance de Paris à ordonné le blocage du site Copwatch Nord-Paris IDF, accusé par le gouvernement de porter atteinte à l'honneur et à la sécurité des fonctionnaires de police.
« L'affaire Copwatch montre que le blocage de sites Internet, même s'il est mis en œuvre au prétexte de la lutte contre la diffusion de représentations d'agressions sexuelles sur mineurs ou de jeux en lignes illégaux, est en fin de compte un outil de censure politique d'Internet.
Après la LOPPSI, l'ARJEL ou les propos tenus contre WikiLeaks, cette décision judiciaire illustre une nouvelle fois la volonté manifeste du gouvernement de contrôle et de censure de la nouvelle sphère publique citoyenne.
Une décision de l'autorité judiciaire est une maigre protection contre le risque que font peser ces mesures draconiennes sur la liberté d'expression, à travers le sur-blocage de sites parfaitement légitimes.
En pratique, Claude Guéant a lancé une grande campagne de marketing viral pour Copwatch. Ce site était peu connu avant, et alors qu'il restera accessible grâce aux douzaines de moyens triviaux de contourner la censure, il bénéficie désormais d'une attention et d'une couverture médiatique internationales ! » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20111014_181537";}s:15:"20111012_172342";a:7:{s:5:"title";s:42:"Pas de vie privée sans neutralité du Net";s:4:"link";s:71:"http://www.laquadrature.net/fr/pas-de-vie-privee-sans-neutralite-du-net";s:4:"guid";s:35:"4792 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 12 Oct 2011 15:23:42 +0000";s:11:"description";s:6527:"
Bruxelles, 12 octobre 2011 - Dans un avis explosif sur la neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée. Alors que le Parlement européen entre dans la phase finale des négociations concernant sa résolution sur la neutralité du Net, cet avis rappelle que l'approche passive et attentiste de la Commission européenne est un échec injustifiable. Les eurodéputés, qui auront bientôt à se prononcer dans ce dossier crucial, doivent protéger la vie privée des citoyens en demandant des mesures législatives contraignantes afin de bannir la discrimination des communications en ligne.
D'après l'avis du gardien européen de la vie privée1, les pratiques de gestion de réseau qui ne sont pas strictement nécessaires à la sécurité ou l'intégrité des réseaux reviennent à surveiller et inspecter les communications des utilisateurs. Elles portent donc atteinte au droit à la vie privée.
Afin de respecter les lois sur la protection des données, le CEPD souligne que les utilisateurs doivent donner un consentement explicite à la surveillance et à la restriction de leurs communications. Il souligne en outre que les utilisateurs doivent avoir le choix entre une offre restreinte et un accès à Internet non-restreint, sans coût supplémentaire de la part des opérateurs télécom.
Ces conclusions font voler en éclat l'approche attentiste de la commissaire Neelie Kroes fondée sur la transparence des restrictions dans les contrats, qui échouera forcément à protéger les utilisateurs contre les atteintes à la neutralité du Net.
« Le CEPD démontre que toute discrimination imposée par les opérateurs entre les services, protocoles ou contenus sur Internet porte inévitablement atteinte à la confidentialité des communications. Les eurodéputés ont donc le devoir de protéger notre vie privée, et donc de rompre avec l'approche attentiste et vouée à l'échec de la commissaire Kroes. Le Parlement doit exiger que des mesures législatives concrètes soient prises afin de protéger la vie privée des citoyens européens, la liberté d'expression ainsi que l'innovation et la concurrence en ligne », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne la Quadrature du Net.
Citations clés de l'avis du CEPD
Net neutrality violations harm privacy: "Inspection techniques based on traffic data and inspection of IP payloads, i.e. the content of communications, may reveal users’ Internet activity: websites visited and activities on those sites, use of P2P applications, files downloaded, emails sent and received, from whom, on what subject and in which terms, etc. ISPs may want to use this information to prioritise some communications, such as video on demand, over others. They may want to use it to identify viruses, or to build profiles in order to serve behavioural advertising. These actions interfere with the right to the confidentiality of communications". (§78)
Failure of mere transparency: " Individuals' consent would not be freely given if they had to consent to the monitoring of their communication data in order to get access to a communication service. This would be even more true if all providers in a given market were to engage in traffic management for purposes that went beyond security of the network. The only option left would be not to subscribe to an Internet service at all. Given that the Internet has become an essential tool both for work and for leisure purposes, not subscribing to an Internet service does not constitute a valid alternative. The result would be that the individuals would have no real choice, i.e. they would not be able to freely give consent". (§55)
Access to neutral Internet is crucial: "The EDPS considers that there is a clear need for the Commission and national authorities to monitor the market, particularly to ascertain whether this scenario - i.e. providers linking telecommunication services to communication monitoring - becomes mainstream. Providers should offer alternative services, including an Internet subscription not subject to traffic management, without imposing higher costs to individuals". (§56)
Recommended policy steps: "(...). From a data protection and privacy perspective, the scenario where ISPs engage on a routine basis in traffic management policies offering subscriptions based on filtering access to content and applications, would be highly problematic. If this were ever to happen, legislation would need to be put in place to address this situation". (§84). Note: Actually, evidence suggests that telecom opertors already engage in such harmful practices. See the reporting platform RespectMyNet.eu
Bruxelles, 12 octobre 2011 - Dans un avis explosif sur la neutralité du Net, le Contrôleur Européen à la Protection des Données (CEPD) souligne que les restrictions d'accès à Internet menacent inévitablement la vie privée. Alors que le Parlement européen entre dans la phase finale des négociations concernant sa résolution sur la neutralité du Net, cet avis rappelle que l'approche passive et attentiste de la Commission européenne est un échec injustifiable. Les eurodéputés, qui auront bientôt à se prononcer dans ce dossier crucial, doivent protéger la vie privée des citoyens en demandant des mesures législatives contraignantes afin de bannir la discrimination des communications en ligne.
D'après l'avis du gardien européen de la vie privée1, les pratiques de gestion de réseau qui ne sont pas strictement nécessaires à la sécurité ou l'intégrité des réseaux reviennent à surveiller et inspecter les communications des utilisateurs. Elles portent donc atteinte au droit à la vie privée.
Afin de respecter les lois sur la protection des données, le CEPD souligne que les utilisateurs doivent donner un consentement explicite à la surveillance et à la restriction de leurs communications. Il souligne en outre que les utilisateurs doivent avoir le choix entre une offre restreinte et un accès à Internet non-restreint, sans coût supplémentaire de la part des opérateurs télécom.
Ces conclusions font voler en éclat l'approche attentiste de la commissaire Neelie Kroes fondée sur la transparence des restrictions dans les contrats, qui échouera forcément à protéger les utilisateurs contre les atteintes à la neutralité du Net.
« Le CEPD démontre que toute discrimination imposée par les opérateurs entre les services, protocoles ou contenus sur Internet porte inévitablement atteinte à la confidentialité des communications. Les eurodéputés ont donc le devoir de protéger notre vie privée, et donc de rompre avec l'approche attentiste et vouée à l'échec de la commissaire Kroes. Le Parlement doit exiger que des mesures législatives concrètes soient prises afin de protéger la vie privée des citoyens européens, la liberté d'expression ainsi que l'innovation et la concurrence en ligne », conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne la Quadrature du Net.
Citations clés de l'avis du CEPD
Net neutrality violations harm privacy: "Inspection techniques based on traffic data and inspection of IP payloads, i.e. the content of communications, may reveal users’ Internet activity: websites visited and activities on those sites, use of P2P applications, files downloaded, emails sent and received, from whom, on what subject and in which terms, etc. ISPs may want to use this information to prioritise some communications, such as video on demand, over others. They may want to use it to identify viruses, or to build profiles in order to serve behavioural advertising. These actions interfere with the right to the confidentiality of communications". (§78)
Failure of mere transparency: " Individuals' consent would not be freely given if they had to consent to the monitoring of their communication data in order to get access to a communication service. This would be even more true if all providers in a given market were to engage in traffic management for purposes that went beyond security of the network. The only option left would be not to subscribe to an Internet service at all. Given that the Internet has become an essential tool both for work and for leisure purposes, not subscribing to an Internet service does not constitute a valid alternative. The result would be that the individuals would have no real choice, i.e. they would not be able to freely give consent". (§55)
Access to neutral Internet is crucial: "The EDPS considers that there is a clear need for the Commission and national authorities to monitor the market, particularly to ascertain whether this scenario - i.e. providers linking telecommunication services to communication monitoring - becomes mainstream. Providers should offer alternative services, including an Internet subscription not subject to traffic management, without imposing higher costs to individuals". (§56)
Recommended policy steps: "(...). From a data protection and privacy perspective, the scenario where ISPs engage on a routine basis in traffic management policies offering subscriptions based on filtering access to content and applications, would be highly problematic. If this were ever to happen, legislation would need to be put in place to address this situation". (§84). Note: Actually, evidence suggests that telecom opertors already engage in such harmful practices. See the reporting platform RespectMyNet.eu
";s:7:"dateiso";s:15:"20111012_172342";}s:15:"20111010_165901";a:7:{s:5:"title";s:89:"Impact d'ACTA sur l'industrie et les droits fondamentaux - Lettres au Parlement européen";s:4:"link";s:115:"http://www.laquadrature.net/fr/impact-dacta-sur-lindustrie-et-les-droits-fondamentaux-lettres-au-parlement-europeen";s:4:"guid";s:35:"4783 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 10 Oct 2011 14:59:01 +0000";s:11:"description";s:5736:"
La Quadrature du Net a écrit au sujet de l'Accord commercial anti-contrefaçon (ACTA) à deux commissions clés du Parlement européen. Alors que ce dernier entame ses travaux préparatoires en vue de son « vote de consentement » sur l'ACTA, La Quadrature rappelle qu'il lui faut absolument évaluer les dangers de cet accord pour l'innovation, la concurrence et la compétitivité des entreprises européennes, ainsi que pour les droits fondamentaux.
Les dangers que fait courir l'ACTA doivent conduire la commission de l'industrie, de la recherche et de l'énergie (ITRE) et la commission des libertés civiles (LIBE) à rendre un avis sur cet accord1.
Aujourd'hui, La Quadrature du Net a écrit à ces deux commissions afin de leur demander de procéder à une évaluation complète de l'ACTA pour les domaines relevant de leurs compétences.
Letter to the ITRE commitee
Dear member of the ITRE committee,
As you know, the European Parliament will soon be asked to give its consent to the Anti-Counterfeiting Trade Agreement (ACTA). We ask your committee to weigh in this process by working on an opinion regarding the proposal for a Council decision on the signing and conclusion of ACTA. Indeed, ACTA raises crucial questions regarding innovation and competitiveness of EU companies that deserve special scrutiny from your committee, before the Parliament decides whether to grant its consent to ACTA.
EU academics and an independent study commissioned by the INTA committee both show that ACTA goes further than current EU acquis, especially regarding border measures, damages and criminal sanctions. Such draconian measures will create a strong legal uncertainty for businesses operating in the EU, and will undermine the realisation of EU objectives in the field of innovation and development of the digital economy, access to medicines or the diffusion of green technologies.
Furthermore, given that neither the biggest emerging economies (China, India, Brazil) nor even the United States will ratify ACTA, competitiveness risks being severely hurt. Innovation and competition will be hampered by the implementation of new extremist IPR provisions, undermining the EU's stance in the global economy.
We therefore call on you to use your competency and expertise in industrial policy to assess the risks attached to the EU ratification of ACTA.
Sincerely,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
Co-founders of citizen advocacy group La Quadrature du Net
Letter to the LIBE commitee
Dear member of the LIBE committee,
As you know, the European Parliament will soon be asked to give its consent to the Anti-Counterfeiting Trade Agreement (ACTA). We ask your committee to weigh in this process by working on an opinion regarding the proposal for a Council decision on the signing and conclusion of ACTA. Indeed, ACTA raises crucial questions regarding civil liberties of EU companies that deserve special scrutiny from your committee, before the Parliament decides whether to grant its consent to ACTA.
As a group focusing on Internet policy, we are particularly worried by the provisions of the digital chapter, that open the door for yet another attack on the rights and freedoms of Internet users in the name of an obsolete copyright regime. We are not alone in alerting about this risk. The Mexican Congress has recently stated that this chapter could lead to a privatised online censorship, with harmful effects on Net neutrality (and therefore freedom of expression), access to communications or access to culture. Frank La Rue, the United Nations Rapporteur on freedom of expression, also expressed similar concerns.
Furthermore, the Green group of the EU Parliament commissioned an impact assessment of ACTA on fundamental freedoms which stresses that ACTA's provisions "either eliminate safeguards existing under international law or, after strengthening enforcement measures, fail to introduce corresponding safeguarding measures." It also contradicts the Commission's claim that ACTA does not go beyond the acquis communautaire, stressing that ACTA "will directly or indirectly require additional action on the EU level".
We therefore call on your committee to give a thorough and objective assessment of ACTA's compatibility with the EU's commitment to defending and promoting human rights.
Sincerely,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
Co-founders of citizen advocacy group La Quadrature du Net
1. À ce stade, outre la commission du commerce international (INTA), saisie au fond, seules les commissions des affaires juridiques (JURI) et du développement (DEVE) se sont saisies pour avis. Voir la fiche de procédure.
";s:7:"content";s:5736:"
La Quadrature du Net a écrit au sujet de l'Accord commercial anti-contrefaçon (ACTA) à deux commissions clés du Parlement européen. Alors que ce dernier entame ses travaux préparatoires en vue de son « vote de consentement » sur l'ACTA, La Quadrature rappelle qu'il lui faut absolument évaluer les dangers de cet accord pour l'innovation, la concurrence et la compétitivité des entreprises européennes, ainsi que pour les droits fondamentaux.
Les dangers que fait courir l'ACTA doivent conduire la commission de l'industrie, de la recherche et de l'énergie (ITRE) et la commission des libertés civiles (LIBE) à rendre un avis sur cet accord1.
Aujourd'hui, La Quadrature du Net a écrit à ces deux commissions afin de leur demander de procéder à une évaluation complète de l'ACTA pour les domaines relevant de leurs compétences.
Letter to the ITRE commitee
Dear member of the ITRE committee,
As you know, the European Parliament will soon be asked to give its consent to the Anti-Counterfeiting Trade Agreement (ACTA). We ask your committee to weigh in this process by working on an opinion regarding the proposal for a Council decision on the signing and conclusion of ACTA. Indeed, ACTA raises crucial questions regarding innovation and competitiveness of EU companies that deserve special scrutiny from your committee, before the Parliament decides whether to grant its consent to ACTA.
EU academics and an independent study commissioned by the INTA committee both show that ACTA goes further than current EU acquis, especially regarding border measures, damages and criminal sanctions. Such draconian measures will create a strong legal uncertainty for businesses operating in the EU, and will undermine the realisation of EU objectives in the field of innovation and development of the digital economy, access to medicines or the diffusion of green technologies.
Furthermore, given that neither the biggest emerging economies (China, India, Brazil) nor even the United States will ratify ACTA, competitiveness risks being severely hurt. Innovation and competition will be hampered by the implementation of new extremist IPR provisions, undermining the EU's stance in the global economy.
We therefore call on you to use your competency and expertise in industrial policy to assess the risks attached to the EU ratification of ACTA.
Sincerely,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
Co-founders of citizen advocacy group La Quadrature du Net
Letter to the LIBE commitee
Dear member of the LIBE committee,
As you know, the European Parliament will soon be asked to give its consent to the Anti-Counterfeiting Trade Agreement (ACTA). We ask your committee to weigh in this process by working on an opinion regarding the proposal for a Council decision on the signing and conclusion of ACTA. Indeed, ACTA raises crucial questions regarding civil liberties of EU companies that deserve special scrutiny from your committee, before the Parliament decides whether to grant its consent to ACTA.
As a group focusing on Internet policy, we are particularly worried by the provisions of the digital chapter, that open the door for yet another attack on the rights and freedoms of Internet users in the name of an obsolete copyright regime. We are not alone in alerting about this risk. The Mexican Congress has recently stated that this chapter could lead to a privatised online censorship, with harmful effects on Net neutrality (and therefore freedom of expression), access to communications or access to culture. Frank La Rue, the United Nations Rapporteur on freedom of expression, also expressed similar concerns.
Furthermore, the Green group of the EU Parliament commissioned an impact assessment of ACTA on fundamental freedoms which stresses that ACTA's provisions "either eliminate safeguards existing under international law or, after strengthening enforcement measures, fail to introduce corresponding safeguarding measures." It also contradicts the Commission's claim that ACTA does not go beyond the acquis communautaire, stressing that ACTA "will directly or indirectly require additional action on the EU level".
We therefore call on your committee to give a thorough and objective assessment of ACTA's compatibility with the EU's commitment to defending and promoting human rights.
Sincerely,
Philippe Aigrain, Gérald Sédrati-Dinet, Benjamin Sonntag, Jérémie Zimmermann
Co-founders of citizen advocacy group La Quadrature du Net
1. À ce stade, outre la commission du commerce international (INTA), saisie au fond, seules les commissions des affaires juridiques (JURI) et du développement (DEVE) se sont saisies pour avis. Voir la fiche de procédure.
";s:7:"dateiso";s:15:"20111010_165901";}s:15:"20111004_203449";a:7:{s:5:"title";s:54:"L'Assembée nationale étend encore la censure du Net ";s:4:"link";s:83:"http://www.laquadrature.net/fr/lassembee-nationale-elargit-encore-la-censure-du-net";s:4:"guid";s:35:"4762 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 04 Oct 2011 18:34:49 +0000";s:11:"description";s:4078:"
Paris, 4 octobre 2011 - À l'occasion de l'examen du projet de loi sur la protection des consommateurs, l'Assemblée nationale a décidé d'offrir à la DGCCRF la possibilité d'obtenir d'un juge le filtrage d'un site Internet. Les députés ont aussi rejeté un amendement qui au contraire demandait un moratoire sur toute mesure additionnelle de censure du Net. Comme le souligne un récent rapport de l'ONU1, ces dernières sont pourtant contraires aux libertés fondamentales.
Pour plus d'information sur les enjeux de ce vote, veuillez consulter notre précédent communiqué2.
« En dépit des vives critiques exprimées à l'encontre du filtrage du Net, et ce jusque dans les rangs de la majorité, un trop grand nombre de députés ne comprennent toujours pas les graves dangers que de telles mesures font courir. Toute tentative de bloquer l'accès à des contenus au travers de dispositifs techniques placés au cœur du réseau remet en cause la nature même d'Internet et expose à des graves dérives, notamment le sur-blocage de contenus parfaitement légaux. Il est temps que se tienne un large débat public sur le filtrage et que le législateur cesse, loi après loi, de généraliser des mesures totalement disproportionnées et attentatoires aux libertés publiques »3, a déclaré Félix Tréguer, chargé des affaires institutionnelles à La Quadrature du Net.
Malgré le résultat décevant de ce vote, La Quadrature remercie chaleureusement tous ceux et celles qui ont participé à cette campagne citoyenne.
Paris, 4 octobre 2011 - À l'occasion de l'examen du projet de loi sur la protection des consommateurs, l'Assemblée nationale a décidé d'offrir à la DGCCRF la possibilité d'obtenir d'un juge le filtrage d'un site Internet. Les députés ont aussi rejeté un amendement qui au contraire demandait un moratoire sur toute mesure additionnelle de censure du Net. Comme le souligne un récent rapport de l'ONU1, ces dernières sont pourtant contraires aux libertés fondamentales.
Pour plus d'information sur les enjeux de ce vote, veuillez consulter notre précédent communiqué2.
« En dépit des vives critiques exprimées à l'encontre du filtrage du Net, et ce jusque dans les rangs de la majorité, un trop grand nombre de députés ne comprennent toujours pas les graves dangers que de telles mesures font courir. Toute tentative de bloquer l'accès à des contenus au travers de dispositifs techniques placés au cœur du réseau remet en cause la nature même d'Internet et expose à des graves dérives, notamment le sur-blocage de contenus parfaitement légaux. Il est temps que se tienne un large débat public sur le filtrage et que le législateur cesse, loi après loi, de généraliser des mesures totalement disproportionnées et attentatoires aux libertés publiques »3, a déclaré Félix Tréguer, chargé des affaires institutionnelles à La Quadrature du Net.
Malgré le résultat décevant de ce vote, La Quadrature remercie chaleureusement tous ceux et celles qui ont participé à cette campagne citoyenne.
";s:7:"dateiso";s:15:"20111004_203449";}s:15:"20110929_111908";a:7:{s:5:"title";s:77:"Le Parlement européen renoncera-t-il à la protection d'un Internet libre ?";s:4:"link";s:102:"http://www.laquadrature.net/fr/le-parlement-europeen-renoncera-t-il-a-la-protection-dun-internet-libre";s:4:"guid";s:35:"4753 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 29 Sep 2011 09:19:08 +0000";s:11:"description";s:8812:"
Paris, 29 Septembre 2011 — La résolution sur la neutralité du Net actuellement discutée au Parlement européen est loin d'être satisfaisante, et témoigne de la forte influence exercée par les opérateurs télécoms. Malheureusement, même si certains amendements vont dans le sens d'une vraie protection de la neutralité du Net, les eurodéputés en pointe sur ce dossier se refusent pour l'instant à poser les bases d'une réglementation concrète empêchant les opérateurs de discriminer les communications en ligne. Le pouvoir des lobbies comme AT&T parviendra-t-il à remettre en cause l'objectif de l'Union européenne de protéger les libertés de ses citoyens ?
Les amendements au décevant projet de résolution sur la neutralité du Net de la commission de l’Industrie, du Transport, de la Recherche et de l’Énergie (ITRE) du Parlement européen ont été publiés1. Il est choquant de constater qu'aucun des principaux députés européens travaillant sur ce texte ne semble réaliser l'urgence du problème. Ni Lambert van Nistelrooij (conservateur), ni Catherine Trautmann (socialiste), ni Jens Rohde (libéral) n'ont osé exiger de la Commission européenne des mesures rapides et concrètes garantissant que les opérateurs télécoms respectent la neutralité du Net.
Pourtant, une réglementation imposant la non-discrimination des communications en ligne est absolument nécessaire afin de garantir la liberté de communication, la libre concurrence, et l’innovation. Il existe dores-et-déjà des preuves que les opérateurs européens utilisent des pratiques de gestion de trafic illégitimes, comme le montrent les douzaines d'atteintes à la neutralité du Net recensées par des citoyens sur la plate-forme RespectMyNet.eu2.
Tandis que certains de leurs eurodéputés sont prêts à s'en tenir au statu quo défendu par de puissants acteurs industriels comme AT&T (qui n'opère pas de réseau dans l'Union européenne et qui est sur le point d'en finir avec l’accès illimité aux États-Unis3), les groupes socialiste (S&D), libéral (ALDE) et conservateur (EPP) sont en fait divisés. En effet, de très bons amendements ont aussi été déposés par des membres de chacun de ces groupes4.
« Les débats autour de cette résolution sur la neutralité du Net vont se poursuivre avec la négociation des “amendements de compromis”. Les membres du Parlement européen qui se préoccupent réellement des libertés ont l'occasion d'envoyer un message fort en faveur de la neutralité du Net. Étant donné la passivité de la commissaire Neelie Kroes sur la question5, il est indispensable que Parlement amende cette résolution pour que les droits des citoyens prévalent sur les intérêts économiques des opérateurs télécoms. », a déclaré Jérémie Zimmermann, porte-parole de l’organisation citoyenne La Quadrature du Net.
Paris, 29 Septembre 2011 — La résolution sur la neutralité du Net actuellement discutée au Parlement européen est loin d'être satisfaisante, et témoigne de la forte influence exercée par les opérateurs télécoms. Malheureusement, même si certains amendements vont dans le sens d'une vraie protection de la neutralité du Net, les eurodéputés en pointe sur ce dossier se refusent pour l'instant à poser les bases d'une réglementation concrète empêchant les opérateurs de discriminer les communications en ligne. Le pouvoir des lobbies comme AT&T parviendra-t-il à remettre en cause l'objectif de l'Union européenne de protéger les libertés de ses citoyens ?
Les amendements au décevant projet de résolution sur la neutralité du Net de la commission de l’Industrie, du Transport, de la Recherche et de l’Énergie (ITRE) du Parlement européen ont été publiés1. Il est choquant de constater qu'aucun des principaux députés européens travaillant sur ce texte ne semble réaliser l'urgence du problème. Ni Lambert van Nistelrooij (conservateur), ni Catherine Trautmann (socialiste), ni Jens Rohde (libéral) n'ont osé exiger de la Commission européenne des mesures rapides et concrètes garantissant que les opérateurs télécoms respectent la neutralité du Net.
Pourtant, une réglementation imposant la non-discrimination des communications en ligne est absolument nécessaire afin de garantir la liberté de communication, la libre concurrence, et l’innovation. Il existe dores-et-déjà des preuves que les opérateurs européens utilisent des pratiques de gestion de trafic illégitimes, comme le montrent les douzaines d'atteintes à la neutralité du Net recensées par des citoyens sur la plate-forme RespectMyNet.eu2.
Tandis que certains de leurs eurodéputés sont prêts à s'en tenir au statu quo défendu par de puissants acteurs industriels comme AT&T (qui n'opère pas de réseau dans l'Union européenne et qui est sur le point d'en finir avec l’accès illimité aux États-Unis3), les groupes socialiste (S&D), libéral (ALDE) et conservateur (EPP) sont en fait divisés. En effet, de très bons amendements ont aussi été déposés par des membres de chacun de ces groupes4.
« Les débats autour de cette résolution sur la neutralité du Net vont se poursuivre avec la négociation des “amendements de compromis”. Les membres du Parlement européen qui se préoccupent réellement des libertés ont l'occasion d'envoyer un message fort en faveur de la neutralité du Net. Étant donné la passivité de la commissaire Neelie Kroes sur la question5, il est indispensable que Parlement amende cette résolution pour que les droits des citoyens prévalent sur les intérêts économiques des opérateurs télécoms. », a déclaré Jérémie Zimmermann, porte-parole de l’organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20110929_111908";}s:15:"20110927_161134";a:7:{s:5:"title";s:41:"Pas de censure au nom des consommateurs !";s:4:"link";s:70:"http://www.laquadrature.net/fr/pas-de-censure-au-nom-des-consommateurs";s:4:"guid";s:35:"4748 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 27 Sep 2011 14:11:34 +0000";s:11:"description";s:6810:"
Paris, 27 septembre 2011 — Après le projet de décret visant à mettre en place une véritable censure administrative d'Internet, le gouvernement entend maintenant imposer l'extension de la censure du Net au détour d'un projet de loi sur la protection des consommateurs. L'Assemblée nationale, qui se penche à partir de demain sur ce texte, doit absolument rejeter cette nouvelle tentative de contrôle du Net. Chaque citoyen peut participer à la défense d'Internet en contactant ses députés.
Alors qu'en avril dernier, une mission parlementaire transpartisane mettait en cause la légitimité des mesures de filtrage et appelait à un moratoire sur leur extension à de nouveaux domaines1 ; alors que début juin, le rapporteur de l'ONU pour la liberté d'expression exprimait ses plus vives critiques à leur encontre2 ; alors que le projet de décret3 du gouvernement visant à étendre son pouvoir de censure sur Internet essuie de nombreuses critiques, le filtrage du Net fait son retour au Parlement au détour d'un projet de loi relatif à la protection des consommmateurs4.
Énième avatar du bilan désastreux de Nicolas Sarkozy en matière d'Internet, le filtrage du Net au nom de la protection des consommateurs divise la majorité. En juin, lors du vote en commission des Affaires économiques, il s'en était fallu d'une voix pour que cette disposition ne soit pas supprimée. Cette fois, plusieurs députés UMP emmenés par Alain Suguenot ont déposé un amendement visant à supprimer le filtrage du projet de loi.
« Compte tenu des nombreuses critiques émises à l'encontre du filtrage, des Nations Unis jusque dans les rangs de la majorité elle-même, il serait choquant que l'Assemblée laisse la porte ouvert à un filtrage tous azimuts au nom de la protection des consommateurs. Le filtrage est totalement disproportionné, notamment compte tenu de l'inévitable risque de sur-blocage de contenus parfaitement licites qu'il fait courir. Au-delà de ce projet de loi, les pouvoirs publics doivent s'engager à abroger le filtrage administratif institué par la LOPPSI, ainsi que les autres mesures de filtrage prononcées par exemple dans le cadre de la loi sur les jeux en ligne. », indique Félix Tréguer, chargé des affaires institutionnelles à La Quadrature du Net.
Tous les citoyens peuvent participer à la défense d'un Internet libre et ouvert en appelant leurs députés pour leur demander d'adopter l'amendement 21. Une page de campagne dédiée a été rédigée pour vous y aider.
Paris, 27 septembre 2011 — Après le projet de décret visant à mettre en place une véritable censure administrative d'Internet, le gouvernement entend maintenant imposer l'extension de la censure du Net au détour d'un projet de loi sur la protection des consommateurs. L'Assemblée nationale, qui se penche à partir de demain sur ce texte, doit absolument rejeter cette nouvelle tentative de contrôle du Net. Chaque citoyen peut participer à la défense d'Internet en contactant ses députés.
Alors qu'en avril dernier, une mission parlementaire transpartisane mettait en cause la légitimité des mesures de filtrage et appelait à un moratoire sur leur extension à de nouveaux domaines1 ; alors que début juin, le rapporteur de l'ONU pour la liberté d'expression exprimait ses plus vives critiques à leur encontre2 ; alors que le projet de décret3 du gouvernement visant à étendre son pouvoir de censure sur Internet essuie de nombreuses critiques, le filtrage du Net fait son retour au Parlement au détour d'un projet de loi relatif à la protection des consommmateurs4.
Énième avatar du bilan désastreux de Nicolas Sarkozy en matière d'Internet, le filtrage du Net au nom de la protection des consommateurs divise la majorité. En juin, lors du vote en commission des Affaires économiques, il s'en était fallu d'une voix pour que cette disposition ne soit pas supprimée. Cette fois, plusieurs députés UMP emmenés par Alain Suguenot ont déposé un amendement visant à supprimer le filtrage du projet de loi.
« Compte tenu des nombreuses critiques émises à l'encontre du filtrage, des Nations Unis jusque dans les rangs de la majorité elle-même, il serait choquant que l'Assemblée laisse la porte ouvert à un filtrage tous azimuts au nom de la protection des consommateurs. Le filtrage est totalement disproportionné, notamment compte tenu de l'inévitable risque de sur-blocage de contenus parfaitement licites qu'il fait courir. Au-delà de ce projet de loi, les pouvoirs publics doivent s'engager à abroger le filtrage administratif institué par la LOPPSI, ainsi que les autres mesures de filtrage prononcées par exemple dans le cadre de la loi sur les jeux en ligne. », indique Félix Tréguer, chargé des affaires institutionnelles à La Quadrature du Net.
Tous les citoyens peuvent participer à la défense d'un Internet libre et ouvert en appelant leurs députés pour leur demander d'adopter l'amendement 21. Une page de campagne dédiée a été rédigée pour vous y aider.
";s:7:"dateiso";s:15:"20110927_161134";}s:15:"20110922_160116";a:7:{s:5:"title";s:81:"RespectMyNet : Une plate-forme citoyenne recense les restrictions d'accès au Net";s:4:"link";s:108:"http://www.laquadrature.net/fr/respectmynet-une-plate-forme-citoyenne-recense-les-restrictions-dacces-au-net";s:4:"guid";s:35:"4740 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 22 Sep 2011 14:01:16 +0000";s:11:"description";s:2981:"
Paris, le 22 septembre 2011 — Plusieurs organisations de la société civile ont annoncé aujourd'hui le lancement d'une plate-forme en ligne permettant aux citoyens de mettre en évidence les restrictions d'accès imposées par les opérateurs. Cette plate-forme, RespectMyNet.eu, vise à montrer aux décideurs européens les faits qu'ils refusent d'admettre : il existe un besoin urgent de légiférer contre les atteintes à la neutralité du Net, qui mettent en cause les libertés fondamentales, la concurrence et l'innovation.
La neutralité du Net, qui fait référence au principe de non-discrimination des communications sur Internet, est au fondement des bénéfices démocratiques, sociaux et économiques d'Internet.
« La liberté en ligne de chaque citoyen européen est remise en cause par les opérateurs télécoms dominants qui veulent contrôler ce que vous faites sur Internet. Ils veulent bloquer ou ralentir l'accès à certains sites, et même vous faire payer plus pour l'utilisation de services bon marché de téléphonie sur Internet. Les Pays-Bas devraient bientôt interdire ces pratiques inacceptables. Mais cela n'est pas suffisant, chaque Européen a le droit à un Internet ouvert. » déclare Ot van Daalen de l'organisation néerlandaise Bits of Freedom, qui défend les libertés en ligne.
« Le législateur européen fait la sourde oreille sur ce problème depuis plus de deux ans. Le rapport de la commissaire européenne Neelie Kroes sur le sujet prétend qu'il n'y a pas de preuves quant à la nécessité de protéger dans la loi la neutralité du Net. Une telle approche attentiste est choquante quand on voit la réalité des pratiques de gestion du trafic des opérateurs, et leur impact sur la liberté de communication en ligne, la concurrence et l'ensemble de l'économie numérique. » déclare Jérémie Zimmermann, porte-parole de l'initiative citoyenne La Quadrature du Net.
Afin d'appuyer leurs efforts en faveur d'une protection de la neutralité du Net à l'échelle de l'Union européenne, plusieurs groupes de la société civile lancent aujourd'hui RespectMyNet.eu.
« RespectMyNet.eu est une plate-forme en ligne permettant aux citoyens de devenir les gardiens d'Internet en signalant toute violation de la neutralité du Net. Tout le monde est invité à faire état de blocage ou de bridage illégitime de son accès Internet, et ainsi contribuer à pointer du doigt les pratiques malveillantes des opérateurs. » conclut Jérémie Zimmermann.
";s:7:"content";s:2981:"
Paris, le 22 septembre 2011 — Plusieurs organisations de la société civile ont annoncé aujourd'hui le lancement d'une plate-forme en ligne permettant aux citoyens de mettre en évidence les restrictions d'accès imposées par les opérateurs. Cette plate-forme, RespectMyNet.eu, vise à montrer aux décideurs européens les faits qu'ils refusent d'admettre : il existe un besoin urgent de légiférer contre les atteintes à la neutralité du Net, qui mettent en cause les libertés fondamentales, la concurrence et l'innovation.
La neutralité du Net, qui fait référence au principe de non-discrimination des communications sur Internet, est au fondement des bénéfices démocratiques, sociaux et économiques d'Internet.
« La liberté en ligne de chaque citoyen européen est remise en cause par les opérateurs télécoms dominants qui veulent contrôler ce que vous faites sur Internet. Ils veulent bloquer ou ralentir l'accès à certains sites, et même vous faire payer plus pour l'utilisation de services bon marché de téléphonie sur Internet. Les Pays-Bas devraient bientôt interdire ces pratiques inacceptables. Mais cela n'est pas suffisant, chaque Européen a le droit à un Internet ouvert. » déclare Ot van Daalen de l'organisation néerlandaise Bits of Freedom, qui défend les libertés en ligne.
« Le législateur européen fait la sourde oreille sur ce problème depuis plus de deux ans. Le rapport de la commissaire européenne Neelie Kroes sur le sujet prétend qu'il n'y a pas de preuves quant à la nécessité de protéger dans la loi la neutralité du Net. Une telle approche attentiste est choquante quand on voit la réalité des pratiques de gestion du trafic des opérateurs, et leur impact sur la liberté de communication en ligne, la concurrence et l'ensemble de l'économie numérique. » déclare Jérémie Zimmermann, porte-parole de l'initiative citoyenne La Quadrature du Net.
Afin d'appuyer leurs efforts en faveur d'une protection de la neutralité du Net à l'échelle de l'Union européenne, plusieurs groupes de la société civile lancent aujourd'hui RespectMyNet.eu.
« RespectMyNet.eu est une plate-forme en ligne permettant aux citoyens de devenir les gardiens d'Internet en signalant toute violation de la neutralité du Net. Tout le monde est invité à faire état de blocage ou de bridage illégitime de son accès Internet, et ainsi contribuer à pointer du doigt les pratiques malveillantes des opérateurs. » conclut Jérémie Zimmermann.
";s:7:"dateiso";s:15:"20110922_160116";}s:15:"20110915_165417";a:7:{s:5:"title";s:70:"Appelez le Parlement européen à s'engager pour la neutralité du Net";s:4:"link";s:97:"http://www.laquadrature.net/fr/appelez-le-parlement-europeen-a-sengager-pour-la-neutralite-du-net";s:4:"guid";s:35:"4725 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 15 Sep 2011 14:54:17 +0000";s:11:"description";s:11348:"
Le Parlement européen vient d'engager les discussions sur une résolution et une question orale à la Commission européenne relatives la neutralité du Net. Assurez-vous que vos représentants européens prendront un engagement fort en faveur d'un Internet libre et ouvert malgré les pressions de l'industrie des télécoms, en faisant entendre votre voix.
La neutralité du Net — qui désigne le principe de non-discrimination dans l'acheminement des communications en ligne — est au fondement des bénéfices démocratiques et socio-économiques de l'Internet. Pourtant, la neutralité du Net est menacée par les opérateurs télécom dominants qui veulent développer de nouveaux modèles économiques fondés sur le contrôle des communications de leurs utilisateurs.
Bien que certains législateurs nationaux souhaitent défendre la neutralité, la Commission européenne reste dans une position de déni complet. Comme le montre son rapport extrêmement décevant sur le sujet, la commissaire européenne pour l'Agenda numérique, Neelie Kroes, semble en réalité vouloir se contenter d'une approche attentiste, en laissant les opérateurs télécoms discriminer le trafic Internet.
L'Union européenne doit agir dès aujourd'hui, avant que les opérateurs télécoms ne mettent fin à l'Internet tel que nous le connaissons. Pour ce faire, les membres du Parlement européen — la seule institution démocratique de l'Union européenne — doivent se faire entendre dans ce débat crucial. Les eurodéputés doivent appeler à l'adoption d'une loi sur la neutralité du Net à l'échelle de l'Union européenne.
Malheureusement, à ce stade, les projets de résolution et de question orale discutés la semaine dernière par la commission (ITRE) du Parlement sont loins d'être satisfaisants. Ces textes jouent le jeu des opérateurs télécoms, qui font actuellement un lobbying intense pour obtenir une rédaction qui leur soit encore plus favorable. Les citoyens européens peuvent aider à contrer leur influence néfaste.
Écrivez aux eurodéputés !
Contactez les membres du Parlement européen par téléphone ou par courriel pour les enjoindre de prendre des mesures fermes1 en faveur d'un Internet libre et ouvert.
Ci-dessous, nous reproduisons notre courrier envoyé à la commission ITRE le 7 septembre dernier.
Cher membre de la commission ITRE,
Ce jeudi et dans les prochaines semaines, votre commission va discuter d'une résolution importante pour la neutralité du Net.
Nous vous appelons à vous engager fortement en faveur de la nature ouverte d'Internet au travers de cette résolution. Les bienfaits socio-économiques et démocratiques du Net dépendent en effet directement du principe fondateur de neutralité du réseau, qui garantit que les opérateurs de réseaux n'opèrent pas de discrimination entre les différents flux de données transitant sur leur réseau.
Ces derniers mois, plusieurs opérateurs de télécoms européens2 ont fait clairement comprendre qu'ils cherchaient à développer de nouveaux modèles économiques fondés sur la discrimination des communications en ligne.
Cependant, toute remise en cause de la neutralité du Net :
Étoufferait la concurrence et l'innovation dans l'économie numérique, en offrant des conditions de trafic privilégiées aux fournisseurs de contenu en ligne les plus riches ;
Compromettrait la liberté de communication dont jouissent les utilisateurs d'Internet, en transférant des utilisateurs vers les opérateurs le pouvoir de décider des modalités d'acheminement des différents flux de données ;
Porterait préjudice à l'égale participation des internautes à la sphère publique en ligne, en favorisant les abonnés capables de s'offrir des offres d'accès haut-de-gamme leur donnant la priorité sur le réseau, au détriment de tous les autres
Mettrait en danger l'investissement dans les infrastructures de très haut débit, en permettant aux opérateurs de bénéficier de la saturation de leurs réseaux via des offres d'accès prioritaire vendues plus chères.
La Commissaire Neelie Kroes apparaît de plus en plus désireuse3 de céder aux demandes des opérateurs de télécom en les laissant mettre en place des modèles économiques fondés sur la discrimination du trafic.
Comme les législateurs aux Pays-Bas4 et en France5, le Parlement européen doit se prononcer fermement en faveur le principe de neutralité du Net, et :
Reconnaître les menaces qui planent sur la neutralité du Net en Europe et les risques qu'elles font peser sur l'innovation, la concurrence et les libertés en ligne ;
Reconnaître l'inefficacité des mesures du paquet télécom de 2009 pour protéger la neutralité du Net. Ni la « qualité minimum de service » ni la « transparence » ne sont des outils suffisants pour résoudre ce problème urgent ;
Appeler la Commission et le Conseil de l'Union européenne à soutenir l'adoption d'une législation européenne sur la neutralité du Net qui interdirait les pratiques de gestion discriminatoire du trafic et qui créerait des sanctions pour la violation de ce principe.
1. Comme nous l'écrivons ci-dessous, le Parlement doit :
Reconnaître les menaces qui planent sur la neutralité du Net en Europe et les risques qu'elles font peser sur l'innovation, la concurrence et les libertés en ligne
Reconnaître l'inefficacité des mesures du paquet télécom de 2009 pour protéger la neutralité du Net. Ni la « qualité minimum de service » ni la « transparence » ne sont des outils suffisants pour résoudre ce problème urgent;
Appler la Commission et le Conseil de l'Union européenne à soutenir l'adoption d'une législation européenne sur la neutralité du Net qui interdirait les pratiques de gestion discriminatoire du trafic et qui créerait des sanctions pour la violation de ce principe.
Le Parlement européen vient d'engager les discussions sur une résolution et une question orale à la Commission européenne relatives la neutralité du Net. Assurez-vous que vos représentants européens prendront un engagement fort en faveur d'un Internet libre et ouvert malgré les pressions de l'industrie des télécoms, en faisant entendre votre voix.
La neutralité du Net — qui désigne le principe de non-discrimination dans l'acheminement des communications en ligne — est au fondement des bénéfices démocratiques et socio-économiques de l'Internet. Pourtant, la neutralité du Net est menacée par les opérateurs télécom dominants qui veulent développer de nouveaux modèles économiques fondés sur le contrôle des communications de leurs utilisateurs.
Bien que certains législateurs nationaux souhaitent défendre la neutralité, la Commission européenne reste dans une position de déni complet. Comme le montre son rapport extrêmement décevant sur le sujet, la commissaire européenne pour l'Agenda numérique, Neelie Kroes, semble en réalité vouloir se contenter d'une approche attentiste, en laissant les opérateurs télécoms discriminer le trafic Internet.
L'Union européenne doit agir dès aujourd'hui, avant que les opérateurs télécoms ne mettent fin à l'Internet tel que nous le connaissons. Pour ce faire, les membres du Parlement européen — la seule institution démocratique de l'Union européenne — doivent se faire entendre dans ce débat crucial. Les eurodéputés doivent appeler à l'adoption d'une loi sur la neutralité du Net à l'échelle de l'Union européenne.
Malheureusement, à ce stade, les projets de résolution et de question orale discutés la semaine dernière par la commission (ITRE) du Parlement sont loins d'être satisfaisants. Ces textes jouent le jeu des opérateurs télécoms, qui font actuellement un lobbying intense pour obtenir une rédaction qui leur soit encore plus favorable. Les citoyens européens peuvent aider à contrer leur influence néfaste.
Écrivez aux eurodéputés !
Contactez les membres du Parlement européen par téléphone ou par courriel pour les enjoindre de prendre des mesures fermes1 en faveur d'un Internet libre et ouvert.
Ci-dessous, nous reproduisons notre courrier envoyé à la commission ITRE le 7 septembre dernier.
Cher membre de la commission ITRE,
Ce jeudi et dans les prochaines semaines, votre commission va discuter d'une résolution importante pour la neutralité du Net.
Nous vous appelons à vous engager fortement en faveur de la nature ouverte d'Internet au travers de cette résolution. Les bienfaits socio-économiques et démocratiques du Net dépendent en effet directement du principe fondateur de neutralité du réseau, qui garantit que les opérateurs de réseaux n'opèrent pas de discrimination entre les différents flux de données transitant sur leur réseau.
Ces derniers mois, plusieurs opérateurs de télécoms européens2 ont fait clairement comprendre qu'ils cherchaient à développer de nouveaux modèles économiques fondés sur la discrimination des communications en ligne.
Cependant, toute remise en cause de la neutralité du Net :
Étoufferait la concurrence et l'innovation dans l'économie numérique, en offrant des conditions de trafic privilégiées aux fournisseurs de contenu en ligne les plus riches ;
Compromettrait la liberté de communication dont jouissent les utilisateurs d'Internet, en transférant des utilisateurs vers les opérateurs le pouvoir de décider des modalités d'acheminement des différents flux de données ;
Porterait préjudice à l'égale participation des internautes à la sphère publique en ligne, en favorisant les abonnés capables de s'offrir des offres d'accès haut-de-gamme leur donnant la priorité sur le réseau, au détriment de tous les autres
Mettrait en danger l'investissement dans les infrastructures de très haut débit, en permettant aux opérateurs de bénéficier de la saturation de leurs réseaux via des offres d'accès prioritaire vendues plus chères.
La Commissaire Neelie Kroes apparaît de plus en plus désireuse3 de céder aux demandes des opérateurs de télécom en les laissant mettre en place des modèles économiques fondés sur la discrimination du trafic.
Comme les législateurs aux Pays-Bas4 et en France5, le Parlement européen doit se prononcer fermement en faveur le principe de neutralité du Net, et :
Reconnaître les menaces qui planent sur la neutralité du Net en Europe et les risques qu'elles font peser sur l'innovation, la concurrence et les libertés en ligne ;
Reconnaître l'inefficacité des mesures du paquet télécom de 2009 pour protéger la neutralité du Net. Ni la « qualité minimum de service » ni la « transparence » ne sont des outils suffisants pour résoudre ce problème urgent ;
Appeler la Commission et le Conseil de l'Union européenne à soutenir l'adoption d'une législation européenne sur la neutralité du Net qui interdirait les pratiques de gestion discriminatoire du trafic et qui créerait des sanctions pour la violation de ce principe.
1. Comme nous l'écrivons ci-dessous, le Parlement doit :
Reconnaître les menaces qui planent sur la neutralité du Net en Europe et les risques qu'elles font peser sur l'innovation, la concurrence et les libertés en ligne
Reconnaître l'inefficacité des mesures du paquet télécom de 2009 pour protéger la neutralité du Net. Ni la « qualité minimum de service » ni la « transparence » ne sont des outils suffisants pour résoudre ce problème urgent;
Appler la Commission et le Conseil de l'Union européenne à soutenir l'adoption d'une législation européenne sur la neutralité du Net qui interdirait les pratiques de gestion discriminatoire du trafic et qui créerait des sanctions pour la violation de ce principe.
";s:7:"dateiso";s:15:"20110915_165417";}s:15:"20110912_144602";a:7:{s:5:"title";s:70:"Pour une télévision connectée respectueuse de la neutralité du Net";s:4:"link";s:97:"http://www.laquadrature.net/fr/pour-une-television-connectee-respectueuse-de-la-neutralite-du-net";s:4:"guid";s:35:"4716 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 12 Sep 2011 12:46:02 +0000";s:11:"description";s:3202:"
Le gouvernement a mis en place une mission de concertation sur les enjeux de la « télévision connectée ». La Quadrature du Net a été auditionnée en juillet et publie aujourd'hui sa réponse écrite à la consultation mise en place par la mission. La Quadrature y insiste sur la nécessité de protéger la neutralité du Net et l'interopérabilité. Elle invite les citoyens et associations à contribuer à cette consultation pour faire entendre leur voix face aux acteurs industriels.
Les régulateurs doivent avoir pour objectif principal de garantir la liberté de communication des citoyens, et donc le plus grand choix possible pour les utilisateurs à chaque étape de la chaîne de valeur : dans le choix de leur équipement, dans le choix de leur fournisseur d'accès Internet, dans le choix des éditeurs de services en ligne et autres fournisseurs de contenus.
Sauvegarder les intérêts des utilisateurs est probablement le seul moyen d'éviter que le marché de la télévision connectée ne soit mis sous la tutelle d'un nombre restreint d'acteurs dominants comme Apple.
À cet égard, La Quadrature du Net souligne dans sa réponse la nécessité de protéger la neutralité du Net, d'encadrer la distribution de services audiovisuels en tant que « services gérés » et d'assurer l'interopérabilité des téléviseurs connectés afin de protéger le libre choix des utilisateurs, la concurrence et l'innovation dans l'économie numérique (téléchargez la réponse de La Quadrature).
Participez à la consultation !
Alors que tous les acteurs industriels, des équipementiers aux industries du divertissement, sont mobilisés autour de la télévision connectée, il est crucial que les citoyens et les acteurs de la société civile fassent entendre leur voix auprès de la mission, en lui faisant part par e-mail de vos observations (même très courtes).
Pour ce faire, vous pouvez si vous le souhaitez, vous inspirer de la réponse de La Quadrature.
La date limite de réponse est fixée au 15 septembre, mais les réponses envoyées après cette date seront probablement acceptées.
";s:7:"content";s:3208:"
Le gouvernement a mis en place une mission de concertation sur les enjeux de la « télévision connectée ». La Quadrature du Net a été auditionnée en juillet et publie aujourd'hui sa réponse écrite à la consultation mise en place par la mission. La Quadrature y insiste sur la nécessité de protéger la neutralité du Net et l'interopérabilité. Elle invite les citoyens et associations à contribuer à cette consultation pour faire entendre leur voix face aux acteurs industriels.
Les régulateurs doivent avoir pour objectif principal de garantir la liberté de communication des citoyens, et donc le plus grand choix possible pour les utilisateurs à chaque étape de la chaîne de valeur : dans le choix de leur équipement, dans le choix de leur fournisseur d'accès Internet, dans le choix des éditeurs de services en ligne et autres fournisseurs de contenus.
Sauvegarder les intérêts des utilisateurs est probablement le seul moyen d'éviter que le marché de la télévision connectée ne soit mis sous la tutelle d'un nombre restreint d'acteurs dominants comme Apple.
À cet égard, La Quadrature du Net souligne dans sa réponse la nécessité de protéger la neutralité du Net, d'encadrer la distribution de services audiovisuels en tant que « services gérés » et d'assurer l'interopérabilité des téléviseurs connectés afin de protéger le libre choix des utilisateurs, la concurrence et l'innovation dans l'économie numérique (téléchargez la réponse de La Quadrature).
Participez à la consultation !
Alors que tous les acteurs industriels, des équipementiers aux industries du divertissement, sont mobilisés autour de la télévision connectée, il est crucial que les citoyens et les acteurs de la société civile fassent entendre leur voix auprès de la mission, en lui faisant part par e-mail de vos observations (même très courtes).
Pour ce faire, vous pouvez si vous le souhaitez, vous inspirer de la réponse de La Quadrature.
La date limite de réponse est fixée au 15 septembre, mais les réponses envoyées après cette date seront probablement acceptées.
";s:7:"dateiso";s:15:"20110912_144602";}s:15:"20110728_172856";a:7:{s:5:"title";s:79:"Répondez à la consultation de la Commission européenne sur les jeux en ligne";s:4:"link";s:107:"http://www.laquadrature.net/fr/repondez-a-la-consultation-de-la-commission-europeenne-sur-les-jeux-en-ligne";s:4:"guid";s:35:"4669 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 28 Jul 2011 15:28:56 +0000";s:11:"description";s:6324:"
La Quadrature a envoyé sa réponse1 à la consultation2 sur les jeux en ligne organisée par la Commission européenne. Citoyens et ONG doivent se joindre à notre effort en appelant les pouvoirs publics européens à interdire toute forme de blocage de sites Internet.
Le recours croissant au filtrage d'Internet en Europe – quelle que soit la raison invoquée – mène au développement d'une infrastructure de censure d'Internet qui est absolument inacceptable. Comme le souligne La Quadrature dans sa réponse à la consultation, c'est particulièrement vrai dans le cas de la régulation des jeux en ligne, domaine pour lequel de telles mesures sont manifestement disproportionnées et injustifiables. Par ailleurs, les réglementations récentes des États Membres en la matière font craindre qu'elles aient été adoptées au bénéfice d'acteurs économiques liés au pouvoir politique.
Alors que la Commission européenne s'interroge sur la création d'un cadre de régulation commun à toute l'Union européenne pour les jeux en ligne, nous appelons les décideurs publics à abroger tout dispositif de filtrage mis en œuvre dans ce domaine, et à promouvoir en lieu et place des mesures à la fois moins restrictives des libertés et plus efficaces, telles que le blocage des paiements électroniques.
La Quadrature appelle tous les citoyens et ONG attachés à un Internet libre à envoyer leurs réponses (même courtes) à la Commission pour s'opposer au filtrage du Net.
Les réponses aux questions de la consultation n° 50 et 51 portant sur le filtrage3 doivent être rendues d'ici la fin de la semaine (31 juillet 2011), mais celles envoyées au-delà de cette date seront très probablement acceptées.
Téléchargez la réponse de La Quadrature en format PDF (en anglais).
3. Les questions sont les suivantes :
(50) Are any of the methods mentioned above, or any other technical means, applied at national level to limit access to on-line gambling services or to restrict payment services? Are you aware of any cross-border initiative(s) aimed at enforcing such methods? How do you assess their effectiveness in the field of on-line gambling?
(51) What are your views on the relative merits of the methods mentioned above as well as any other technical means to limit access to gambling services or payment services?
Traduction par nos soins :
(50) Les méthodes citées ci-dessus [blocage DNS, blocage IP, blocage des paiements électroniques], ou tout autre moyen technique, sont-elles appliquées au niveau national pour limiter l'accès aux sites de jeux en ligne ou pour restreindre les services de paiement ?
Êtes-vous au fait d'initiative(s) trans-nationales destinée à mettre en œuvre de telles méthodes ? Comment jugez-vous leur efficacité dans le domaine des jeux en ligne ?
(51) Quelle est votre avis sur les avantages des méthodes [blocage DNS, blocage IP, blocage des paiements électroniques] mentionnées ci-dessus ou de tout autre moyen technique visant à limiter l'accès à des services de jeux en ligne ou des services de paiement ?
";s:7:"content";s:6324:"
La Quadrature a envoyé sa réponse1 à la consultation2 sur les jeux en ligne organisée par la Commission européenne. Citoyens et ONG doivent se joindre à notre effort en appelant les pouvoirs publics européens à interdire toute forme de blocage de sites Internet.
Le recours croissant au filtrage d'Internet en Europe – quelle que soit la raison invoquée – mène au développement d'une infrastructure de censure d'Internet qui est absolument inacceptable. Comme le souligne La Quadrature dans sa réponse à la consultation, c'est particulièrement vrai dans le cas de la régulation des jeux en ligne, domaine pour lequel de telles mesures sont manifestement disproportionnées et injustifiables. Par ailleurs, les réglementations récentes des États Membres en la matière font craindre qu'elles aient été adoptées au bénéfice d'acteurs économiques liés au pouvoir politique.
Alors que la Commission européenne s'interroge sur la création d'un cadre de régulation commun à toute l'Union européenne pour les jeux en ligne, nous appelons les décideurs publics à abroger tout dispositif de filtrage mis en œuvre dans ce domaine, et à promouvoir en lieu et place des mesures à la fois moins restrictives des libertés et plus efficaces, telles que le blocage des paiements électroniques.
La Quadrature appelle tous les citoyens et ONG attachés à un Internet libre à envoyer leurs réponses (même courtes) à la Commission pour s'opposer au filtrage du Net.
Les réponses aux questions de la consultation n° 50 et 51 portant sur le filtrage3 doivent être rendues d'ici la fin de la semaine (31 juillet 2011), mais celles envoyées au-delà de cette date seront très probablement acceptées.
Téléchargez la réponse de La Quadrature en format PDF (en anglais).
3. Les questions sont les suivantes :
(50) Are any of the methods mentioned above, or any other technical means, applied at national level to limit access to on-line gambling services or to restrict payment services? Are you aware of any cross-border initiative(s) aimed at enforcing such methods? How do you assess their effectiveness in the field of on-line gambling?
(51) What are your views on the relative merits of the methods mentioned above as well as any other technical means to limit access to gambling services or payment services?
Traduction par nos soins :
(50) Les méthodes citées ci-dessus [blocage DNS, blocage IP, blocage des paiements électroniques], ou tout autre moyen technique, sont-elles appliquées au niveau national pour limiter l'accès aux sites de jeux en ligne ou pour restreindre les services de paiement ?
Êtes-vous au fait d'initiative(s) trans-nationales destinée à mettre en œuvre de telles méthodes ? Comment jugez-vous leur efficacité dans le domaine des jeux en ligne ?
(51) Quelle est votre avis sur les avantages des méthodes [blocage DNS, blocage IP, blocage des paiements électroniques] mentionnées ci-dessus ou de tout autre moyen technique visant à limiter l'accès à des services de jeux en ligne ou des services de paiement ?
";s:7:"dateiso";s:15:"20110728_172856";}s:15:"20110720_131348";a:7:{s:5:"title";s:72:"Une étude du Parlement européen confirme que l'ACTA doit être rejeté";s:4:"link";s:98:"http://www.laquadrature.net/fr/une-etude-du-parlement-europeen-confirme-que-lacta-doit-etre-rejete";s:4:"guid";s:35:"4661 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 20 Jul 2011 11:13:48 +0000";s:11:"description";s:6937:"
Paris, le 20 juillet 2011 – Le Parlement européen vient de publier une étude analysant l'accord anti-contrefaçon ACTA en vue de son vote de ratification. La majeure partie du document reprend les traditionnelles positions extrémistes en matière de droit d'auteur, en particulier concernant l'environnement numérique. Toutefois, cette étude ne peut faire autrement que de reconnaître que l'ACTA comporte de nombreuses failles juridiques et qu'il n'apporte rien aux citoyens européens. Malgré sa tentative de conforter la Commission européenne, l'étude est contrainte de conclure en invitant le Parlement à rejeter l'ACTA.
Après les vives critiques exprimées par les universitaires européens1, cette étude commanditée par la Direction Générale des Politiques Extérieures du Parlement européen reconnaît elle aussi les failles majeures de l'ACTA, tout en soulignant qu'il est « difficile de mettre en avant un quelconque avantage significatif qu'apporte l'ACTA aux citoyens de l'UE au delà du cadre international déjà existant. ». Selon l'étude, « un consentement inconditionnel serait une réponse inappropriée de la part du Parlement européen au vu des problèmes identifiés avec l'ACTA dans sa forme actuelle ».
L'étude parvient à cette conclusion sans même offrir une analyse complète et objective du chapitre numérique de l'ACTA. Elle aurait pu aller bien plus loin que de se contenter d'indiquer que les pires dispositions contenues dans les versions de travail du texte ont disparu du document final. En effet, une comparaison détaillée entre l'ACTA et les demandes de la RIAA2 en 2008 montre que les exigences des lobbies du copyright ont profondément influencé la version finale.
Du fait de l'influence néfaste de ces lobbies, l'ACTA contient toujours une batterie de mesures faisant monter d'un cran la guerre contre le partage de la culture sur Internet3. En imposant la « coopération » avec les ayants-droits et en menaçant les entreprises de l'Internet de sanctions pénales, l'ACTA les forcerait à faire elles-mêmes la police sur leurs réseaux et services, surveillant les communications de leurs utilisateurs et contournant systématiquement les procédures judiciaires4. C'est pourquoi le Rapporteur pour la liberté d'expression des Nations-Unies a récemment exprimé son inquiétude quant à l'impact de l'ACTA sur les droits et libertés en ligne5.
« L'étude refuse de remettre en cause la légitimité de la “guerre contre le partage” et les dangereuses mesures négociées par la Commission européenne mettant en place des polices privées du copyright sur Internet. Mais bien que l'étude soit plutôt sur la ligne extrémiste des industries du divertissement, elle ne peut faire autrement que de pointer les dangers de l'ACTA et inviter à son rejet. Les modifications qu'elle propose comme condition à la ratification de l'ACTA sont si nombreuses qu'il s'agit d'une manière “politiquement correcte” de dire que l'ensemble de l'accord est inacceptable. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« ACTA est depuis le départ un exercice de contournement de la démocratie. Il en résulte un texte dont l'étude estime qu'il est soit inutile, soit dangereux. Les eurodéputés doivent envoyer un message clair indiquant que l'ACTA ne leur sera pas imposé et le rejeter immédiatement. », conclut Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature.
Paris, le 20 juillet 2011 – Le Parlement européen vient de publier une étude analysant l'accord anti-contrefaçon ACTA en vue de son vote de ratification. La majeure partie du document reprend les traditionnelles positions extrémistes en matière de droit d'auteur, en particulier concernant l'environnement numérique. Toutefois, cette étude ne peut faire autrement que de reconnaître que l'ACTA comporte de nombreuses failles juridiques et qu'il n'apporte rien aux citoyens européens. Malgré sa tentative de conforter la Commission européenne, l'étude est contrainte de conclure en invitant le Parlement à rejeter l'ACTA.
Après les vives critiques exprimées par les universitaires européens1, cette étude commanditée par la Direction Générale des Politiques Extérieures du Parlement européen reconnaît elle aussi les failles majeures de l'ACTA, tout en soulignant qu'il est « difficile de mettre en avant un quelconque avantage significatif qu'apporte l'ACTA aux citoyens de l'UE au delà du cadre international déjà existant. ». Selon l'étude, « un consentement inconditionnel serait une réponse inappropriée de la part du Parlement européen au vu des problèmes identifiés avec l'ACTA dans sa forme actuelle ».
L'étude parvient à cette conclusion sans même offrir une analyse complète et objective du chapitre numérique de l'ACTA. Elle aurait pu aller bien plus loin que de se contenter d'indiquer que les pires dispositions contenues dans les versions de travail du texte ont disparu du document final. En effet, une comparaison détaillée entre l'ACTA et les demandes de la RIAA2 en 2008 montre que les exigences des lobbies du copyright ont profondément influencé la version finale.
Du fait de l'influence néfaste de ces lobbies, l'ACTA contient toujours une batterie de mesures faisant monter d'un cran la guerre contre le partage de la culture sur Internet3. En imposant la « coopération » avec les ayants-droits et en menaçant les entreprises de l'Internet de sanctions pénales, l'ACTA les forcerait à faire elles-mêmes la police sur leurs réseaux et services, surveillant les communications de leurs utilisateurs et contournant systématiquement les procédures judiciaires4. C'est pourquoi le Rapporteur pour la liberté d'expression des Nations-Unies a récemment exprimé son inquiétude quant à l'impact de l'ACTA sur les droits et libertés en ligne5.
« L'étude refuse de remettre en cause la légitimité de la “guerre contre le partage” et les dangereuses mesures négociées par la Commission européenne mettant en place des polices privées du copyright sur Internet. Mais bien que l'étude soit plutôt sur la ligne extrémiste des industries du divertissement, elle ne peut faire autrement que de pointer les dangers de l'ACTA et inviter à son rejet. Les modifications qu'elle propose comme condition à la ratification de l'ACTA sont si nombreuses qu'il s'agit d'une manière “politiquement correcte” de dire que l'ensemble de l'accord est inacceptable. », déclare Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« ACTA est depuis le départ un exercice de contournement de la démocratie. Il en résulte un texte dont l'étude estime qu'il est soit inutile, soit dangereux. Les eurodéputés doivent envoyer un message clair indiquant que l'ACTA ne leur sera pas imposé et le rejeter immédiatement. », conclut Philippe Aigrain, co-fondateur et conseiller stratégique de La Quadrature.
";s:7:"dateiso";s:15:"20110720_131348";}s:15:"20110711_124633";a:7:{s:5:"title";s:64:" IPRED : La Commission européenne doit écouter les citoyens !";s:4:"link";s:87:"http://www.laquadrature.net/fr/ipred-la-commission-europeenne-doit-ecouter-les-citoyens";s:4:"guid";s:35:"4645 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 11 Jul 2011 10:46:33 +0000";s:11:"description";s:8273:"
Paris, 11 juillet 2011 – La Commission européenne vient de publier la synthèse de la consultation relative à la directive anti-partage « IPRED ». Elle montre le grand nombre de réponses de la part de citoyens européens, inquiets de la transformation des acteurs du Net en polices privées du droit d'auteur. La Quadrature du Net les félicite pour leur vigilance et leur action. La Commission ne peut désormais ignorer l'opposition citoyenne à son projet de réforme de la directive IPRED.
La Commission européenne vient de publier un rapport sur les résultats de la consultation sur la révision de la directive anti-partage IPRED1, à laquelle La Quadrature a participé2. Les citoyens européens ont été le premier groupe de répondants, devant les représentants de l'industrie du divertissement (ayants-droit, sociétés de gestion de droits, etc.). Face cet afflux de réponses, la Commission a même décidé de prendre en compte les réponses envoyées plus de deux mois après la date limite (normalement fixée au 31 mars 2011).
Naturellement, les citoyens s'opposent au projet de la Commission, qui entend s'attaquer au partage de la culture en ligne « à la source », en faisant des acteurs d'Internet de véritables polices privées du Net. Cette stratégie, annoncée fin mai par le commissaire Michel Barnier3, est dans la droite ligne des politiques répressives encouragées notamment par l'accord ACTA4, les conclusions du G85 ou plus récemment par l'OCDE6. Comme l'a récemment rappelé le rapporteur de Nations Unies pour la liberté d'expression, une telle évolution du droit de l'Internet remettrait gravement en cause la liberté d'expression, le respect de la vie privée et le droit au procès équitable7.
« Cette forte mobilisation des citoyens démontre leur attachement aux droits et libertés sur Internet, et leur refus de voir les acteurs de l'Internet transformés en police du copyright sous couvert de “coopération”. Alors que les débats sur le droit d'auteur sont systématiquement biaisés par le lobbying intense des industries du divertissement, cette forte participation citoyenne permet de faire entendre haut et fort que le partage de la culture est une chance, et non une menace, et que le combattre est voué à l'échec et à mettre à mal les libertés. La Commission doit tenir compte de leur opinion en renonçant à son projet répressif et en initiant une réforme du droit d'auteur qui prenne en compte les droits du public et les nouveaux usages. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net tient à féliciter tous les citoyens qui ont participé à cette consultation, et compte sur eux pour suivre avec vigilance l'évolution de la révision de la directive anti-partage.
Paris, 11 juillet 2011 – La Commission européenne vient de publier la synthèse de la consultation relative à la directive anti-partage « IPRED ». Elle montre le grand nombre de réponses de la part de citoyens européens, inquiets de la transformation des acteurs du Net en polices privées du droit d'auteur. La Quadrature du Net les félicite pour leur vigilance et leur action. La Commission ne peut désormais ignorer l'opposition citoyenne à son projet de réforme de la directive IPRED.
La Commission européenne vient de publier un rapport sur les résultats de la consultation sur la révision de la directive anti-partage IPRED1, à laquelle La Quadrature a participé2. Les citoyens européens ont été le premier groupe de répondants, devant les représentants de l'industrie du divertissement (ayants-droit, sociétés de gestion de droits, etc.). Face cet afflux de réponses, la Commission a même décidé de prendre en compte les réponses envoyées plus de deux mois après la date limite (normalement fixée au 31 mars 2011).
Naturellement, les citoyens s'opposent au projet de la Commission, qui entend s'attaquer au partage de la culture en ligne « à la source », en faisant des acteurs d'Internet de véritables polices privées du Net. Cette stratégie, annoncée fin mai par le commissaire Michel Barnier3, est dans la droite ligne des politiques répressives encouragées notamment par l'accord ACTA4, les conclusions du G85 ou plus récemment par l'OCDE6. Comme l'a récemment rappelé le rapporteur de Nations Unies pour la liberté d'expression, une telle évolution du droit de l'Internet remettrait gravement en cause la liberté d'expression, le respect de la vie privée et le droit au procès équitable7.
« Cette forte mobilisation des citoyens démontre leur attachement aux droits et libertés sur Internet, et leur refus de voir les acteurs de l'Internet transformés en police du copyright sous couvert de “coopération”. Alors que les débats sur le droit d'auteur sont systématiquement biaisés par le lobbying intense des industries du divertissement, cette forte participation citoyenne permet de faire entendre haut et fort que le partage de la culture est une chance, et non une menace, et que le combattre est voué à l'échec et à mettre à mal les libertés. La Commission doit tenir compte de leur opinion en renonçant à son projet répressif et en initiant une réforme du droit d'auteur qui prenne en compte les droits du public et les nouveaux usages. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net tient à féliciter tous les citoyens qui ont participé à cette consultation, et compte sur eux pour suivre avec vigilance l'évolution de la révision de la directive anti-partage.
";s:7:"dateiso";s:15:"20110711_124633";}s:15:"20110706_174639";a:7:{s:5:"title";s:51:"La France sombre un peu plus dans la censure du Net";s:4:"link";s:82:"http://www.laquadrature.net/fr/la-france-sombre-un-peu-plus-dans-la-censure-du-net";s:4:"guid";s:35:"4638 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 06 Jul 2011 15:46:39 +0000";s:11:"description";s:4639:"
Paris, 6 juillet 2011 - La commission des Affaires économiques de l'Assemblée nationale a décidé de maintenir la disposition du projet de loi sur la protection des consommateurs qui donne à la DGCCRF la possibilité d'obtenir d'un juge le filtrage d'un site Internet. Une telle mesure, en opposition totale avec un récent rapport de l'ONU, méprise les libertés fondamentales.
Pour plus d'information sur les enjeux de ce vote, veuillez consulter ce communiqué1.
« Ce vote est incompréhensible, alors même que le filtrage fait l'objet de vives critiques de la part du rapporteur de l'ONU à la liberté d'expression2, et que la mission parlementaire sur la neutralité du Net recommande la mise en place d'un moratoire sur leur extension à de nouveaux domaines3. Cela montre le manque de compréhension du législateur vis-à-vis des réalités techniques d'Internet et son mépris des libertés fondamentales. », a indiqué Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« Quelque soit l'objectif qu'on lui assigne, le recours au filtrage viole l'État de droit4, fragmente cet espace universel qu'est Internet, et nous rapproche des régimes autoritaires qui censurent Internet à des fins politiques sans aucun égard pour la liberté de communication de leurs citoyens. Espérons que les députés supprimeront cette disposition à l'occasion du vote en séance plénière. Au-delà, il faut que les pouvoirs publics s'engagent à abroger le filtrage administratif institué par la LOPPSI, ainsi que les autres mesures de filtrage prononcées notamment dans le cadre de la loi sur les jeux en ligne. », a déclaré Félix Tréguer, chargé des affaires institutionnelles à La Quadrature.
La Quadrature remercie chaleureusement les citoyens qui ont contacté leur députés pour les appeler à rejeter cette mesure, et les encourage à poursuivre la mobilisation en vue du vote en séance plénière.
Paris, 6 juillet 2011 - La commission des Affaires économiques de l'Assemblée nationale a décidé de maintenir la disposition du projet de loi sur la protection des consommateurs qui donne à la DGCCRF la possibilité d'obtenir d'un juge le filtrage d'un site Internet. Une telle mesure, en opposition totale avec un récent rapport de l'ONU, méprise les libertés fondamentales.
Pour plus d'information sur les enjeux de ce vote, veuillez consulter ce communiqué1.
« Ce vote est incompréhensible, alors même que le filtrage fait l'objet de vives critiques de la part du rapporteur de l'ONU à la liberté d'expression2, et que la mission parlementaire sur la neutralité du Net recommande la mise en place d'un moratoire sur leur extension à de nouveaux domaines3. Cela montre le manque de compréhension du législateur vis-à-vis des réalités techniques d'Internet et son mépris des libertés fondamentales. », a indiqué Jérémie Zimmermann, porte-parole de La Quadrature du Net.
« Quelque soit l'objectif qu'on lui assigne, le recours au filtrage viole l'État de droit4, fragmente cet espace universel qu'est Internet, et nous rapproche des régimes autoritaires qui censurent Internet à des fins politiques sans aucun égard pour la liberté de communication de leurs citoyens. Espérons que les députés supprimeront cette disposition à l'occasion du vote en séance plénière. Au-delà, il faut que les pouvoirs publics s'engagent à abroger le filtrage administratif institué par la LOPPSI, ainsi que les autres mesures de filtrage prononcées notamment dans le cadre de la loi sur les jeux en ligne. », a déclaré Félix Tréguer, chargé des affaires institutionnelles à La Quadrature.
La Quadrature remercie chaleureusement les citoyens qui ont contacté leur députés pour les appeler à rejeter cette mesure, et les encourage à poursuivre la mobilisation en vue du vote en séance plénière.
";s:7:"dateiso";s:15:"20110706_174639";}s:15:"20110704_143434";a:7:{s:5:"title";s:40:"Non à la censure « conso » du Net !";s:4:"link";s:60:"http://www.laquadrature.net/fr/non-a-la-censure-conso-du-net";s:4:"guid";s:35:"4630 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 04 Jul 2011 12:34:34 +0000";s:11:"description";s:12755:"
Paris, 4 juillet 2011 – Après le projet de décret visant à mettre en place une véritable censure administrative d'Internet, le gouvernement entend maintenant imposer l'extension du filtrage du Net au détour d'un projet de loi sur la protection des consommateurs. La Commission des Affaires économiques de l'Assemblée nationale, qui se penche à partir de demain sur ce texte, doit absolument rejeter cette nouvelle tentative de contrôle du Net. Chaque citoyen peut participer à la défense d'Internet en contactant les membres de la commission.
Alors qu'en avril dernier, une mission parlementaire transpartisane mettait en cause la légitimité des mesures de filtrage et appelait à un moratoire sur leur extension à de nouveaux domaines1 ; alors que début juin, le rapporteur de l'ONU pour la liberté d'expression exprimait ses plus vives critiques à leur encontre2 ; alors que le projet de décret3 du gouvernement visant à étendre son pouvoir de censure sur Internet essuie de nombreuses critiques, le filtrage du Net fait son retour au Parlement au détour d'un projet de loi relatif à la protection des consommmateurs4.
Présenté par le secrétaire d'État Frédéric Lefèbvre, celui-ci prévoit en son article 10-VI-5° de donner à la DGCCRF (direction générale de la concurrence, consommation et répression des fraudes) le pouvoir de demander à un juge le filtrage d'un site qui enfreindrait le code de la consommation.
La Quadrature du Net a envoyé une note sur les dangers du filtrage5 aux députés de la commission des affaires économiques6, qui se penchent à partir de demain sur ce texte, pour les appeler à rejeter cette extension du filtrage à de nouveaux domaines, et leur rappeler le caractère totalement disproportionné de ces mesures, compte tenu notamment de l'inévitable risque de sur-blocage de contenus parfaitement licites qu'elles font courir.
L'organisation citoyenne appelle les députés de la commission à soutenir les différents amendements déposés par les députés Laure de La Raudière, Corinne Ehrel et Lionel Tardy pour obtenir sa suppression7. Pour protéger la neutralité du Net, elle leur demande également de soutenir les amendements visant à lutter contre l'utilisation abusive de l'expression « Internet illimité » par des opérateurs qui restreignent pourtant allègrement l'utilisation de certains services et applications sur leurs réseaux mobiles8, ainsi que les amendements visant à garantir aux citoyens la possibilité de connecter n'importe quel appareil aux différents réseaux9.
« Compte tenu des fortes critiques exprimées contre le filtrage du Net par les parlementaires français et le rapporteur de l'ONU pour la liberté d'expression, cette tentative d'étendre ces mesures à de nouveaux domaines est absolument inacceptable. Le gouvernement poursuit obstinément son entreprise de contrôle de l'Internet, tout en restant sourd aux appels à mieux protéger la liberté de communication en ligne. À l'occasion de ce projet de loi, le gouvernement aurait ainsi pu proposer des mesures pour garantir la neutralité du Net et lutter contre les restrictions d'accès imposées par les opérateurs à leurs abonnés. Espérons donc que les amendements parlementaires déposés en ce sens seront adoptés. » a indiqué Félix Tréguer, chargé des affaires juridiques à La Quadrature du Net.
Tous les citoyens peuvent participer à la défense d'un Internet libre et ouvert en contactant leurs représentants à la commission des affaires économiques pour leur demander de rejeter le filtrage. Une page de campagne dédiée a été rédigée pour vous y aider.
Paris, 4 juillet 2011 – Après le projet de décret visant à mettre en place une véritable censure administrative d'Internet, le gouvernement entend maintenant imposer l'extension du filtrage du Net au détour d'un projet de loi sur la protection des consommateurs. La Commission des Affaires économiques de l'Assemblée nationale, qui se penche à partir de demain sur ce texte, doit absolument rejeter cette nouvelle tentative de contrôle du Net. Chaque citoyen peut participer à la défense d'Internet en contactant les membres de la commission.
Alors qu'en avril dernier, une mission parlementaire transpartisane mettait en cause la légitimité des mesures de filtrage et appelait à un moratoire sur leur extension à de nouveaux domaines1 ; alors que début juin, le rapporteur de l'ONU pour la liberté d'expression exprimait ses plus vives critiques à leur encontre2 ; alors que le projet de décret3 du gouvernement visant à étendre son pouvoir de censure sur Internet essuie de nombreuses critiques, le filtrage du Net fait son retour au Parlement au détour d'un projet de loi relatif à la protection des consommmateurs4.
Présenté par le secrétaire d'État Frédéric Lefèbvre, celui-ci prévoit en son article 10-VI-5° de donner à la DGCCRF (direction générale de la concurrence, consommation et répression des fraudes) le pouvoir de demander à un juge le filtrage d'un site qui enfreindrait le code de la consommation.
La Quadrature du Net a envoyé une note sur les dangers du filtrage5 aux députés de la commission des affaires économiques6, qui se penchent à partir de demain sur ce texte, pour les appeler à rejeter cette extension du filtrage à de nouveaux domaines, et leur rappeler le caractère totalement disproportionné de ces mesures, compte tenu notamment de l'inévitable risque de sur-blocage de contenus parfaitement licites qu'elles font courir.
L'organisation citoyenne appelle les députés de la commission à soutenir les différents amendements déposés par les députés Laure de La Raudière, Corinne Ehrel et Lionel Tardy pour obtenir sa suppression7. Pour protéger la neutralité du Net, elle leur demande également de soutenir les amendements visant à lutter contre l'utilisation abusive de l'expression « Internet illimité » par des opérateurs qui restreignent pourtant allègrement l'utilisation de certains services et applications sur leurs réseaux mobiles8, ainsi que les amendements visant à garantir aux citoyens la possibilité de connecter n'importe quel appareil aux différents réseaux9.
« Compte tenu des fortes critiques exprimées contre le filtrage du Net par les parlementaires français et le rapporteur de l'ONU pour la liberté d'expression, cette tentative d'étendre ces mesures à de nouveaux domaines est absolument inacceptable. Le gouvernement poursuit obstinément son entreprise de contrôle de l'Internet, tout en restant sourd aux appels à mieux protéger la liberté de communication en ligne. À l'occasion de ce projet de loi, le gouvernement aurait ainsi pu proposer des mesures pour garantir la neutralité du Net et lutter contre les restrictions d'accès imposées par les opérateurs à leurs abonnés. Espérons donc que les amendements parlementaires déposés en ce sens seront adoptés. » a indiqué Félix Tréguer, chargé des affaires juridiques à La Quadrature du Net.
Tous les citoyens peuvent participer à la défense d'un Internet libre et ouvert en contactant leurs représentants à la commission des affaires économiques pour leur demander de rejeter le filtrage. Une page de campagne dédiée a été rédigée pour vous y aider.
";s:7:"dateiso";s:15:"20110704_143434";}s:15:"20110630_170814";a:7:{s:5:"title";s:74:"La Commission européenne donne le coup d'envoi de la campagne contre ACTA";s:4:"link";s:103:"http://www.laquadrature.net/fr/la-commission-europeenne-donne-le-coup-denvoi-de-la-campagne-contre-acta";s:4:"guid";s:35:"4618 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 30 Jun 2011 15:08:14 +0000";s:11:"description";s:12676:"
Paris, le 30 juin 2011 – La Commission européenne a adopté des propositions en vue de la ratification de l'accord anti-contrefaçon ACTA. Cela ouvre la voie à une action concertée des citoyens pour vaincre ACTA, qui fera l'objet d'un vote devant le Parlement européen et les parlements nationaux. Parmi tous les textes et les politiques cherchant à établir une censure privée sur Internet, l'ACTA symbolise les pires tactiques de contournement démocratique au bénéfice de quelques intérêts privés. La démocratie doit se défendre.
Après avoir adopté deux propositions pour la signature1 et la ratification2 d'ACTA, la Commission les a transmises au Conseil des Ministres de l'UE, qui les adoptera à son tour dans les prochaines semaines. Les 27 États membres demanderont à leur parlements nationaux de ratifier cet accord, qui sera également soumis au vote du Parlement européen.
Ce traité négocié secrètement, loin d'être limité aux questions commerciales, imposera aux signataires de nouvelles sanctions pénales mal définies et couvrant un domaine extrêmement vaste pour réprimer les atteintes au droit d'auteur, au droit des marques ou des brevets, même lorsqu'elles sont menées sans but de profit3.
Dans l'environnement numérique, son entrée en vigueur conduira également au développement de sanctions extra-judiciaires contre les atteintes au droit d'auteur. Sous couvert d'une inoffensive « coopération » entre les acteurs d'Internet et les industries du divertissement, ACTA mènerait à une véritable censure privée, violant le droit au procès équitable ainsi que la neutralité du Net et la liberté d'expression4. Cette stratégie fut à nouveau réaffirmée le mois dernier par la Commission européenne lors de l'annonce de sa stratégie relative au droit d'auteur5, lors du dernier sommet du G86, ainsi qu'hier dans les principes sur les politiques liées à l'Internet publiés par l'OCDE7.
Le processus de ratification ouvre la voie à la mobilisation des citoyens de l'UE, des entreprises et des ONG, afin de travailler ensemble au rejet de cet accord profondément antidémocratique, voué à nuire aux libertés et à l'innovation de part le monde.
« Le moment est venu ! Nous sommes face à une bataille historique que nous ne pouvons pas nous permettre de perdre dans la “guerre contre le partage”. Chaque citoyen attaché à un Internet libre, à la protection des libertés fondamentales et à la démocratie peut contribuer à faire échouer l'ACTA. Les parlements européens et nationaux doivent suivre l'exemple de leurs homologues mexicains et rejeter l'ACTA. Tous les moyens démocratiques doivent être utilisés pour vaincre cet incroyable déni de démocratie, qui s'en prend à nos libertés pour protéger quelques industries obsolètes. », a déclaré Jérémie Zimmermann, porte-parole et co-fondateur de La Quadrature du Net.
4. Consultez notre analyse des pires éléments d’ACTA : http://www.laquadrature.net/en/acta-updated-analysis-of-the-final-version
Voir en particulier l'article 27.3 : Chaque Membre doit s'attacher à promouvoir une certaine coopération au sein de la communauté industrielle pour réellement résoudre les problèmes de marques déposées, de copyright et les violations des droits voisins tout en préservant la compétition régulière et, en accord avec la loi en vigueur chez ce Membre, les droits fondamentaux tels la liberté d'expression, le traitement équitable et le respect de la vie privée.
6. Déclaration du G8 – Engagement renouvelé pour la liberté et la démocratie, 30 mai 2001 : « S'agissant de la protection de la propriété intellectuelle, en particulier des droits d'auteur, des marques déposées, des secrets commerciaux et des brevets, nous reconnaissons que nous devons mettre en place des législations et des cadres nationaux pour en améliorer le respect. C'est pourquoi nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé. ».
Lien: http://www.g20-g8.com/g8-g20/g8/francais/le-sommet-2011/declarations-et-...
Paris, le 30 juin 2011 – La Commission européenne a adopté des propositions en vue de la ratification de l'accord anti-contrefaçon ACTA. Cela ouvre la voie à une action concertée des citoyens pour vaincre ACTA, qui fera l'objet d'un vote devant le Parlement européen et les parlements nationaux. Parmi tous les textes et les politiques cherchant à établir une censure privée sur Internet, l'ACTA symbolise les pires tactiques de contournement démocratique au bénéfice de quelques intérêts privés. La démocratie doit se défendre.
Après avoir adopté deux propositions pour la signature1 et la ratification2 d'ACTA, la Commission les a transmises au Conseil des Ministres de l'UE, qui les adoptera à son tour dans les prochaines semaines. Les 27 États membres demanderont à leur parlements nationaux de ratifier cet accord, qui sera également soumis au vote du Parlement européen.
Ce traité négocié secrètement, loin d'être limité aux questions commerciales, imposera aux signataires de nouvelles sanctions pénales mal définies et couvrant un domaine extrêmement vaste pour réprimer les atteintes au droit d'auteur, au droit des marques ou des brevets, même lorsqu'elles sont menées sans but de profit3.
Dans l'environnement numérique, son entrée en vigueur conduira également au développement de sanctions extra-judiciaires contre les atteintes au droit d'auteur. Sous couvert d'une inoffensive « coopération » entre les acteurs d'Internet et les industries du divertissement, ACTA mènerait à une véritable censure privée, violant le droit au procès équitable ainsi que la neutralité du Net et la liberté d'expression4. Cette stratégie fut à nouveau réaffirmée le mois dernier par la Commission européenne lors de l'annonce de sa stratégie relative au droit d'auteur5, lors du dernier sommet du G86, ainsi qu'hier dans les principes sur les politiques liées à l'Internet publiés par l'OCDE7.
Le processus de ratification ouvre la voie à la mobilisation des citoyens de l'UE, des entreprises et des ONG, afin de travailler ensemble au rejet de cet accord profondément antidémocratique, voué à nuire aux libertés et à l'innovation de part le monde.
« Le moment est venu ! Nous sommes face à une bataille historique que nous ne pouvons pas nous permettre de perdre dans la “guerre contre le partage”. Chaque citoyen attaché à un Internet libre, à la protection des libertés fondamentales et à la démocratie peut contribuer à faire échouer l'ACTA. Les parlements européens et nationaux doivent suivre l'exemple de leurs homologues mexicains et rejeter l'ACTA. Tous les moyens démocratiques doivent être utilisés pour vaincre cet incroyable déni de démocratie, qui s'en prend à nos libertés pour protéger quelques industries obsolètes. », a déclaré Jérémie Zimmermann, porte-parole et co-fondateur de La Quadrature du Net.
4. Consultez notre analyse des pires éléments d’ACTA : http://www.laquadrature.net/en/acta-updated-analysis-of-the-final-version
Voir en particulier l'article 27.3 : Chaque Membre doit s'attacher à promouvoir une certaine coopération au sein de la communauté industrielle pour réellement résoudre les problèmes de marques déposées, de copyright et les violations des droits voisins tout en préservant la compétition régulière et, en accord avec la loi en vigueur chez ce Membre, les droits fondamentaux tels la liberté d'expression, le traitement équitable et le respect de la vie privée.
6. Déclaration du G8 – Engagement renouvelé pour la liberté et la démocratie, 30 mai 2001 : « S'agissant de la protection de la propriété intellectuelle, en particulier des droits d'auteur, des marques déposées, des secrets commerciaux et des brevets, nous reconnaissons que nous devons mettre en place des législations et des cadres nationaux pour en améliorer le respect. C'est pourquoi nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé. ».
Lien: http://www.g20-g8.com/g8-g20/g8/francais/le-sommet-2011/declarations-et-...
";s:7:"dateiso";s:15:"20110630_170814";}s:15:"20110629_163333";a:7:{s:5:"title";s:65:"Hollywood impose la censure privée dans le communiqué de l'OCDE";s:4:"link";s:93:"http://www.laquadrature.net/fr/hollywood-impose-la-censure-privee-dans-le-communique-de-locde";s:4:"guid";s:35:"4615 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 29 Jun 2011 14:33:33 +0000";s:11:"description";s:7799:"
Paris, 29 juin 2011 – Le communiqué final de l'OCDE sur les politiques liées à Internet vient d'être publié. Les industries du divertissement et quelques gouvernements ont finalement laissé leur obstination repressive saper le soutien aux libertés fondamentales et à l'ouverture du Net au nom du droit d'auteur. La Quadrature du Net soutient la décision de la coalition de la société civile de rejeter un mauvais compromis et le document final.
Malgré des négociations de dernière minute menées par le gouvernement des États-Unis, le communiqué final1 sur les principes des politiques liées à Internet comporte de dangereuses menaces pour l'Internet ouvert et la protection des libertés fondamentales2. La coalition de la société civile, la CSISAC, a fait le bon choix en refusant d’approuver le communiqué final.
Les bons principes mis en avant dans le début du texte sont profondément affaiblis par les dispositions relatives au droit d'auteur3. Le communiqué veut contraindre les acteurs d'Internet à participer à une « guerre sans fin contre le partage » et leur confie des missions de police et de justice privée4.
Espérons que les prochains travaux de l'OCDE offriront de meilleures occasions à la société civile d'être entendue. Le processus multi-acteurs est une bonne approche et n'est pas incompatible avec une défense sans compromis de la liberté d'expression et de l'État de droit.
« Même si cela est peu surprenant, il est choquant de voir que les pays membres de l'OCDE se rallient aux industries du divertissement, sapant les droits et libertés qu'ils tentent par ailleurs de promouvoir. Transformer les hébergeurs, moteurs de recherche, registrars de noms de domaine et autre intermédiaires en une police privée du Net modifierait radicalement l'architecture d'Internet et nuirait à ses principes fondateurs. Décider des politiques relatives à Internet contre l'avis de la société civile, c'est comme s'obstiner à tourner le droit d'auteur contre le public : une approche vouée à l'échec portant atteinte aux libertés fondamentales. », souligne Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
3. Le communiqué explique ainsi que « les utilisateurs devraient avoir la possibilité d’accéder et de générer du contenu licite », restreignant ainsi la liberté d’expression et ouvrant la voie à une censure automatisée qui verrait des machines ou des entités privées, et non des juges, déterminer ce qui est licite et ce qui ne l’est pas.
4. Le communiqué de l’OCDE prévoit ainsi que « les intermédiaires techniques d’Internet pourraient prendre des mesures pour […] assister les ayants-droits dans l'application de leurs droits ou dans la réduction du nombre de contenus illicites, […], en respectant une juste procédure […] », la « juste procédure » étant explicitement définie sans aucune référence à l'autorité judiciaire.
En outre, au lieu d'insister sur les exemptions de responsabilité et leur importance, le communiqué appelle les acteurs d'Internet à s’impliquer activement dans l’application de la loi. Il y est écrit « les intermédiaires techniques, comme les autres parties prenantes, peuvent jouer et jouent un rôle important en analysant et en empêchant les activités illégales, fraudes et pratiques trompeuses et injustes ayant lieu sur leurs réseaux et services et en faisant progresser la croissance économique. » (traduit par nos soins).
“Internet intermediaries,like other stakeholders, can and do play an important role by addressing and deterring illegal activity, fraud and misleading and unfair practices conducted over their networks and services as well as advancing economic growth.”
";s:7:"content";s:7799:"
Paris, 29 juin 2011 – Le communiqué final de l'OCDE sur les politiques liées à Internet vient d'être publié. Les industries du divertissement et quelques gouvernements ont finalement laissé leur obstination repressive saper le soutien aux libertés fondamentales et à l'ouverture du Net au nom du droit d'auteur. La Quadrature du Net soutient la décision de la coalition de la société civile de rejeter un mauvais compromis et le document final.
Malgré des négociations de dernière minute menées par le gouvernement des États-Unis, le communiqué final1 sur les principes des politiques liées à Internet comporte de dangereuses menaces pour l'Internet ouvert et la protection des libertés fondamentales2. La coalition de la société civile, la CSISAC, a fait le bon choix en refusant d’approuver le communiqué final.
Les bons principes mis en avant dans le début du texte sont profondément affaiblis par les dispositions relatives au droit d'auteur3. Le communiqué veut contraindre les acteurs d'Internet à participer à une « guerre sans fin contre le partage » et leur confie des missions de police et de justice privée4.
Espérons que les prochains travaux de l'OCDE offriront de meilleures occasions à la société civile d'être entendue. Le processus multi-acteurs est une bonne approche et n'est pas incompatible avec une défense sans compromis de la liberté d'expression et de l'État de droit.
« Même si cela est peu surprenant, il est choquant de voir que les pays membres de l'OCDE se rallient aux industries du divertissement, sapant les droits et libertés qu'ils tentent par ailleurs de promouvoir. Transformer les hébergeurs, moteurs de recherche, registrars de noms de domaine et autre intermédiaires en une police privée du Net modifierait radicalement l'architecture d'Internet et nuirait à ses principes fondateurs. Décider des politiques relatives à Internet contre l'avis de la société civile, c'est comme s'obstiner à tourner le droit d'auteur contre le public : une approche vouée à l'échec portant atteinte aux libertés fondamentales. », souligne Jérémie Zimmermann, co-fondateur et porte-parole de La Quadrature du Net.
3. Le communiqué explique ainsi que « les utilisateurs devraient avoir la possibilité d’accéder et de générer du contenu licite », restreignant ainsi la liberté d’expression et ouvrant la voie à une censure automatisée qui verrait des machines ou des entités privées, et non des juges, déterminer ce qui est licite et ce qui ne l’est pas.
4. Le communiqué de l’OCDE prévoit ainsi que « les intermédiaires techniques d’Internet pourraient prendre des mesures pour […] assister les ayants-droits dans l'application de leurs droits ou dans la réduction du nombre de contenus illicites, […], en respectant une juste procédure […] », la « juste procédure » étant explicitement définie sans aucune référence à l'autorité judiciaire.
En outre, au lieu d'insister sur les exemptions de responsabilité et leur importance, le communiqué appelle les acteurs d'Internet à s’impliquer activement dans l’application de la loi. Il y est écrit « les intermédiaires techniques, comme les autres parties prenantes, peuvent jouer et jouent un rôle important en analysant et en empêchant les activités illégales, fraudes et pratiques trompeuses et injustes ayant lieu sur leurs réseaux et services et en faisant progresser la croissance économique. » (traduit par nos soins).
“Internet intermediaries,like other stakeholders, can and do play an important role by addressing and deterring illegal activity, fraud and misleading and unfair practices conducted over their networks and services as well as advancing economic growth.”
";s:7:"dateiso";s:15:"20110629_163333";}s:15:"20110628_173616";a:7:{s:5:"title";s:82:"Le projet de communiqué de l'OCDE sacrifie les libertés au nom du droit d'auteur";s:4:"link";s:109:"http://www.laquadrature.net/fr/le-projet-de-communique-de-locde-sacrifie-les-libertes-au-nom-du-droit-dauteur";s:4:"guid";s:35:"4609 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 28 Jun 2011 15:36:16 +0000";s:11:"description";s:8518:"
Paris, le 28 juin 2011 – La Quadrature du Net se joint aux 80 groupes de la société civile qui s'opposent au projet de communiqué de l'OCDE sur les politiques liées à Internet. Bien que le texte mette en avant des recommandations positives, les droits et libertés en ligne sont sévèrement menacés par la tentative de soumettre le réseau à une police privée, ouvrant la voie à la censure automatique au nom du droit d'auteur.
Les 80 groupes représentés à l’Organisation de Coopération et de Développement Économique (OCDE) sous l’égide du CSISAC1 ont rejeté le projet de communiqué sur les principes pour la politique d'Internet. La Quadrature du Net joint sa voix à celle du CSISAC et regrette l’entêtement des pays membres de l'OCDE à défendre les modèles économiques obsolètes de l'industrie du divertissement, qui remet en cause les principes que le communiqué cherche à justement à promouvoir.
Le projet de communiqué montre malheureusement que les pays membres de l'OCDE sont prêts à soutenir les mêmes politiques dépassées que l’accord ACTA2, les conclusions du G83, et la stratégie4 de l’UE pour le futur du droit d'auteur. Il contient des éléments de langages cruciaux qui visent à affaiblir les exonérations de responsabilité dont bénéficient les entreprises de l’Internet, tels que les moteurs de recherche et les fournisseurs d’accès ou d’hébergement5, pour les transformer en police et justice privées. La version de travail du communiqué de l’OCDE explique ainsi que « les intermédiaires techniques d’Internet pourraient prendre des mesures pour […] assister les ayants-droits dans l'application de leurs droits ou dans la réduction du nombre de contenus illicites, […], en respectant une juste procédure […] »6, la « juste procédure » étant explicitement définie sans aucune référence à l'autorité judiciaire. Ces éléments de langage sont clairement conçus de façon à permettre aux ayants-droits de contourner le droit des citoyens à un procès équitable.
Ainsi, le communiqué de l'OCDE légitime les politiques contournant l'autorité judiciaire pour l'application des lois sur internet, notamment en vue de l'application d'un régime de droit d'auteur devenu obsolète. Il mentionne également le fait que « les utilisateurs devraient avoir la possibilité d’accéder et de générer du contenu licite », restreignant ainsi la liberté d’expression et ouvrant la voie à une censure privée et automatisée qui verrait des machines, et non des juges, déterminer ce qui est licite et ce qui ne l’est pas.
« S'il reste en l'état, le communiqué de l'OCDE est voué à promouvoir une guerre contre le partage vieille de dix ans, et qui a déjà eu des conséquences désastreuses sur la liberté d'expression et sur la vie privée. Sous la pression des industries du divertissement, l’OCDE sape les principes qu'elle entend promouvoir pour les politiques de l’Internet. Les libertés fondamentales et l’État de droit doivent prévaloir sur les intérêts privés, ce qui implique de garantir un procès équitable à tous les citoyens plutôt que d'en appeler à des polices privées et à la censure », conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
5. Au lieu d'insister sur les exonérations de responsabilités et leur importance, le document de travail les appelle à s’impliquer activement dans l’application de la loi. Il y est écrit « les intermédiaires techniques, comme les autres parties prenantes, peuvent jouer et jouent un rôle important en analysant et en empêchant les activités illégales, fraudes et pratiques trompeuses et injustes ayant lieu sur leurs réseaux et services et en faisant progresser la croissance économique. » (traduit par nos soins). “Internet intermediaries,like other stakeholders, can and do play an important role by addressing and deterring illegal activity, fraud and misleading and unfair practices conducted over their networks and services as well as advancing economic growth.”
6.“Internet intermediaries could take steps to [...] assist rights holders in enforcing their rights or reduce illegal content,[...], respecting fair process [...]”
";s:7:"content";s:8518:"
Paris, le 28 juin 2011 – La Quadrature du Net se joint aux 80 groupes de la société civile qui s'opposent au projet de communiqué de l'OCDE sur les politiques liées à Internet. Bien que le texte mette en avant des recommandations positives, les droits et libertés en ligne sont sévèrement menacés par la tentative de soumettre le réseau à une police privée, ouvrant la voie à la censure automatique au nom du droit d'auteur.
Les 80 groupes représentés à l’Organisation de Coopération et de Développement Économique (OCDE) sous l’égide du CSISAC1 ont rejeté le projet de communiqué sur les principes pour la politique d'Internet. La Quadrature du Net joint sa voix à celle du CSISAC et regrette l’entêtement des pays membres de l'OCDE à défendre les modèles économiques obsolètes de l'industrie du divertissement, qui remet en cause les principes que le communiqué cherche à justement à promouvoir.
Le projet de communiqué montre malheureusement que les pays membres de l'OCDE sont prêts à soutenir les mêmes politiques dépassées que l’accord ACTA2, les conclusions du G83, et la stratégie4 de l’UE pour le futur du droit d'auteur. Il contient des éléments de langages cruciaux qui visent à affaiblir les exonérations de responsabilité dont bénéficient les entreprises de l’Internet, tels que les moteurs de recherche et les fournisseurs d’accès ou d’hébergement5, pour les transformer en police et justice privées. La version de travail du communiqué de l’OCDE explique ainsi que « les intermédiaires techniques d’Internet pourraient prendre des mesures pour […] assister les ayants-droits dans l'application de leurs droits ou dans la réduction du nombre de contenus illicites, […], en respectant une juste procédure […] »6, la « juste procédure » étant explicitement définie sans aucune référence à l'autorité judiciaire. Ces éléments de langage sont clairement conçus de façon à permettre aux ayants-droits de contourner le droit des citoyens à un procès équitable.
Ainsi, le communiqué de l'OCDE légitime les politiques contournant l'autorité judiciaire pour l'application des lois sur internet, notamment en vue de l'application d'un régime de droit d'auteur devenu obsolète. Il mentionne également le fait que « les utilisateurs devraient avoir la possibilité d’accéder et de générer du contenu licite », restreignant ainsi la liberté d’expression et ouvrant la voie à une censure privée et automatisée qui verrait des machines, et non des juges, déterminer ce qui est licite et ce qui ne l’est pas.
« S'il reste en l'état, le communiqué de l'OCDE est voué à promouvoir une guerre contre le partage vieille de dix ans, et qui a déjà eu des conséquences désastreuses sur la liberté d'expression et sur la vie privée. Sous la pression des industries du divertissement, l’OCDE sape les principes qu'elle entend promouvoir pour les politiques de l’Internet. Les libertés fondamentales et l’État de droit doivent prévaloir sur les intérêts privés, ce qui implique de garantir un procès équitable à tous les citoyens plutôt que d'en appeler à des polices privées et à la censure », conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
5. Au lieu d'insister sur les exonérations de responsabilités et leur importance, le document de travail les appelle à s’impliquer activement dans l’application de la loi. Il y est écrit « les intermédiaires techniques, comme les autres parties prenantes, peuvent jouer et jouent un rôle important en analysant et en empêchant les activités illégales, fraudes et pratiques trompeuses et injustes ayant lieu sur leurs réseaux et services et en faisant progresser la croissance économique. » (traduit par nos soins). “Internet intermediaries,like other stakeholders, can and do play an important role by addressing and deterring illegal activity, fraud and misleading and unfair practices conducted over their networks and services as well as advancing economic growth.”
6.“Internet intermediaries could take steps to [...] assist rights holders in enforcing their rights or reduce illegal content,[...], respecting fair process [...]”
";s:7:"dateiso";s:15:"20110628_173616";}s:15:"20110628_140124";a:7:{s:5:"title";s:69:"Citoyens, artistes et consommateurs pour la reconnaissance du partage";s:4:"link";s:99:"http://www.laquadrature.net/fr/citoyens-artistes-et-consommateurs-pour-la-reconnaissance-du-partage";s:4:"guid";s:35:"4605 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 28 Jun 2011 12:01:24 +0000";s:11:"description";s:3665:"
Paris, le 28 juin 2011, La plateforme Création Public et Internet (CPI), à laquelle participe La Quadrature du Net réunit des organisations de consommateurs, d'artistes et de citoyens. Elle lance aujourd'hui une campagne pour la reconnaissance du droit au partage de fichiers entre individus sans but lucratif et la mise en place de financements mutualisés, justes et gouvernés démocratiquement de la création numérique.
Le communiqué de presse 1 de Création-Public-Internet s’indigne de la poursuite de la marche forcée de la France à contresens de l’histoire numérique et adresse aux candidats à l’élection présidentielle une demande d’« engagement pour un accès élargi à la création », et en particulier pour la légalisation du partage de tout fichier numérique entre individus sans but lucratif.
Deux ans après l’installation de la plateforme Création-Public-Internet en réaction à la liberticide HADOPI, le collectif « Pour le Cinéma », la Quadrature du Net, le SAMUP et l'UFC-Que Choisir continuent leur engagement pour que l’accès à la culture devienne effectif à travers un droit au partage de fichiers numériques respectueux du droit des artistes. Le contexte est plus que jamais favorable à cette évolution, puisque la logique répressive n’a pas généré un seul euro supplémentaire de revenus pour les artistes et les créateurs.
La proposition de la plateforme Création-Public-Internet2 couvre l'ensemble des médias, y compris ceux natifs d'Internet et toutes les œuvres numériques qui ont été distribuées, que ce soit commercialement ou non, y compris bien sûr les œuvres déjà volontairement partagées. Elle repose sur une contribution de 5 euros par mois et par abonné à Internet, qui dégagerait chaque année 1,3 milliard d’euros par an de revenus et de financements pour de nouvelles œuvres.
« Une occasion remarquable s'ouvre de rompre avec l'obscurantisme qui refuse aux individus le droit de partager entre eux la culture numérique, et de créer de nouvelles conditions de soutenabilité pour les activités d'un nombre sans cesse accru de créateurs. » déclare Philippe Aigrain, co-fondateur du collectif citoyen La Quadrature du Net.
Paris, le 28 juin 2011, La plateforme Création Public et Internet (CPI), à laquelle participe La Quadrature du Net réunit des organisations de consommateurs, d'artistes et de citoyens. Elle lance aujourd'hui une campagne pour la reconnaissance du droit au partage de fichiers entre individus sans but lucratif et la mise en place de financements mutualisés, justes et gouvernés démocratiquement de la création numérique.
Le communiqué de presse 1 de Création-Public-Internet s’indigne de la poursuite de la marche forcée de la France à contresens de l’histoire numérique et adresse aux candidats à l’élection présidentielle une demande d’« engagement pour un accès élargi à la création », et en particulier pour la légalisation du partage de tout fichier numérique entre individus sans but lucratif.
Deux ans après l’installation de la plateforme Création-Public-Internet en réaction à la liberticide HADOPI, le collectif « Pour le Cinéma », la Quadrature du Net, le SAMUP et l'UFC-Que Choisir continuent leur engagement pour que l’accès à la culture devienne effectif à travers un droit au partage de fichiers numériques respectueux du droit des artistes. Le contexte est plus que jamais favorable à cette évolution, puisque la logique répressive n’a pas généré un seul euro supplémentaire de revenus pour les artistes et les créateurs.
La proposition de la plateforme Création-Public-Internet2 couvre l'ensemble des médias, y compris ceux natifs d'Internet et toutes les œuvres numériques qui ont été distribuées, que ce soit commercialement ou non, y compris bien sûr les œuvres déjà volontairement partagées. Elle repose sur une contribution de 5 euros par mois et par abonné à Internet, qui dégagerait chaque année 1,3 milliard d’euros par an de revenus et de financements pour de nouvelles œuvres.
« Une occasion remarquable s'ouvre de rompre avec l'obscurantisme qui refuse aux individus le droit de partager entre eux la culture numérique, et de créer de nouvelles conditions de soutenabilité pour les activités d'un nombre sans cesse accru de créateurs. » déclare Philippe Aigrain, co-fondateur du collectif citoyen La Quadrature du Net.
";s:7:"dateiso";s:15:"20110628_140124";}s:15:"20110627_175341";a:7:{s:5:"title";s:54:"L'OCDE servira-t-elle Hollywood contre nos libertés ?";s:4:"link";s:81:"http://www.laquadrature.net/fr/locde-servira-t-elle-hollywood-contre-nos-libertes";s:4:"guid";s:35:"4603 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Mon, 27 Jun 2011 15:53:41 +0000";s:11:"description";s:7361:"
Paris, le 27 juin 2011 – Les pays de l'OCDE finalisent actuellement un communiqué sur l'avenir d'Internet. Soit la version finale tranchera en faveur des libertés fondamentales, soit elle sera un énième appel à plus de répression du droit d'auteur sur Internet, en ligne avec l'accord ACTA, les conclusions du G8 et la nouvelle stratégie de l'Union Européenne.
À partir de demain et pour deux jours, l'Organisation pour la Coopération et le Développement Économique (OCDE) – constituée de 34 pays occidentaux riches et industrialisés – organise une rencontre sur l'avenir de l'économie d'Internet. Le texte final du communiqué qui sera publié à l'issue de ces deux jours tranchera soit en faveur des droits des citoyens, soit en faveur des politiques répressives de puissantes entreprises défendues par quelques gouvernements.
Internet est à un tournant historique, et les membres de l'OCDE doivent choisir leur camp. D'un côté, la tendance aux politiques répressives n'a jamais été aussi forte, avec le traité ACTA1, les conclusions du G82 et la stratégie3 de l'UE en matière de droit d'auteur, qui visent à confier les missions de police et de justice à des entreprises d'Internet, avec des conséquences inévitables sur la liberté d'expression en ligne. Dans ce scénario, des machines au cœur du réseau seraient configurées pour décider de ce que est « licite » ou non4, allant à l'encontre du droit à un procès équitable et de l'esprit même de la justice.
De l'autre côté, en opposition totale, se trouvent les conclusions du Rapporteur pour la liberté d'expression à l'ONU, Frank La Rue, qui défend la protection des droits de l'Homme plutôt que l'application forcenée du droit d'auteur et la répression des usages d'Internet5. Les propositions6 de La Quadrature du Net pour la protection des libertés fondamentales en ligne, l'accès à une infrastructure libre et la libre circulation de l'information vont dans cette même direction.
« Les conclusions des gouvernements de l'OCDE montreront si cette institution protège réellement l'intérêt général, ou si elle sert les intérêts d'un petit nombre de gouvernements qui poussent la mise en place des politiques répressives et conservatrices des industries du divertissement. Malheureusement, la liste des participants aux différents panels7 invite à penser que l'OCDE a peut-être déjà choisi le camp des grandes entreprises cherchant à contrôler le Net. L'OCDE ne peut gagner sa légitimité que si ses pays membres font prévaloir nos droits et l'universalité d'un Internet libre plutôt que les intérêts sectoriels. », conclut Jérémie Zimmermann, porte-parole et co-fondateur de l'organisation citoyenne La Quadrature du Net.
4. Les soi-disant « accords volontaires » que les industries du divertissement veulent imposer aux intermédiaires d'Internet afin qu'ils mettent en œuvre des « mesures pour dissuader les infractions futures », qui aboutiront inévitablement à des mécanismes de censure au cœur même du réseau.
7. Parmi les panelistes se trouvent des représentants de Vivendi-Universal, Fox, AT&T, Alcatel-Lucent, Verizon, etc.
";s:7:"content";s:7361:"
Paris, le 27 juin 2011 – Les pays de l'OCDE finalisent actuellement un communiqué sur l'avenir d'Internet. Soit la version finale tranchera en faveur des libertés fondamentales, soit elle sera un énième appel à plus de répression du droit d'auteur sur Internet, en ligne avec l'accord ACTA, les conclusions du G8 et la nouvelle stratégie de l'Union Européenne.
À partir de demain et pour deux jours, l'Organisation pour la Coopération et le Développement Économique (OCDE) – constituée de 34 pays occidentaux riches et industrialisés – organise une rencontre sur l'avenir de l'économie d'Internet. Le texte final du communiqué qui sera publié à l'issue de ces deux jours tranchera soit en faveur des droits des citoyens, soit en faveur des politiques répressives de puissantes entreprises défendues par quelques gouvernements.
Internet est à un tournant historique, et les membres de l'OCDE doivent choisir leur camp. D'un côté, la tendance aux politiques répressives n'a jamais été aussi forte, avec le traité ACTA1, les conclusions du G82 et la stratégie3 de l'UE en matière de droit d'auteur, qui visent à confier les missions de police et de justice à des entreprises d'Internet, avec des conséquences inévitables sur la liberté d'expression en ligne. Dans ce scénario, des machines au cœur du réseau seraient configurées pour décider de ce que est « licite » ou non4, allant à l'encontre du droit à un procès équitable et de l'esprit même de la justice.
De l'autre côté, en opposition totale, se trouvent les conclusions du Rapporteur pour la liberté d'expression à l'ONU, Frank La Rue, qui défend la protection des droits de l'Homme plutôt que l'application forcenée du droit d'auteur et la répression des usages d'Internet5. Les propositions6 de La Quadrature du Net pour la protection des libertés fondamentales en ligne, l'accès à une infrastructure libre et la libre circulation de l'information vont dans cette même direction.
« Les conclusions des gouvernements de l'OCDE montreront si cette institution protège réellement l'intérêt général, ou si elle sert les intérêts d'un petit nombre de gouvernements qui poussent la mise en place des politiques répressives et conservatrices des industries du divertissement. Malheureusement, la liste des participants aux différents panels7 invite à penser que l'OCDE a peut-être déjà choisi le camp des grandes entreprises cherchant à contrôler le Net. L'OCDE ne peut gagner sa légitimité que si ses pays membres font prévaloir nos droits et l'universalité d'un Internet libre plutôt que les intérêts sectoriels. », conclut Jérémie Zimmermann, porte-parole et co-fondateur de l'organisation citoyenne La Quadrature du Net.
4. Les soi-disant « accords volontaires » que les industries du divertissement veulent imposer aux intermédiaires d'Internet afin qu'ils mettent en œuvre des « mesures pour dissuader les infractions futures », qui aboutiront inévitablement à des mécanismes de censure au cœur même du réseau.
7. Parmi les panelistes se trouvent des représentants de Vivendi-Universal, Fox, AT&T, Alcatel-Lucent, Verizon, etc.
";s:7:"dateiso";s:15:"20110627_175341";}s:15:"20110623_124336";a:7:{s:5:"title";s:57:"Comme au Mexique, les parlementaires doivent rejeter ACTA";s:4:"link";s:87:"http://www.laquadrature.net/fr/comme-au-mexique-les-parlementaires-doivent-rejeter-acta";s:4:"guid";s:35:"4588 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 23 Jun 2011 10:43:36 +0000";s:11:"description";s:3782:"
Paris, 23 juin 2011 - Le Sénat mexicain a adopté hier une résolution appelant le gouvernement à ne pas signer l'accord anti-contrefaçon ACTA. La Quadrature appelle les parlementaires français et européens à faire de même.
Alors qu'ACTA vient d'être ouvert à signature1, la résolution2 du Sénat mexicain montre que ce dernier refuse de se voir imposer des sanctions illégitimes en matière de lutte contre la contrefaçon. Ce refus est indispensable puisque l'ACTA, loin de se limiter à la politique commerciale, imposerait aux États signataires de nouvelle sanctions mal définies et couvrant un domaine extrêmement vaste en cas d'atteintes au droit d'auteur, au droit des marques ou des brevets, même lorsqu'elles sont menées sans but de profit3. Ce vote semble indiquer que, au cas où le gouvernement mexicain décidait de signer l'ACTA, le Sénat refuserait de le ratifier.
« Le vote du Sénat mexicain est un rappel à l'ordre : on ne peut négocier dans le dos des représentants démocratiquement élus dans l'intérêt exclusif de lobbies aux modèles dépassés. Agissons pour qu'en France et au niveau européen, nos élus s'opposent à leur tour au vol de leur compétence législative. Les citoyens doivent enjoindre les parlementaires à suivre l’exemple de leurs homologues mexicains, afin qu'ils exigent des gouvernements nationaux et de la Commission européenne l'abandon de l'ACTA. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 23 juin 2011 - Le Sénat mexicain a adopté hier une résolution appelant le gouvernement à ne pas signer l'accord anti-contrefaçon ACTA. La Quadrature appelle les parlementaires français et européens à faire de même.
Alors qu'ACTA vient d'être ouvert à signature1, la résolution2 du Sénat mexicain montre que ce dernier refuse de se voir imposer des sanctions illégitimes en matière de lutte contre la contrefaçon. Ce refus est indispensable puisque l'ACTA, loin de se limiter à la politique commerciale, imposerait aux États signataires de nouvelle sanctions mal définies et couvrant un domaine extrêmement vaste en cas d'atteintes au droit d'auteur, au droit des marques ou des brevets, même lorsqu'elles sont menées sans but de profit3. Ce vote semble indiquer que, au cas où le gouvernement mexicain décidait de signer l'ACTA, le Sénat refuserait de le ratifier.
« Le vote du Sénat mexicain est un rappel à l'ordre : on ne peut négocier dans le dos des représentants démocratiquement élus dans l'intérêt exclusif de lobbies aux modèles dépassés. Agissons pour qu'en France et au niveau européen, nos élus s'opposent à leur tour au vol de leur compétence législative. Les citoyens doivent enjoindre les parlementaires à suivre l’exemple de leurs homologues mexicains, afin qu'ils exigent des gouvernements nationaux et de la Commission européenne l'abandon de l'ACTA. », déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20110623_124336";}s:15:"20110622_183700";a:7:{s:5:"title";s:66:"Vote pour la neutralité du Net aux Pays-Bas. À quand en France ?";s:4:"link";s:92:"http://www.laquadrature.net/fr/vote-pour-la-neutralite-du-net-aux-pays-bas-a-quand-en-france";s:4:"guid";s:35:"4585 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 22 Jun 2011 16:37:00 +0000";s:11:"description";s:2740:"
Paris, le 22 juin 2011 – Le vote au parlement néerlandais d'une législation protégeant un Internet libre1 est une excellente nouvelle, un exemple pour toute l'Europe et pour la France. Le texte adopté interdit aux opérateurs de discriminer les communications de leurs utilisateurs, par exemple en ralentissant ou bloquant certains contenus ou services.
« Alors que la Commissaire européenne Neelie Kroes feint de ne pas voir de problème avec la neutralité2, ce vote au parlement néerlandais prouve qu'il est urgent agir. Il faut imposer des règles strictes pour faire cesser les comportements des opérateurs qui portent atteinte à nos libertés et à la concurrence. Espérons qu'en France, le rapport parlementaire des députées de la Raudière (UMP) et Erhel (PS), conduira à ce qu'une législation similaire soit adoptée, avant même les prochaines élections. » conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net félicite chaleureusement ses amis de Bits of Freedom, et tous les citoyens qui ont participé à cette victoire !
Paris, le 22 juin 2011 – Le vote au parlement néerlandais d'une législation protégeant un Internet libre1 est une excellente nouvelle, un exemple pour toute l'Europe et pour la France. Le texte adopté interdit aux opérateurs de discriminer les communications de leurs utilisateurs, par exemple en ralentissant ou bloquant certains contenus ou services.
« Alors que la Commissaire européenne Neelie Kroes feint de ne pas voir de problème avec la neutralité2, ce vote au parlement néerlandais prouve qu'il est urgent agir. Il faut imposer des règles strictes pour faire cesser les comportements des opérateurs qui portent atteinte à nos libertés et à la concurrence. Espérons qu'en France, le rapport parlementaire des députées de la Raudière (UMP) et Erhel (PS), conduira à ce qu'une législation similaire soit adoptée, avant même les prochaines élections. » conclut Jérémie Zimmermann, co-fondateur et porte-parole de l'organisation citoyenne La Quadrature du Net.
La Quadrature du Net félicite chaleureusement ses amis de Bits of Freedom, et tous les citoyens qui ont participé à cette victoire !
";s:7:"dateiso";s:15:"20110622_183700";}s:15:"20110622_162451";a:7:{s:5:"title";s:72:"Protéger les libertés sur Internet : les propositions de La Quadrature";s:4:"link";s:99:"http://www.laquadrature.net/fr/proteger-les-libertes-sur-internet-les-propositions-de-la-quadrature";s:4:"guid";s:35:"4584 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 22 Jun 2011 14:24:51 +0000";s:11:"description";s:4193:"
Paris, 22 juin 2011 – La Quadrature du Net publie un ensemble de propositions pour garantir la liberté de communication sur Internet et permettre au réseau de demeurer un instrument au service de la démocratie, de la culture et de l’innovation socio-économique. L'organisation citoyenne appelle les citoyens à s'en saisir et à les relayer autour d'eux et auprès des décideurs politiques.
Nous sommes à un moment clé de l'Histoire d'Internet. HADOPI, le G8 décidant le contrôle du Net, l'ACTA, la réaction des gouvernements américain et français à WikiLeaks, le développement galopant des mesures de censure, y compris dans les régimes démocratiques, ne sont que quelques unes des menaces qui pèsent sur son devenir.
Face à ces menaces, il est urgent que les citoyens agissent pour s'assurer qu'Internet reste un instrument au service de la démocratie, du développement humain et de l'innovation. C'est dans cette perspective que La Quadrature du Net présente ses propositions1. L'organisation citoyenne invite les citoyens à s'en saisir pour en discuter autour d'eux, notamment avec leurs responsables politiques.
Ces propositions sont regroupées autour de trois axes d'action :
Protéger les droits de l'homme dans la société numérique.
Garantir la présomption de légalité pour toute publication en ligne
Garantir le droit au procès équitable
Réfléchir aux limites de la liberté d'expression dans une sphère publique renouvelée
Garantir qu'Internet restera libre et ouvert sur le plan technique
Protéger dans la loi la neutralité du Net
Encourager le développement de réseaux sans-fil partagés
Soutenir le développement de terminaux et de serveurs contrôlés par les usagers
Promouvoir la libre circulation de la culture et des connaissances.
Reconnaître le partage en droit et en fait
Explorer de nouveaux modèles de financement de la création, de l'information et des médias
Renforcer le domaine public et libérer le patrimoine numérique
« Ces propositions doivent permettre aux citoyens d'argumenter et d'agir afin d'adapter notre société et notre droit à Internet et à son potentiel démocratique. À l'heure où la tension est à son comble entre ceux qui veulent prendre le contrôle d'Internet et ceux qui entendent jouir de leurs libertés et de leurs nouvelles capacités, il est indispensable de se faire entendre et d'agir. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
Paris, 22 juin 2011 – La Quadrature du Net publie un ensemble de propositions pour garantir la liberté de communication sur Internet et permettre au réseau de demeurer un instrument au service de la démocratie, de la culture et de l’innovation socio-économique. L'organisation citoyenne appelle les citoyens à s'en saisir et à les relayer autour d'eux et auprès des décideurs politiques.
Nous sommes à un moment clé de l'Histoire d'Internet. HADOPI, le G8 décidant le contrôle du Net, l'ACTA, la réaction des gouvernements américain et français à WikiLeaks, le développement galopant des mesures de censure, y compris dans les régimes démocratiques, ne sont que quelques unes des menaces qui pèsent sur son devenir.
Face à ces menaces, il est urgent que les citoyens agissent pour s'assurer qu'Internet reste un instrument au service de la démocratie, du développement humain et de l'innovation. C'est dans cette perspective que La Quadrature du Net présente ses propositions1. L'organisation citoyenne invite les citoyens à s'en saisir pour en discuter autour d'eux, notamment avec leurs responsables politiques.
Ces propositions sont regroupées autour de trois axes d'action :
Protéger les droits de l'homme dans la société numérique.
Garantir la présomption de légalité pour toute publication en ligne
Garantir le droit au procès équitable
Réfléchir aux limites de la liberté d'expression dans une sphère publique renouvelée
Garantir qu'Internet restera libre et ouvert sur le plan technique
Protéger dans la loi la neutralité du Net
Encourager le développement de réseaux sans-fil partagés
Soutenir le développement de terminaux et de serveurs contrôlés par les usagers
Promouvoir la libre circulation de la culture et des connaissances.
Reconnaître le partage en droit et en fait
Explorer de nouveaux modèles de financement de la création, de l'information et des médias
Renforcer le domaine public et libérer le patrimoine numérique
« Ces propositions doivent permettre aux citoyens d'argumenter et d'agir afin d'adapter notre société et notre droit à Internet et à son potentiel démocratique. À l'heure où la tension est à son comble entre ceux qui veulent prendre le contrôle d'Internet et ceux qui entendent jouir de leurs libertés et de leurs nouvelles capacités, il est indispensable de se faire entendre et d'agir. » déclare Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
";s:7:"dateiso";s:15:"20110622_162451";}s:15:"20110615_160732";a:7:{s:5:"title";s:52:"Tout Internet soumis à la censure gouvernementale ?";s:4:"link";s:80:"http://www.laquadrature.net/fr/tout-internet-soumis-a-la-censure-gouvernementale";s:4:"guid";s:35:"4564 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Wed, 15 Jun 2011 14:07:32 +0000";s:11:"description";s:8834:"
Paris, 15 juin 2011 - PC INpact vient de révéler l'existence d'un projet de décret qui donnerait au gouvernement un pouvoir de censure arbitraire de tous les contenus et services d'Internet. Le gouvernement poursuit sa politique de contrôle du Net, au mépris des droits et libertés des citoyens.
En application de l'article 18 de la loi pour l'Économie Numérique du 21 juin 20041, le gouvernement propose de donner à plusieurs ministères le pouvoir d'ordonner la censure de contenus « lorsqu'il est porté atteinte ou qu'il existe un risque sérieux et grave d'atteinte au maintien de l'ordre et de la sécurité publics, à la protection des mineurs, à la protection de la santé publique, à la préservation des intérêts de la défense nationale ou à la protection des personnes physiques », définition aux contours extrêmement flous et particulièrement vaste. Les mesures de censure des contenus, qu'il s'agisse de retrait ou de filtrage, seraient directement prises par le gouvernement, sans décision de l'autorité judiciaire et s'appliqueraient en pratique à toute forme de sites ou services d'information en ligne2.
Quelques mois après la mise en place de l'ARJEL3 et le vote de la LOPPSI, cette mesure serait en totale contradiction avec les conclusions du rapporteur spécial de l'ONU4 ou du rapport des députées de La Raudière (UMP) et Erhel (SRC) sur la neutralité du Net5, qui condamnent les mesures de filtrage, tout particulièrement lorsqu'elles sont le fait de l'autorité administrative.
« Le projet de décret vise à donner au gouvernement un pouvoir de censure sur tous les sites et contenus du Net qui serait totalement disproportionné. Il s'agit là d'une violation flagrante du principe de séparation des pouvoirs, portant gravement atteinte à la liberté de communication en ligne6. C'est une dérive extrêmement inquiétante, dans la droite ligne des politiques sécuritaires du gouvernement en matière d'Internet, Ce projet de décret doit à tout prix être rejeté. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
1. L'article 18 dispose que « Dans les conditions prévues par décret en Conseil d'État, des mesures restreignant, au cas par cas, le libre exercice de leur activité par les personnes mentionnées aux articles 14 et 16 peuvent être prises par l'autorité administrative lorsqu'il est porté atteinte ou qu'il existe un risque sérieux et grave d'atteinte au maintien de l'ordre et de la sécurité publics, à la protection des mineurs, à la protection de la santé publique, à la préservation des intérêts de la défense nationale ou à la protection des personnes physiques qui sont des consommateurs ou des investisseurs autres que les investisseurs appartenant à un cercle restreint définis à l'article L. 411-2 du code monétaire et financier ».
2. L'article 14 de la LCEN précise qu' « entrent également dans le champ du commerce électronique les services tels que ceux consistant à fournir des informations en ligne, des communications commerciales et des outils de recherche, d'accès et de récupération de données, d'accès à un réseau de communication ou d'hébergement d'informations, y compris lorsqu'ils ne sont pas rémunérés par ceux qui les reçoivent ».
4. Voir le paragraphe 31 du rapport: « States’ use of blocking or filtering technologies is frequently in violation of their obligation to guarantee the right to freedom of expression, as the criteria mentioned under chapter III are not met. Firstly, the specific conditions that justify blocking are not established in law, or are provided by law but in an overly broad and vague manner, which risks content being blocked arbitrarily and excessively. Secondly, blocking is not justified to pursue aims which are listed under article 19, paragraph 3, of the International Covenant on Civil and Political Rights, and blocking lists are generally kept secret, which makes it difficult to assess whether access to content is being restricted for a legitimate purpose.
Thirdly, even where justification is provided, blocking measures constitute an unnecessary or disproportionate means to achieve the purported aim, as they are often not sufficiently targeted and render a wide range of content inaccessible beyond that which has been deemed illegal. Lastly, content is frequently blocked without the intervention of or possibility for review by a judicial or independent body.
5. En avril 2011, une mission parlementaire avait opportunément remis en cause le bien fondé des mesures de filtrage « en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer ».
Paris, 15 juin 2011 - PC INpact vient de révéler l'existence d'un projet de décret qui donnerait au gouvernement un pouvoir de censure arbitraire de tous les contenus et services d'Internet. Le gouvernement poursuit sa politique de contrôle du Net, au mépris des droits et libertés des citoyens.
En application de l'article 18 de la loi pour l'Économie Numérique du 21 juin 20041, le gouvernement propose de donner à plusieurs ministères le pouvoir d'ordonner la censure de contenus « lorsqu'il est porté atteinte ou qu'il existe un risque sérieux et grave d'atteinte au maintien de l'ordre et de la sécurité publics, à la protection des mineurs, à la protection de la santé publique, à la préservation des intérêts de la défense nationale ou à la protection des personnes physiques », définition aux contours extrêmement flous et particulièrement vaste. Les mesures de censure des contenus, qu'il s'agisse de retrait ou de filtrage, seraient directement prises par le gouvernement, sans décision de l'autorité judiciaire et s'appliqueraient en pratique à toute forme de sites ou services d'information en ligne2.
Quelques mois après la mise en place de l'ARJEL3 et le vote de la LOPPSI, cette mesure serait en totale contradiction avec les conclusions du rapporteur spécial de l'ONU4 ou du rapport des députées de La Raudière (UMP) et Erhel (SRC) sur la neutralité du Net5, qui condamnent les mesures de filtrage, tout particulièrement lorsqu'elles sont le fait de l'autorité administrative.
« Le projet de décret vise à donner au gouvernement un pouvoir de censure sur tous les sites et contenus du Net qui serait totalement disproportionné. Il s'agit là d'une violation flagrante du principe de séparation des pouvoirs, portant gravement atteinte à la liberté de communication en ligne6. C'est une dérive extrêmement inquiétante, dans la droite ligne des politiques sécuritaires du gouvernement en matière d'Internet, Ce projet de décret doit à tout prix être rejeté. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
1. L'article 18 dispose que « Dans les conditions prévues par décret en Conseil d'État, des mesures restreignant, au cas par cas, le libre exercice de leur activité par les personnes mentionnées aux articles 14 et 16 peuvent être prises par l'autorité administrative lorsqu'il est porté atteinte ou qu'il existe un risque sérieux et grave d'atteinte au maintien de l'ordre et de la sécurité publics, à la protection des mineurs, à la protection de la santé publique, à la préservation des intérêts de la défense nationale ou à la protection des personnes physiques qui sont des consommateurs ou des investisseurs autres que les investisseurs appartenant à un cercle restreint définis à l'article L. 411-2 du code monétaire et financier ».
2. L'article 14 de la LCEN précise qu' « entrent également dans le champ du commerce électronique les services tels que ceux consistant à fournir des informations en ligne, des communications commerciales et des outils de recherche, d'accès et de récupération de données, d'accès à un réseau de communication ou d'hébergement d'informations, y compris lorsqu'ils ne sont pas rémunérés par ceux qui les reçoivent ».
4. Voir le paragraphe 31 du rapport: « States’ use of blocking or filtering technologies is frequently in violation of their obligation to guarantee the right to freedom of expression, as the criteria mentioned under chapter III are not met. Firstly, the specific conditions that justify blocking are not established in law, or are provided by law but in an overly broad and vague manner, which risks content being blocked arbitrarily and excessively. Secondly, blocking is not justified to pursue aims which are listed under article 19, paragraph 3, of the International Covenant on Civil and Political Rights, and blocking lists are generally kept secret, which makes it difficult to assess whether access to content is being restricted for a legitimate purpose.
Thirdly, even where justification is provided, blocking measures constitute an unnecessary or disproportionate means to achieve the purported aim, as they are often not sufficiently targeted and render a wide range of content inaccessible beyond that which has been deemed illegal. Lastly, content is frequently blocked without the intervention of or possibility for review by a judicial or independent body.
5. En avril 2011, une mission parlementaire avait opportunément remis en cause le bien fondé des mesures de filtrage « en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer ».
";s:7:"dateiso";s:15:"20110615_160732";}s:15:"20110610_164831";a:7:{s:5:"title";s:51:"En cours de ratification, l'ACTA doit être rejeté";s:4:"link";s:78:"http://www.laquadrature.net/fr/en-cours-de-ratification-lacta-doit-etre-rejete";s:4:"guid";s:35:"4552 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 10 Jun 2011 14:48:31 +0000";s:11:"description";s:12612:"
Alors que la Commission européenne a annoncé la parution prochaine d'une note relative à la signature et ratification d'ACTA par l'Union européenne, La Quadrature a envoyé une lettre à Christine Lagarde, Ministre de l'Économie. L'organisation citoyenne demande solennellement à la France de ne pas signer cet accord dangereux et illégitime et encourage les citoyens de tous les pays ayant pris part aux négociations à faire de même.
Ces dernières semaines, quelques détails ont émergé concernant la ratification de l’ACTA. Le 1er mai, l’ACTA a été ouvert aux signatures, et, fin mai, la Commission a déclaré qu’elle présenterait rapidement un projet de décision européenne relative à la ratification de l'accord1. Il semble également que chaque État Membre de l’Union devra également individuellement signer ACTA2, même si la Commission doit encore détailler la procédure. Une chose est sûre cependant : la signature de l’ACTA par les gouvernements qui l'ont négocié ouvrira ensuite la voie à sa ratification par les Parlements, qui se prononceront sur l'accord sans possibilité de l’amender.
ACTA doit être rejeté. Dans l'environnement numérique, son entrée en application pourrait conduire au développement de sanctions extra-judiciaires contre les atteintes au droit d'auteur, violant le droit à un procès équitable ainsi que la neutralité du Net et la liberté d'expression3. Sous couvert d'une inoffensive « coopération »4, les autorités américaines et européennes sont en réalité en train de mettre en place une stratégie dangereuse qui s'attaque au partage de la culture en ligne et protège les modèles économiques obsolètes des industries du divertissement. Cette stratégie a été réaffirmée à l'occasion du G8, le 27 mai dernier5.
Si l'ACTA est adopté, les lobbies du droit d'auteur et leur traditionnelle technique de blanchiment politique — qui consiste à adopter des dispositions extrémistes à l'échelle internationale pour les imposer au niveau national — auront réussi. Il est encore temps de contacter votre gouvernement pour lui dire pourquoi il doit s'opposer à la signature de l'ACTA.
Lettre:
À: Madame Christine Lagarde, Ministre de l'Économie, de l'Industrie et de l'Emploi
Objet : La France doit s'opposer à la signature de l'ACTA
Dans les prochains jours, les représentants des pays négociateurs de l'accord international anti-contrefaçon (connu sous son acronyme anglais « ACTA ») doivent se retrouver pour signer ce texte et ouvrir ainsi la voie aux procédures de ratification. Nous vous appelons aujourd'hui à vous opposer, au nom de la France, à la signature de cet accord.
Comme vous le savez, l'ACTA a fait l'objet de vives critiques tout au long des négociations, entamées il y a plus de trois ans. Des critiques quant au manque de transparence, tout d'abord : Pendant près de dix-huit mois, les gouvernements des pays concernés, sous la férule des États-Unis, du Japon et de l'Union européenne, ont agi en toute opacité. En mars 2010, après de nombreuses fuites et les critiques de plus en plus vives sur la scène internationale, les négociateurs se sont finalement résolus à publier une première version de travail de l'accord. Cependant, à aucun moment les Parlements nationaux n'ont été sollicités par les négociateurs, alors même que l'ACTA va bien au-delà des questions commerciales.
L'accord vise en effet à organiser au niveau international la répression de la contrefaçon, en faisant l'amalgame entre contrefaçon de biens matériels et immatériels, y compris lorsqu'elle est menée sans but de profit. Ainsi, le chapitre relatif à l'environnement numérique se concentre sur la lutte contre le partage d’œuvres culturelles sur Internet et tend à contraindre les acteurs de l'Internet à lutter eux-mêmes contre ces pratiques. Une telle « coopération » entre acteurs commerciaux, en dehors de toute procédure judiciaire, ne peut en aucun cas garantir le droit à un procès équitable, la liberté d'expression et la vie privée.
En outre, en imposant des sanctions pénales pour tous types d'atteintes au droit des brevets, au droit d'auteur ou au droit des marques, et en créant de nouvelles infractions – telles que celle prévue pour « l'aide et la complicité à la contrefaçon à une échelle commerciale », notion dangereusement vague – ACTA poursuit une escalade répressive injustifiée à l'échelle internationale.
Une telle escalade est d'autant plus regrettable qu'à l'OMPI ou à l'OMC, traditionnellement en charge des questions de contrefaçon au niveau international, d'importants débats ont lieu sur la nécessité de rééquilibrer le régime des droits intellectuels sur les inventions, œuvres artistiques et autre biens immatériels. Un nouveau processus de développement ne pourra s'enclencher et favoriser l'accès à la santé, à la culture et aux technologies que s'il s'appuie sur les échanges et pratiques numériques les plus ouvertes. Si c'est bien la volonté de la France que de promouvoir une mondialisation durable et juste, contourner de tels débats en imposant un accord misant sur le tout-répressif n'a pas de sens.
ACTA est un accord illégitime, qui va à rebours de l'histoire, et sera porteur d'une grande insécurité juridique pour les acteurs innovants et les citoyens sur Internet. Il est encore temps pour la France, qui a participé aux négociations, de renoncer à sa signature afin d'engager une réflexion ouverte sur la manière d'adapter nos législations à la société de la connaissance.
En vous priant d'agréer nos salutations respectueuses,
Philippe Aigrain, Gerald Sedrati-Dinet, Benjamin Sonntag et Jérémie Zimmermann, cofondateurs de La Quadrature du Net
1. Lisez les pages 20-21 de la stratégie de la Commission Européenne sur les «droits de propriété intellectuelle », annoncée le 26 mai :
« L’Union Européenne doit aussi pouvoir ratifier l’ACTA une fois qu’il aura été signé par les parties contractantes courant 2011. L’ACTA, qui est entièrement compatible avec les acquis de l’Union Européenne, constitue une étape importante dans le combat contre les infractions à la propriété intellectuelle, en coopération avec les pays partageant les mêmes considérations. La Commission déposera sa proposition pour une signature de l’Union dans les semaines à venir. »
4. Consultez en particulier l'article 27.3 : Chaque Membre doit s'attacher à promouvoir une certaine coopération au sein de la communauté industrielle pour réellement résoudre les problèmes de marques déposées, de copyright et les violations des droits voisins tout en préservant la compétition régulière et, en accord avec la loi en vigueur chez ce Membre, les droits fondamentaux tels la liberté d'expression, le traitement équitable et le respect de la vie privée.
5. Déclaration du G8 – Engagement renouvelé pour la liberté et la démocratie, 30 mai 2001 : « S'agissant de la protection de la propriété intellectuelle, en particulier des droits d'auteur, des marques déposées, des secrets commerciaux et des brevets, nous reconnaissons que nous devons mettre en place des législations et des cadres nationaux pour en améliorer le respect. C'est pourquoi nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé».
Lien: http://www.g20-g8.com/g8-g20/g8/francais/le-sommet-2011/declarations-et-...
";s:7:"content";s:12612:"
Alors que la Commission européenne a annoncé la parution prochaine d'une note relative à la signature et ratification d'ACTA par l'Union européenne, La Quadrature a envoyé une lettre à Christine Lagarde, Ministre de l'Économie. L'organisation citoyenne demande solennellement à la France de ne pas signer cet accord dangereux et illégitime et encourage les citoyens de tous les pays ayant pris part aux négociations à faire de même.
Ces dernières semaines, quelques détails ont émergé concernant la ratification de l’ACTA. Le 1er mai, l’ACTA a été ouvert aux signatures, et, fin mai, la Commission a déclaré qu’elle présenterait rapidement un projet de décision européenne relative à la ratification de l'accord1. Il semble également que chaque État Membre de l’Union devra également individuellement signer ACTA2, même si la Commission doit encore détailler la procédure. Une chose est sûre cependant : la signature de l’ACTA par les gouvernements qui l'ont négocié ouvrira ensuite la voie à sa ratification par les Parlements, qui se prononceront sur l'accord sans possibilité de l’amender.
ACTA doit être rejeté. Dans l'environnement numérique, son entrée en application pourrait conduire au développement de sanctions extra-judiciaires contre les atteintes au droit d'auteur, violant le droit à un procès équitable ainsi que la neutralité du Net et la liberté d'expression3. Sous couvert d'une inoffensive « coopération »4, les autorités américaines et européennes sont en réalité en train de mettre en place une stratégie dangereuse qui s'attaque au partage de la culture en ligne et protège les modèles économiques obsolètes des industries du divertissement. Cette stratégie a été réaffirmée à l'occasion du G8, le 27 mai dernier5.
Si l'ACTA est adopté, les lobbies du droit d'auteur et leur traditionnelle technique de blanchiment politique — qui consiste à adopter des dispositions extrémistes à l'échelle internationale pour les imposer au niveau national — auront réussi. Il est encore temps de contacter votre gouvernement pour lui dire pourquoi il doit s'opposer à la signature de l'ACTA.
Lettre:
À: Madame Christine Lagarde, Ministre de l'Économie, de l'Industrie et de l'Emploi
Objet : La France doit s'opposer à la signature de l'ACTA
Dans les prochains jours, les représentants des pays négociateurs de l'accord international anti-contrefaçon (connu sous son acronyme anglais « ACTA ») doivent se retrouver pour signer ce texte et ouvrir ainsi la voie aux procédures de ratification. Nous vous appelons aujourd'hui à vous opposer, au nom de la France, à la signature de cet accord.
Comme vous le savez, l'ACTA a fait l'objet de vives critiques tout au long des négociations, entamées il y a plus de trois ans. Des critiques quant au manque de transparence, tout d'abord : Pendant près de dix-huit mois, les gouvernements des pays concernés, sous la férule des États-Unis, du Japon et de l'Union européenne, ont agi en toute opacité. En mars 2010, après de nombreuses fuites et les critiques de plus en plus vives sur la scène internationale, les négociateurs se sont finalement résolus à publier une première version de travail de l'accord. Cependant, à aucun moment les Parlements nationaux n'ont été sollicités par les négociateurs, alors même que l'ACTA va bien au-delà des questions commerciales.
L'accord vise en effet à organiser au niveau international la répression de la contrefaçon, en faisant l'amalgame entre contrefaçon de biens matériels et immatériels, y compris lorsqu'elle est menée sans but de profit. Ainsi, le chapitre relatif à l'environnement numérique se concentre sur la lutte contre le partage d’œuvres culturelles sur Internet et tend à contraindre les acteurs de l'Internet à lutter eux-mêmes contre ces pratiques. Une telle « coopération » entre acteurs commerciaux, en dehors de toute procédure judiciaire, ne peut en aucun cas garantir le droit à un procès équitable, la liberté d'expression et la vie privée.
En outre, en imposant des sanctions pénales pour tous types d'atteintes au droit des brevets, au droit d'auteur ou au droit des marques, et en créant de nouvelles infractions – telles que celle prévue pour « l'aide et la complicité à la contrefaçon à une échelle commerciale », notion dangereusement vague – ACTA poursuit une escalade répressive injustifiée à l'échelle internationale.
Une telle escalade est d'autant plus regrettable qu'à l'OMPI ou à l'OMC, traditionnellement en charge des questions de contrefaçon au niveau international, d'importants débats ont lieu sur la nécessité de rééquilibrer le régime des droits intellectuels sur les inventions, œuvres artistiques et autre biens immatériels. Un nouveau processus de développement ne pourra s'enclencher et favoriser l'accès à la santé, à la culture et aux technologies que s'il s'appuie sur les échanges et pratiques numériques les plus ouvertes. Si c'est bien la volonté de la France que de promouvoir une mondialisation durable et juste, contourner de tels débats en imposant un accord misant sur le tout-répressif n'a pas de sens.
ACTA est un accord illégitime, qui va à rebours de l'histoire, et sera porteur d'une grande insécurité juridique pour les acteurs innovants et les citoyens sur Internet. Il est encore temps pour la France, qui a participé aux négociations, de renoncer à sa signature afin d'engager une réflexion ouverte sur la manière d'adapter nos législations à la société de la connaissance.
En vous priant d'agréer nos salutations respectueuses,
Philippe Aigrain, Gerald Sedrati-Dinet, Benjamin Sonntag et Jérémie Zimmermann, cofondateurs de La Quadrature du Net
1. Lisez les pages 20-21 de la stratégie de la Commission Européenne sur les «droits de propriété intellectuelle », annoncée le 26 mai :
« L’Union Européenne doit aussi pouvoir ratifier l’ACTA une fois qu’il aura été signé par les parties contractantes courant 2011. L’ACTA, qui est entièrement compatible avec les acquis de l’Union Européenne, constitue une étape importante dans le combat contre les infractions à la propriété intellectuelle, en coopération avec les pays partageant les mêmes considérations. La Commission déposera sa proposition pour une signature de l’Union dans les semaines à venir. »
4. Consultez en particulier l'article 27.3 : Chaque Membre doit s'attacher à promouvoir une certaine coopération au sein de la communauté industrielle pour réellement résoudre les problèmes de marques déposées, de copyright et les violations des droits voisins tout en préservant la compétition régulière et, en accord avec la loi en vigueur chez ce Membre, les droits fondamentaux tels la liberté d'expression, le traitement équitable et le respect de la vie privée.
5. Déclaration du G8 – Engagement renouvelé pour la liberté et la démocratie, 30 mai 2001 : « S'agissant de la protection de la propriété intellectuelle, en particulier des droits d'auteur, des marques déposées, des secrets commerciaux et des brevets, nous reconnaissons que nous devons mettre en place des législations et des cadres nationaux pour en améliorer le respect. C'est pourquoi nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé».
Lien: http://www.g20-g8.com/g8-g20/g8/francais/le-sommet-2011/declarations-et-...
";s:7:"dateiso";s:15:"20110610_164831";}s:15:"20110603_105200";a:7:{s:5:"title";s:56:"Un rapport de l'ONU tacle le G8, l'ACTA, Hadopi, Loppsi ";s:4:"link";s:81:"http://www.laquadrature.net/fr/un-rapport-de-lonu-tacle-le-g8-lacta-hadopi-loppsi";s:4:"guid";s:35:"4531 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 03 Jun 2011 08:52:00 +0000";s:11:"description";s:12010:"
Paris, 3 juin 2011 – Un rapport sur les politiques relatives à Internet par le rapporteur spécial des Nations Unies pour la protection de la liberté d'expression sera présenté aujourd'hui. Ses recommandations pour la protection des libertés fondamentales contredisent radicalement les orientations fixées par les gouvernements du G8. Ce rapport est essentiel pour aider les citoyens à tenir leur gouvernements pour responsables des politiques qui mettent à mal les libertés en ligne.
Le rapport1 du Rapporteur pour la promotion et la protection de droit à la liberté d'opinion et d'expression, Frank La Rue, met brillamment en lumière les lignes que les gouvernements ne doivent pas franchir afin de protéger les droits fondamentaux des citoyens et la démocratie.
Or, nombreux sont les gouvernements qui ont récemment mis en œuvre des politiques relatives à Internet2 qui sont en totale contradiction avec les conclusions du rapport:
Le rapport insiste sur le fait que les gouvernements ne devraient pas rendre les intermédiaires techniques responsables des activités des utilisateurs de leurs service3. Une telle condamnation de la censure privée s'oppose aux conclusions du G8, qui appellent les acteurs privés du Net à mettre en œuvre des mesures visant à « prévenir les atteintes futures au droit d'auteur ».
Ces conclusions sur le rôle des intermédiaires s'opposent également à la nouvelle politique européenne en matière de copyright et l'accord ACTA, qui sera bientôt signé et soumis à l'approbation du Parlement européen. Grâce à l'imposition de nouvelles sanctions pénales, ACTA forcerait les entreprises de l'Internet à faire la police sur leurs réseaux ou services et à surveiller les activités de leurs utilisateurs4.
Parmi les autres recommandations, le rapport demande du gouvernement français qu'il abroge l'absurde loi Hadopi5 et du gouvernement britannique qu'il renonce au Digital Economy Act.
Le rapport condamne également la censure en ligne comme une mesure dangereuse et inefficace6. Il s'oppose aux dispositifs de censure qui sont mis en œuvre à l'heure actuelle en France ou proposés au niveau européen.
« Le rapport de l'ONU sur la liberté d'expression en ligne est un coup porté aux gouvernements du G8, au commissaire européen Michel Barnier, et aux gouvernements impliqués dans la négociation de de l'accord ACTA, qui sont tous en train de transformer les acteurs du Net en police privée du droit d'auteur. Le rapporteur spécial des Nations Unies Frank La Rue affirme que la liberté d'expression est plus importante que le droit d'auteur et qu'elle doit être protégée à tout prix, dans les régimes autoritaires comme dans les démocraties. Les citoyens de par le monde doivent s'inspirer de ce rapport et tenir leurs gouvernements pour responsables des politiques qui portent atteinte à Internet et nos libertés. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
2. Les tentatives gouvernementales pour contrôler l'Internet se multiplient dans toutes les zones géographiques : la réaction du gouvernement des États-Unis à WikiLeaks et la saisie de noms de domaines au nom du copyright ; la coupure égyptienne du Net ; la censure de contenus web à travers toute l'Europe ; les discussions autour de la création d'un « Grand pare-feu européen » ; l'accord ACTA transformant les fournisseurs d'accès à Internet en police privée du copyright, etc.
3. 40. [...] Holding intermediaries liable for the content disseminated or created by their users severely undermines the enjoyment of the right to freedom of opinion and expression, because it leads to self-protective and over-broad private censorship, often without transparency and the due process of the law.
42. [...] Furthermore, intermediaries, as private entities, are not best placed to make the determination of whether a particular content is illegal, which requires careful balancing of competing interests and consideration of defences.
47. [...] To avoid infringing the right to freedom of expression and the right to privacy of Internet users, the Special Rapporteur recommends intermediaries to: only implement restrictions to these rights after judicial intervention; be transparent to the user involved about measures taken, and where applicable to the wider public; provide, if possible, forewarning to users before the implementation of restrictive measures; and minimize the impact of restrictions strictly to the content involved. Finally, there must be effective remedies for affected users, including the possibility of appeal through the procedures provided by the intermediary and by a competent judicial authority.
4. 50 [...] the Special Rapporteur remains watchful about the treaty’s eventual implications for intermediary liability and the right to freedom of expression.
5. 79. [...] the Special Rapporteur urges States to repeal or amend existing intellectual copyright laws which permit users to be disconnected from Internet access, and to refrain from adopting such laws.
6. 70. The Special Rapporteur is deeply concerned by increasingly sophisticated blocking or filtering mechanisms used by States for censorship. The lack of transparency surrounding these measures also makes it difficult to ascertain whether blocking or filtering is really necessary for the purported aims put forward by States. As such, the Special Rapporteur calls upon States that currently block websites to provide lists of blocked websites and full details regarding the necessity and justification for blocking each individual website. An explanation should also be provided on the affected websites as to why they have been blocked. Any determination on what content should be blocked must be undertaken by a competent judicial authority or a body which is independent of any political, commercial, or other unwarranted influences.
";s:7:"content";s:12010:"
Paris, 3 juin 2011 – Un rapport sur les politiques relatives à Internet par le rapporteur spécial des Nations Unies pour la protection de la liberté d'expression sera présenté aujourd'hui. Ses recommandations pour la protection des libertés fondamentales contredisent radicalement les orientations fixées par les gouvernements du G8. Ce rapport est essentiel pour aider les citoyens à tenir leur gouvernements pour responsables des politiques qui mettent à mal les libertés en ligne.
Le rapport1 du Rapporteur pour la promotion et la protection de droit à la liberté d'opinion et d'expression, Frank La Rue, met brillamment en lumière les lignes que les gouvernements ne doivent pas franchir afin de protéger les droits fondamentaux des citoyens et la démocratie.
Or, nombreux sont les gouvernements qui ont récemment mis en œuvre des politiques relatives à Internet2 qui sont en totale contradiction avec les conclusions du rapport:
Le rapport insiste sur le fait que les gouvernements ne devraient pas rendre les intermédiaires techniques responsables des activités des utilisateurs de leurs service3. Une telle condamnation de la censure privée s'oppose aux conclusions du G8, qui appellent les acteurs privés du Net à mettre en œuvre des mesures visant à « prévenir les atteintes futures au droit d'auteur ».
Ces conclusions sur le rôle des intermédiaires s'opposent également à la nouvelle politique européenne en matière de copyright et l'accord ACTA, qui sera bientôt signé et soumis à l'approbation du Parlement européen. Grâce à l'imposition de nouvelles sanctions pénales, ACTA forcerait les entreprises de l'Internet à faire la police sur leurs réseaux ou services et à surveiller les activités de leurs utilisateurs4.
Parmi les autres recommandations, le rapport demande du gouvernement français qu'il abroge l'absurde loi Hadopi5 et du gouvernement britannique qu'il renonce au Digital Economy Act.
Le rapport condamne également la censure en ligne comme une mesure dangereuse et inefficace6. Il s'oppose aux dispositifs de censure qui sont mis en œuvre à l'heure actuelle en France ou proposés au niveau européen.
« Le rapport de l'ONU sur la liberté d'expression en ligne est un coup porté aux gouvernements du G8, au commissaire européen Michel Barnier, et aux gouvernements impliqués dans la négociation de de l'accord ACTA, qui sont tous en train de transformer les acteurs du Net en police privée du droit d'auteur. Le rapporteur spécial des Nations Unies Frank La Rue affirme que la liberté d'expression est plus importante que le droit d'auteur et qu'elle doit être protégée à tout prix, dans les régimes autoritaires comme dans les démocraties. Les citoyens de par le monde doivent s'inspirer de ce rapport et tenir leurs gouvernements pour responsables des politiques qui portent atteinte à Internet et nos libertés. » conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne La Quadrature du Net.
2. Les tentatives gouvernementales pour contrôler l'Internet se multiplient dans toutes les zones géographiques : la réaction du gouvernement des États-Unis à WikiLeaks et la saisie de noms de domaines au nom du copyright ; la coupure égyptienne du Net ; la censure de contenus web à travers toute l'Europe ; les discussions autour de la création d'un « Grand pare-feu européen » ; l'accord ACTA transformant les fournisseurs d'accès à Internet en police privée du copyright, etc.
3. 40. [...] Holding intermediaries liable for the content disseminated or created by their users severely undermines the enjoyment of the right to freedom of opinion and expression, because it leads to self-protective and over-broad private censorship, often without transparency and the due process of the law.
42. [...] Furthermore, intermediaries, as private entities, are not best placed to make the determination of whether a particular content is illegal, which requires careful balancing of competing interests and consideration of defences.
47. [...] To avoid infringing the right to freedom of expression and the right to privacy of Internet users, the Special Rapporteur recommends intermediaries to: only implement restrictions to these rights after judicial intervention; be transparent to the user involved about measures taken, and where applicable to the wider public; provide, if possible, forewarning to users before the implementation of restrictive measures; and minimize the impact of restrictions strictly to the content involved. Finally, there must be effective remedies for affected users, including the possibility of appeal through the procedures provided by the intermediary and by a competent judicial authority.
4. 50 [...] the Special Rapporteur remains watchful about the treaty’s eventual implications for intermediary liability and the right to freedom of expression.
5. 79. [...] the Special Rapporteur urges States to repeal or amend existing intellectual copyright laws which permit users to be disconnected from Internet access, and to refrain from adopting such laws.
6. 70. The Special Rapporteur is deeply concerned by increasingly sophisticated blocking or filtering mechanisms used by States for censorship. The lack of transparency surrounding these measures also makes it difficult to ascertain whether blocking or filtering is really necessary for the purported aims put forward by States. As such, the Special Rapporteur calls upon States that currently block websites to provide lists of blocked websites and full details regarding the necessity and justification for blocking each individual website. An explanation should also be provided on the affected websites as to why they have been blocked. Any determination on what content should be blocked must be undertaken by a competent judicial authority or a body which is independent of any political, commercial, or other unwarranted influences.
";s:7:"dateiso";s:15:"20110603_105200";}s:15:"20110527_172815";a:7:{s:5:"title";s:65:"G8 : Gouvernements et intérêts privés attaquent nos libertés";s:4:"link";s:89:"http://www.laquadrature.net/fr/g8-gouvernements-et-interets-prives-attaquent-nos-libertes";s:4:"guid";s:35:"4492 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Fri, 27 May 2011 15:28:15 +0000";s:11:"description";s:8166:"
Paris, 27 mai 2011 – Aujourd'hui, le G8 a rendu public sa déclaration finale, dont la partie relative à Internet échoue à proposer des mesures concrètes et équilibrées. Après avoir convié un forum eG8 illégitime qui a rapproché les grandes entreprises des gouvernements, il est désormais clair que l'initiative de la présidence française du G8 constitue une dangereuse reprise en main de la gouvernance d'Internet.
Fait révélateur, la partie la plus détaillée de la déclaration finale1 est celle relative au droit d'auteur. Elle appelle à une censure privée pour empêcher le partage d’œuvres culturelles en ligne2, à l'image de l'ACTA, et ce alors que l'Union européenne vient d'annoncer sa stratégie en la matière et qu'aux États-Unis, le Protect IP Act vient d'être unanimement adopté en commission au Sénat.
La déclaration ne s'accompagne d'aucune référence substantielle quant à l'importance de la neutralité du Net, la mise sous silence et l'emprisonnement de blogueurs dans les régimes autoritaires, les dangers d'une censure privée par les entreprises de l'Internet, ou d'autres problématiques pressantes. Le G8 se contente de faire référence dans des termes extrêmement généraux à la nécessité de promouvoir les droits de l'Homme et la participation démocratique en ligne.
Après le désastreux forum eG8 durant lequel les entreprises les plus puissantes et des gouvernements portés sur contrôle ont échangé leurs vues sur la manière dont réguler Internet, la déclaration échoue à proposer une politique pro-démocratique de l'Internet. Elle contraste fortement avec le rapport du rapporteur spécial des Nations Unies pour la liberté d'expression et d'opinion3, qui vient d'être rendu public. Dans ce rapport, Franck La Rue souligne les fantastiques perspectives ouvertes par l'avènement d'Internet et détaille diverses menaces qui pèsent sur la liberté d'expression et la vie privée, telles que la régulation des communications en ligne par des acteurs privés4 ou l'application forcenée d'un droit d'auteur inadapté5. Face à ces menaces, le rapporteur fait plusieurs propositions pour protéger l'ouverture et l'universalité d'Internet.
« Tout cet épisode montre qu'il n'y a rien à attendre de ces quelques gouvernements qui tendent la main aux lobbies. Les gouvernements du G8 refusent de reconnaître les conditions nécessaires au caractère libre et ouvert d'Internet. Ils sont incapables d'envisager la moindre réforme du droit d'auteur, s'abstiennent de s'engager réellement en faveur de la neutralité du Net et refusent de protéger les citoyens contre les agissements des entreprises de l'Internet » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« Après avoir convié les plus grandes entreprises de l'Internet à un ridicule exercice de communication, les leaders du G8 se font maintenant les relais de leurs exigences. La déclaration finale confirme que les citoyens doivent s'inquiéter de cette alliance malsaine entre les gouvernements et les grandes entreprises du Net, et qu'ils doivent se mobiliser pour la contrer. Internet nous appartient ! » conclut Jérémie Zimmermann, porte-parole de La Quadrature du Net.
2. « Nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé ».
4. "Holding intermediaries liable for the content disseminated or created by their users severely undermines the enjoyment of the right to freedom of opinion and expression, because it leads to self-protective and over-broad private censorship, often without transparency and the due process of the law.”
5.[The Rapporteur] is alarmed by proposals to disconnect users from Internet access if they violate intellectual property rights. This also includes legislation based on the concept of “graduated response”, which imposes a series of penalties on copyright infringers that could lead to suspension of Internet service, such as the so-called “three-strikes-law” in France and the Digital Economy Act 2010 of the United Kingdom.
";s:7:"content";s:8166:"
Paris, 27 mai 2011 – Aujourd'hui, le G8 a rendu public sa déclaration finale, dont la partie relative à Internet échoue à proposer des mesures concrètes et équilibrées. Après avoir convié un forum eG8 illégitime qui a rapproché les grandes entreprises des gouvernements, il est désormais clair que l'initiative de la présidence française du G8 constitue une dangereuse reprise en main de la gouvernance d'Internet.
Fait révélateur, la partie la plus détaillée de la déclaration finale1 est celle relative au droit d'auteur. Elle appelle à une censure privée pour empêcher le partage d’œuvres culturelles en ligne2, à l'image de l'ACTA, et ce alors que l'Union européenne vient d'annoncer sa stratégie en la matière et qu'aux États-Unis, le Protect IP Act vient d'être unanimement adopté en commission au Sénat.
La déclaration ne s'accompagne d'aucune référence substantielle quant à l'importance de la neutralité du Net, la mise sous silence et l'emprisonnement de blogueurs dans les régimes autoritaires, les dangers d'une censure privée par les entreprises de l'Internet, ou d'autres problématiques pressantes. Le G8 se contente de faire référence dans des termes extrêmement généraux à la nécessité de promouvoir les droits de l'Homme et la participation démocratique en ligne.
Après le désastreux forum eG8 durant lequel les entreprises les plus puissantes et des gouvernements portés sur contrôle ont échangé leurs vues sur la manière dont réguler Internet, la déclaration échoue à proposer une politique pro-démocratique de l'Internet. Elle contraste fortement avec le rapport du rapporteur spécial des Nations Unies pour la liberté d'expression et d'opinion3, qui vient d'être rendu public. Dans ce rapport, Franck La Rue souligne les fantastiques perspectives ouvertes par l'avènement d'Internet et détaille diverses menaces qui pèsent sur la liberté d'expression et la vie privée, telles que la régulation des communications en ligne par des acteurs privés4 ou l'application forcenée d'un droit d'auteur inadapté5. Face à ces menaces, le rapporteur fait plusieurs propositions pour protéger l'ouverture et l'universalité d'Internet.
« Tout cet épisode montre qu'il n'y a rien à attendre de ces quelques gouvernements qui tendent la main aux lobbies. Les gouvernements du G8 refusent de reconnaître les conditions nécessaires au caractère libre et ouvert d'Internet. Ils sont incapables d'envisager la moindre réforme du droit d'auteur, s'abstiennent de s'engager réellement en faveur de la neutralité du Net et refusent de protéger les citoyens contre les agissements des entreprises de l'Internet » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
« Après avoir convié les plus grandes entreprises de l'Internet à un ridicule exercice de communication, les leaders du G8 se font maintenant les relais de leurs exigences. La déclaration finale confirme que les citoyens doivent s'inquiéter de cette alliance malsaine entre les gouvernements et les grandes entreprises du Net, et qu'ils doivent se mobiliser pour la contrer. Internet nous appartient ! » conclut Jérémie Zimmermann, porte-parole de La Quadrature du Net.
2. « Nous renouvelons notre engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l'espace numérique, notamment par des procédures permettant d'empêcher les infractions actuelles et futures. Nous reconnaissons que l'application effective des règles en matière de propriété intellectuelle nécessite une coopération internationale appropriée entre les acteurs concernés, associant le secteur privé ».
4. "Holding intermediaries liable for the content disseminated or created by their users severely undermines the enjoyment of the right to freedom of opinion and expression, because it leads to self-protective and over-broad private censorship, often without transparency and the due process of the law.”
5.[The Rapporteur] is alarmed by proposals to disconnect users from Internet access if they violate intellectual property rights. This also includes legislation based on the concept of “graduated response”, which imposes a series of penalties on copyright infringers that could lead to suspension of Internet service, such as the so-called “three-strikes-law” in France and the Digital Economy Act 2010 of the United Kingdom.
";s:7:"dateiso";s:15:"20110527_172815";}s:15:"20110526_153711";a:7:{s:5:"title";s:53:"G8 : La récupération du Net en route pour Deauville";s:4:"link";s:80:"http://www.laquadrature.net/fr/g8-la-recuperation-du-net-en-route-pour-deauville";s:4:"guid";s:35:"4480 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Thu, 26 May 2011 13:37:11 +0000";s:11:"description";s:4279:"
Paris, le 26 mai 2011 – Malgré la gigantesque campagne de communication autour du « forum eG8 », les citoyens et la société civile doivent tenir bon afin d'exiger un Internet libre et défendre ses valeurs sociales et démocratiques. Un club de PDG de grandes entreprises (Publicis, Facebook, Orange, Google) se rend aujourd'hui à Deauville, prétendant porter le message de l'Internet aux chefs d'État. Il n'y a qu'une seule réponse à cette récupération : Internet nous appartient !
Mené par Maurice Levy, qui dirige le géant de la publicité Publicis1, un groupe de PDG2 présentera les conclusions de l'eG8 devant les chefs d'état du G8, tandis que 12 000 policiers s'assureront que les voix des citoyens et de la société civile n'atteignent pas la salle de réunion. Néanmoins, les citoyens ont été entendus en d'autres lieux : via les critiques sur le Net, à la conférence de presse de la société civile, et pendant certaines des discussions du eG8, grâce aux quelques personnes réellement issues de l'Internet qui ont pu assister à l'évènement officiel.
« Barricadés dans leur salle de réunion dorée, les gouvernements du G8 et un cercle restreint de dirigeants de grandes entreprises triés sur le volet vont nous répéter avec force la fable à laquelle ils croient. Ils se contenteront de considérer Internet sous l'angle de leurs modèles commerciaux et de la préservation de leur pouvoir oligarchique. Ce faisant, ils risquent de porter atteinte à l'essence même de nos libertés, ainsi qu'aux outils indispensables à notre avenir. Pendant ces deux jours, et au-delà, les citoyens doivent continuer à se faire entendre. » déclare Philippe Aigrain, co-fondateur et conseiller stratégique de l'organisation citoyenne de La Quadrature du Net.
« Ces entreprises contrôlent peut-être des points cruciaux de l'infrastructure, mais elles ne représentent qu'une part mineure de ce qu'est réellement Internet. Le Net, cet espace universel que nous aimons et partageons, est la somme de ses utilisateurs, qui l'ont construit et le font grandir. Nous possédons collectivement Internet comme un bien commun, et ensemble, nous devons tenir les gouvernements pour responsables de la protection de son ouverture, qui est au fondement de nos libertés." conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
1. La contribution de Levy aux politiques de l'Internet a entre autres consisté à encourager le gouvernement français à tirer profit de son capital dématérialisé en insérant des publicités sur des sites d'information publics, et à promouvoir une vision purement économique d'Internet
2. parmi lesquels Mark Zuckerberg, Eric Schmidt et Stéphane Richard (Orange).
";s:7:"content";s:4279:"
Paris, le 26 mai 2011 – Malgré la gigantesque campagne de communication autour du « forum eG8 », les citoyens et la société civile doivent tenir bon afin d'exiger un Internet libre et défendre ses valeurs sociales et démocratiques. Un club de PDG de grandes entreprises (Publicis, Facebook, Orange, Google) se rend aujourd'hui à Deauville, prétendant porter le message de l'Internet aux chefs d'État. Il n'y a qu'une seule réponse à cette récupération : Internet nous appartient !
Mené par Maurice Levy, qui dirige le géant de la publicité Publicis1, un groupe de PDG2 présentera les conclusions de l'eG8 devant les chefs d'état du G8, tandis que 12 000 policiers s'assureront que les voix des citoyens et de la société civile n'atteignent pas la salle de réunion. Néanmoins, les citoyens ont été entendus en d'autres lieux : via les critiques sur le Net, à la conférence de presse de la société civile, et pendant certaines des discussions du eG8, grâce aux quelques personnes réellement issues de l'Internet qui ont pu assister à l'évènement officiel.
« Barricadés dans leur salle de réunion dorée, les gouvernements du G8 et un cercle restreint de dirigeants de grandes entreprises triés sur le volet vont nous répéter avec force la fable à laquelle ils croient. Ils se contenteront de considérer Internet sous l'angle de leurs modèles commerciaux et de la préservation de leur pouvoir oligarchique. Ce faisant, ils risquent de porter atteinte à l'essence même de nos libertés, ainsi qu'aux outils indispensables à notre avenir. Pendant ces deux jours, et au-delà, les citoyens doivent continuer à se faire entendre. » déclare Philippe Aigrain, co-fondateur et conseiller stratégique de l'organisation citoyenne de La Quadrature du Net.
« Ces entreprises contrôlent peut-être des points cruciaux de l'infrastructure, mais elles ne représentent qu'une part mineure de ce qu'est réellement Internet. Le Net, cet espace universel que nous aimons et partageons, est la somme de ses utilisateurs, qui l'ont construit et le font grandir. Nous possédons collectivement Internet comme un bien commun, et ensemble, nous devons tenir les gouvernements pour responsables de la protection de son ouverture, qui est au fondement de nos libertés." conclut Jérémie Zimmermann, porte-parole de l'organisation citoyenne.
1. La contribution de Levy aux politiques de l'Internet a entre autres consisté à encourager le gouvernement français à tirer profit de son capital dématérialisé en insérant des publicités sur des sites d'information publics, et à promouvoir une vision purement économique d'Internet
2. parmi lesquels Mark Zuckerberg, Eric Schmidt et Stéphane Richard (Orange).
";s:7:"dateiso";s:15:"20110526_153711";}s:15:"20110524_162246";a:7:{s:5:"title";s:49:"Déclaration de la Société Civile au G8 et e-G8";s:4:"link";s:77:"http://www.laquadrature.net/fr/declaration-de-la-societe-civile-au-g8-et-e-g8";s:4:"guid";s:35:"4455 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 24 May 2011 14:22:46 +0000";s:11:"description";s:12754:"
Les signataires de cette déclaration sont des représentants de la société civile du monde entier qui travaillent à la promotion de l’Internet libre, des « droits numériques » et de communications ouvertes.
Nous voyons que la présidence française du G8 organise une réunion du G8 sur l’Internet, - un « forum e-G8 » - juste avant le sommet du G8 à Deauville, avec l’intention de proposer une orientation pour le G8 sur les questions clé concernant l’Internet. Cette réunion est importante parce que c’est la première fois que le rôle de l’Internet dans la société et pour l’économie est explicitement à l’ordre du jour du G8.
En tant que responsables des pays les plus puissants, vos politiques ont une influence majeure pour l’évolution d’Internet au niveau global. Malheureusement certaines des décisions prises dans les économies les plus développées fragilisent l’ouverture et la neutralité d’Internet – des qualités essentielles qui sont l’essence de son potentiel démocratique et économique. Nous pensons que les états membres du G8 devraient utiliser la réunion du e-G8 comme une opportunité pour s’engager publiquement à étendre le droit d’accès à Internet pour tous, combattre la censure numérique et la surveillance, limiter la responsabilité des intermédiaires dans le monde numérique et soutenir les principes de la neutralité d’Internet.
Droit à l’accès pour tous
Nous sommes particulièrement inquiets par la tendance croissante de pays à couper l’accès à Internet et aux réseaux de téléphonie mobile à leurs citoyens en période de crise, comme nous l’avons vu en Égypte, Libye, Iran, Chine, Népal ou Birmanie. Dans beaucoup, si ce n’est tous ces pays, nous voyons à quel point l’accès à Internet est une porte d’entrée vers une pléthore d’autres droits politiques et civiques, et avant tout aux droits fondamentaux des être humains.
Beaucoup de pays membres du G8 poursuivent activement des politiques qui pourraient contrôler et limiter de façon similaire le droit à l’accès ; ces politiques légitiment l’action des régimes répressifs et fragilisent l’ensemble de l’économie numérique. Alors que beaucoup de nations s’efforcent d’améliorer l’accès universel de base à l’Internet, l'apparition de politiques restrictives dans les pays développés comme dans les pays en développement est une tendance régressive et profondément inquiétante.
Liberté face à la surveillance et la censure en ligne
De façon simultanée, les régimes répressifs exploitent les capacités du réseau Internet pour leurs propres intérêts, souvent avec l’aide d’entreprises multinationales basées dans les pays du G8. Nous insistons pour en finir avec la vente de ce type de technologies, que ce soit pour un usage domestique ou pour l’exportation, et en terminer avec ces intrusions grossières pour la sécurité et le droit à la vie privée des utilisateurs.
Limitation de la responsabilité des intermédiaires dans le monde numérique et la propriété intellectuelle
Pour défendre le droit d’expression dans le monde numérique, il est décisif de résister à la pression croissante de l’industrie de la culture et du divertissement (et d’autres secteurs) pour imposer une plus grande responsabilité pour les hébergeurs et intermédiaires dans le monde numérique, dans les usages des utilisateurs de leurs services, à travers des instruments tels qu'HADOPI et ACTA.
À cet égard, nous vous demandons de suivre l’exemple du gouvernement brésilien dans ses principes pour l’usage et la gouvernance d’Internet, en particulier ce passage du 7e paragraphe qui dit : « Toutes les actions prises contre les activités illicites dans les réseaux en ligne doivent être dirigées contre ceux qui sont directement responsables de ces activités et non sur les moyens d’accès et de transports, en soutenant toujours les principes fondamentaux de liberté, respect de la vie privée et respect des droits humains1.
Neutralité d’Internet
Nous vous appelons enfin à engager vos pays à protéger la neutralité d’Internet, c'est-à-dire le principe selon lequel l’ensemble du trafic sur le réseau soit traité sur une base équitable, quelque soit l’origine ou le type de données transmises.
Voilà quelques unes des questions clé pour la gouvernance d’Internet dont nous pensons qu’elles méritent l’attention du G8. Nous attirons aussi votre attention sur deux déclarations de principe dont nous pensons qu’elles devraient guider les pays dans la gouvernance d’Internet :
les 10 droits et principes développés sous l’égide de la coalition pour les droits et principes d’Internet2,
la déclaration de l’assemblée pour le « droit à la communication » écrite lors du Forum Social Mondial de Dakar, en février 20113.
Nous voudrions aussi souligner nos inquiétudes concernant le e-G8. Nous joignons notre voix à celles du « Caucus pour la gouvernance d’Internet »4 qui expriment notre préoccupation collective devant l’absence de représentation de la société civile pendant le e-G8 et le G8 cette année.
Contrairement aux meilleures pratiques actuelles, la liste des invités a été d’abord limitée aux représentants de gouvernements et des grandes entreprises qui disposent aujourd’hui d’une influence disproportionnée dans la régulation d’Internet. Nous sommes en particulier profondément préoccupés de voir les intérêts des grandes entreprises dominer les discussions pendant les sommets du e-G8 et du G8 ; des questions comme le renforcement des droits de propriété intellectuelles et la responsabilité des intermédiaires dans le monde numérique semblent avoir pris la priorité sur celles concernant les citoyens, telles que la neutralité d’Internet, le logiciel libre ou la lutte contre la censure en ligne.
À un moment où les grandes entreprises ont a payer 100 000$ pour s’asseoir à la table du e-G8, très peu de représentants de la société civile seront présents pour défendre les priorités concernant les usages citoyens d’Internet à travers le monde. Nous sommes à un point critique dans l’histoire d’Internet et dans la lutte pour les droits humains. En tant que responsables élus de quelques-uns des pays les plus puissants du monde, nous vous demandons d’agir maintenant pour soutenir et défendre les principes de liberté d’Internet et des « droits numériques », pas simplement pour les citoyens de vos pays, mais pour les peuples du monde entier.
Les signataires de cette déclaration sont des représentants de la société civile du monde entier qui travaillent à la promotion de l’Internet libre, des « droits numériques » et de communications ouvertes.
Nous voyons que la présidence française du G8 organise une réunion du G8 sur l’Internet, - un « forum e-G8 » - juste avant le sommet du G8 à Deauville, avec l’intention de proposer une orientation pour le G8 sur les questions clé concernant l’Internet. Cette réunion est importante parce que c’est la première fois que le rôle de l’Internet dans la société et pour l’économie est explicitement à l’ordre du jour du G8.
En tant que responsables des pays les plus puissants, vos politiques ont une influence majeure pour l’évolution d’Internet au niveau global. Malheureusement certaines des décisions prises dans les économies les plus développées fragilisent l’ouverture et la neutralité d’Internet – des qualités essentielles qui sont l’essence de son potentiel démocratique et économique. Nous pensons que les états membres du G8 devraient utiliser la réunion du e-G8 comme une opportunité pour s’engager publiquement à étendre le droit d’accès à Internet pour tous, combattre la censure numérique et la surveillance, limiter la responsabilité des intermédiaires dans le monde numérique et soutenir les principes de la neutralité d’Internet.
Droit à l’accès pour tous
Nous sommes particulièrement inquiets par la tendance croissante de pays à couper l’accès à Internet et aux réseaux de téléphonie mobile à leurs citoyens en période de crise, comme nous l’avons vu en Égypte, Libye, Iran, Chine, Népal ou Birmanie. Dans beaucoup, si ce n’est tous ces pays, nous voyons à quel point l’accès à Internet est une porte d’entrée vers une pléthore d’autres droits politiques et civiques, et avant tout aux droits fondamentaux des être humains.
Beaucoup de pays membres du G8 poursuivent activement des politiques qui pourraient contrôler et limiter de façon similaire le droit à l’accès ; ces politiques légitiment l’action des régimes répressifs et fragilisent l’ensemble de l’économie numérique. Alors que beaucoup de nations s’efforcent d’améliorer l’accès universel de base à l’Internet, l'apparition de politiques restrictives dans les pays développés comme dans les pays en développement est une tendance régressive et profondément inquiétante.
Liberté face à la surveillance et la censure en ligne
De façon simultanée, les régimes répressifs exploitent les capacités du réseau Internet pour leurs propres intérêts, souvent avec l’aide d’entreprises multinationales basées dans les pays du G8. Nous insistons pour en finir avec la vente de ce type de technologies, que ce soit pour un usage domestique ou pour l’exportation, et en terminer avec ces intrusions grossières pour la sécurité et le droit à la vie privée des utilisateurs.
Limitation de la responsabilité des intermédiaires dans le monde numérique et la propriété intellectuelle
Pour défendre le droit d’expression dans le monde numérique, il est décisif de résister à la pression croissante de l’industrie de la culture et du divertissement (et d’autres secteurs) pour imposer une plus grande responsabilité pour les hébergeurs et intermédiaires dans le monde numérique, dans les usages des utilisateurs de leurs services, à travers des instruments tels qu'HADOPI et ACTA.
À cet égard, nous vous demandons de suivre l’exemple du gouvernement brésilien dans ses principes pour l’usage et la gouvernance d’Internet, en particulier ce passage du 7e paragraphe qui dit : « Toutes les actions prises contre les activités illicites dans les réseaux en ligne doivent être dirigées contre ceux qui sont directement responsables de ces activités et non sur les moyens d’accès et de transports, en soutenant toujours les principes fondamentaux de liberté, respect de la vie privée et respect des droits humains1.
Neutralité d’Internet
Nous vous appelons enfin à engager vos pays à protéger la neutralité d’Internet, c'est-à-dire le principe selon lequel l’ensemble du trafic sur le réseau soit traité sur une base équitable, quelque soit l’origine ou le type de données transmises.
Voilà quelques unes des questions clé pour la gouvernance d’Internet dont nous pensons qu’elles méritent l’attention du G8. Nous attirons aussi votre attention sur deux déclarations de principe dont nous pensons qu’elles devraient guider les pays dans la gouvernance d’Internet :
les 10 droits et principes développés sous l’égide de la coalition pour les droits et principes d’Internet2,
la déclaration de l’assemblée pour le « droit à la communication » écrite lors du Forum Social Mondial de Dakar, en février 20113.
Nous voudrions aussi souligner nos inquiétudes concernant le e-G8. Nous joignons notre voix à celles du « Caucus pour la gouvernance d’Internet »4 qui expriment notre préoccupation collective devant l’absence de représentation de la société civile pendant le e-G8 et le G8 cette année.
Contrairement aux meilleures pratiques actuelles, la liste des invités a été d’abord limitée aux représentants de gouvernements et des grandes entreprises qui disposent aujourd’hui d’une influence disproportionnée dans la régulation d’Internet. Nous sommes en particulier profondément préoccupés de voir les intérêts des grandes entreprises dominer les discussions pendant les sommets du e-G8 et du G8 ; des questions comme le renforcement des droits de propriété intellectuelles et la responsabilité des intermédiaires dans le monde numérique semblent avoir pris la priorité sur celles concernant les citoyens, telles que la neutralité d’Internet, le logiciel libre ou la lutte contre la censure en ligne.
À un moment où les grandes entreprises ont a payer 100 000$ pour s’asseoir à la table du e-G8, très peu de représentants de la société civile seront présents pour défendre les priorités concernant les usages citoyens d’Internet à travers le monde. Nous sommes à un point critique dans l’histoire d’Internet et dans la lutte pour les droits humains. En tant que responsables élus de quelques-uns des pays les plus puissants du monde, nous vous demandons d’agir maintenant pour soutenir et défendre les principes de liberté d’Internet et des « droits numériques », pas simplement pour les citoyens de vos pays, mais pour les peuples du monde entier.
";s:7:"dateiso";s:15:"20110524_162246";}s:15:"20110524_133119";a:7:{s:5:"title";s:82:"Droit d'auteur: la Commission européenne s'accroche à une répression dépassée";s:4:"link";s:105:"http://www.laquadrature.net/fr/droit-dauteur-la-commission-europeenne-saccroche-a-une-repression-depassee";s:4:"guid";s:35:"4467 at http://www.laquadrature.net";s:7:"pubDate";s:31:"Tue, 24 May 2011 11:31:19 +0000";s:11:"description";s:9974:"
Paris, le 24 mai 2011 – Aujourd'hui, la Commission européenne publie sa « Stratégie pour les droits de propriété intellectuelle ». Sans surprise, la Commission appelle à prévenir les infractions au droit d'auteur sur internet « à la source », en obligeant les prestataires Internet tels que les hébergeurs et fournisseurs d'accès à se soumettre aux industriels du divertissement. En pratique, transformer ces acteurs en police du droit d'auteur revient à établir un régime de censure, et ouvre la voie à une dangereuse remise en cause de nos droits fondamentaux.
Depuis des années, les décideurs publics ont mis en place des systèmes répressifs pour combattre les échanges individuels et non-commerciaux d'œuvres soumises au droit d'auteur sur Internet. Depuis qu'ils ne contrôlent plus les circuits de distribution de produits culturels, les majors du divertissement n'ont cessé d'expliquer que l'économie de la culture risquait la faillite. Toutefois, une analyse empirique du partage de fichiers montre que l'impact négatif du soi-disant piratage est un mythe : ceux qui échangent des produits culturels sur Internet sont des passionnés, et non pas des resquilleurs. Même l'étude commanditée par la tristement célèbre HADOPI montre que les personnes qui partagent en ligne dépensent plus pour des biens culturels que ceux qui ne partagent pas1. De même, les concerts sont en plein essor et le cinéma voit ses entrées en salles atteindre des niveaux records2. Les personnes qui partagent sont en fait les meilleurs consommateurs des industries culturelles.
« Le partage de la culture entre particuliers est une force positive pour l'économie de la création, la diversité culturelle et l'accès à la culture. Bien que les efforts de la Commission pour faciliter la diffusion commerciale des œuvres sur internet soient globalement positifs, cela ne doit pas se faire au prix de la pénalisation d'une pratique dont les bénéfices sont manifestes, pour qui s'en remet aux faits. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
Dans son document publié aujourd'hui, la Commission explique néanmoins que la directive IPRED sera révisée pour intensifier la répression contre les atteintes au droit d'auteur sur Internet. Cette annonce est d'autant plus inquiétante que, comme indiqué par le Commissaire du Marché Intérieur Michel Barnier, la Commission envisage la mise en place d'un dispositif extra-judiciaire au cœur de l'architecture d'Internet. Après l'échec cuisant des mesures pesant sur les utilisateurs d'Internet symbolisées par l'HADOPI3, la Commission tente de forcer les acteurs de l'Internet à se substituer à la police sur leurs services et réseaux4, comme nous l'expliquons dans notre réponse à la consultation de la directive IPRED « anti-partage ». Ceci transformerait les entreprises Internet en une police et une justice privées du droit d'auteur, violant le droit à un procès équitable, la liberté d'expression et la vie privée 5
« Comme les États-Unis avec le PROTECT IP Act, l'objectif des autorités européennes est d'utiliser des mesures techniques pour bloquer les communications et restreindre les usages au nom d'une vision obsolète du droit d'auteur. De telles mesures pesant sur les acteurs d'Internet mèneraient à la mise en place d'une infrastructure de censure techniquement similaire à celles actuellement utilisées dans les régimes autoritaires. Ce faisant, la liberté de communiquer, la vie privé ainsi que le droit à un procès équitable seraient inévitablement compromis. », déclare Jérémie Zimmerman, porte-parole de la Quadrature du Net.
«Ce glissement vers un rôle croissant des acteurs d'Internet pour empêcher le partage d'œuvres culturelles sur Internet est très inquiétant. Il revient à transformer toute l'architecture d'internet au seul bénéfice de quelques acteurs commerciaux. Leur influence néfaste sur les décideurs publics freine malheureusement la tenue d'une vraie réflexion sur la manière dont financer l'économie de la création au 21ème siècle. » conclut Jérémie Zimmerman.
1. Voir p. 45 du document : http://www.hadopi.fr/download/hadopiT0.pdf. Ceci n'est qu'un exemple récent parmi une longue série d'études. Plusieurs autres études indépendantes – dont celles de l'OCDE, l'IPSOS, le ministère de l'industrie canadien et d'autres sources universitaires mais également gouvernementales – montrent un impact positif ou neutre du partage de fichiers sur le secteur de la création. Voir l'index de ces études : http://lqdn.fr/p2pstudies
3. Début 2010, Nicolas Sarkozy a dit que « (…) la Haute autorité devra concevoir en permanence les solutions les plus modernes pour protéger les œuvres. Plus on pourra dépolluer automatiquement les réseaux et les serveurs de toutes les sources de piratage, moins il sera nécessaire de recourir à des mesures pesant sur les internautes. (…) Il faut donc expérimenter sans délai les dispositifs de filtrage. » – Vœux au monde de la culture du Président de la République, 7 janvier 2010 Voir : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
4. La Commission indique que la directive IPRED anti-partage sera bientôt révisée pour « s'attaquer aux infractions à la source et, dans ce but, stimuler la coopération des intermédiaires, tels que les fournisseurs d'accès à Internet »
5. En agissant ainsi, la Commission violerait la directive e-Commerce , qui a été adoptée en 2000 pour promouvoir le développement de l'économie numérique tout en stimulant la liberté d'expression en ligne, et éviter que les acteurs d'Internet n'aient à surveiller le réseau.
";s:7:"content";s:9974:"
Paris, le 24 mai 2011 – Aujourd'hui, la Commission européenne publie sa « Stratégie pour les droits de propriété intellectuelle ». Sans surprise, la Commission appelle à prévenir les infractions au droit d'auteur sur internet « à la source », en obligeant les prestataires Internet tels que les hébergeurs et fournisseurs d'accès à se soumettre aux industriels du divertissement. En pratique, transformer ces acteurs en police du droit d'auteur revient à établir un régime de censure, et ouvre la voie à une dangereuse remise en cause de nos droits fondamentaux.
Depuis des années, les décideurs publics ont mis en place des systèmes répressifs pour combattre les échanges individuels et non-commerciaux d'œuvres soumises au droit d'auteur sur Internet. Depuis qu'ils ne contrôlent plus les circuits de distribution de produits culturels, les majors du divertissement n'ont cessé d'expliquer que l'économie de la culture risquait la faillite. Toutefois, une analyse empirique du partage de fichiers montre que l'impact négatif du soi-disant piratage est un mythe : ceux qui échangent des produits culturels sur Internet sont des passionnés, et non pas des resquilleurs. Même l'étude commanditée par la tristement célèbre HADOPI montre que les personnes qui partagent en ligne dépensent plus pour des biens culturels que ceux qui ne partagent pas1. De même, les concerts sont en plein essor et le cinéma voit ses entrées en salles atteindre des niveaux records2. Les personnes qui partagent sont en fait les meilleurs consommateurs des industries culturelles.
« Le partage de la culture entre particuliers est une force positive pour l'économie de la création, la diversité culturelle et l'accès à la culture. Bien que les efforts de la Commission pour faciliter la diffusion commerciale des œuvres sur internet soient globalement positifs, cela ne doit pas se faire au prix de la pénalisation d'une pratique dont les bénéfices sont manifestes, pour qui s'en remet aux faits. » déclare Philippe Aigrain, co-fondateur de La Quadrature du Net.
Dans son document publié aujourd'hui, la Commission explique néanmoins que la directive IPRED sera révisée pour intensifier la répression contre les atteintes au droit d'auteur sur Internet. Cette annonce est d'autant plus inquiétante que, comme indiqué par le Commissaire du Marché Intérieur Michel Barnier, la Commission envisage la mise en place d'un dispositif extra-judiciaire au cœur de l'architecture d'Internet. Après l'échec cuisant des mesures pesant sur les utilisateurs d'Internet symbolisées par l'HADOPI3, la Commission tente de forcer les acteurs de l'Internet à se substituer à la police sur leurs services et réseaux4, comme nous l'expliquons dans notre réponse à la consultation de la directive IPRED « anti-partage ». Ceci transformerait les entreprises Internet en une police et une justice privées du droit d'auteur, violant le droit à un procès équitable, la liberté d'expression et la vie privée 5
« Comme les États-Unis avec le PROTECT IP Act, l'objectif des autorités européennes est d'utiliser des mesures techniques pour bloquer les communications et restreindre les usages au nom d'une vision obsolète du droit d'auteur. De telles mesures pesant sur les acteurs d'Internet mèneraient à la mise en place d'une infrastructure de censure techniquement similaire à celles actuellement utilisées dans les régimes autoritaires. Ce faisant, la liberté de communiquer, la vie privé ainsi que le droit à un procès équitable seraient inévitablement compromis. », déclare Jérémie Zimmerman, porte-parole de la Quadrature du Net.
«Ce glissement vers un rôle croissant des acteurs d'Internet pour empêcher le partage d'œuvres culturelles sur Internet est très inquiétant. Il revient à transformer toute l'architecture d'internet au seul bénéfice de quelques acteurs commerciaux. Leur influence néfaste sur les décideurs publics freine malheureusement la tenue d'une vraie réflexion sur la manière dont financer l'économie de la création au 21ème siècle. » conclut Jérémie Zimmerman.
1. Voir p. 45 du document : http://www.hadopi.fr/download/hadopiT0.pdf. Ceci n'est qu'un exemple récent parmi une longue série d'études. Plusieurs autres études indépendantes – dont celles de l'OCDE, l'IPSOS, le ministère de l'industrie canadien et d'autres sources universitaires mais également gouvernementales – montrent un impact positif ou neutre du partage de fichiers sur le secteur de la création. Voir l'index de ces études : http://lqdn.fr/p2pstudies
3. Début 2010, Nicolas Sarkozy a dit que « (…) la Haute autorité devra concevoir en permanence les solutions les plus modernes pour protéger les œuvres. Plus on pourra dépolluer automatiquement les réseaux et les serveurs de toutes les sources de piratage, moins il sera nécessaire de recourir à des mesures pesant sur les internautes. (…) Il faut donc expérimenter sans délai les dispositifs de filtrage. » – Vœux au monde de la culture du Président de la République, 7 janvier 2010 Voir : http://www.elysee.fr/download/?mode=press&filename=100107-discours-Voeux...
4. La Commission indique que la directive IPRED anti-partage sera bientôt révisée pour « s'attaquer aux infractions à la source et, dans ce but, stimuler la coopération des intermédiaires, tels que les fournisseurs d'accès à Internet »
5. En agissant ainsi, la Commission violerait la directive e-Commerce , qui a été adoptée en 2000 pour promouvoir le développement de l'économie numérique tout en stimulant la liberté d'expression en ligne, et éviter que les acteurs d'Internet n'aient à surveiller le réseau.
";s:7:"dateiso";s:15:"20110524_133119";}s:15:"19700101_010000";a:7:{s:5:"title";s:105:"[01net] Fibre optique : les opérateurs associatifs interpellent Orange et le gendarme des télécoms";s:4:"link";s:129:"https://www.laquadrature.net/2018/10/24/fibre-optique-les-operateurs-associatifs-interpellent-orange-et-le-gendarme-des-telecoms/";s:4:"guid";s:0:"";s:7:"pubDate";s:32:"Mon, 30 Nov -0001 00:00:00 +0000";s:11:"description";s:216:"
Ces petites structures souhaiteraient proposer de la fibre optique à leurs adhérents. Mais pour cela, il faudrait qu’elles puissent louer les offres activées d'un opérateur comme c’est le cas pour l’ADSL.";s:7:"content";s:1565:"
Ces petites structures souhaiteraient proposer de la fibre optique à leurs adhérents. Mais pour cela, il faudrait qu’elles puissent louer les offres activées d’un opérateur comme c’est le cas pour l’ADSL.
Coincés. D’un côté, les opérateurs associatifs grands publics n’ont pas les moyens de déployer leur propre réseau FttH. Et de l’autre, il n’existe pas d’offre leur permettant de louer la fibre optique activée à un autre opérateur. C’est pourtant déjà le cas pour l’ADSL avec Orange, on appelle cela une offre « activée » ou « bitstream ».
Ces acteurs prennent aujourd’hui la plume pour exprimer leur mécontentement dans une lettre adressée au président de l’Arcep Sébastien Soriano et au patron d’Orange Stéphane Richard. Elle est signée par la Fédération FDN, la Fédération des fournisseurs d’accès Internet associatifs qui regroupe une trentaine d’associations sur tout le territoire comme FDN, Aquilenet ou Rézine. […]